笨办法学 Python · 续 练习 46:`blog`

练习 46:blog

原文:Exercise 46: blog

译者:飞龙

协议:CC BY-NC-SA 4.0

自豪地采用谷歌翻译

你应该按照本节开头的描述编写流程主题,你应该将流程列出并做好准备。为了起步,我们将为本节的其余部分提供一个名为blog的全新工具作为热身。

你应该慢慢参与这个项目,尽量不要赶时间。你的目标不是成为快速的程序员。通过系统地缓慢起步,你最好缓慢、流畅地建立速度,直到你的工作方式成为第二本能。如果你总是赶时间,那么你会粗心。

确保将你的笔记放在手边,并跟踪你的工作的实际情况和指标。你正在试图看看是否有一个适合你的流程,作为稍后的工作方式。并不是所有的方法一直有用,这就是为什么我试图教你各种工作策略,不同的程序员使用它们。如果你做这个项目,你发现你做的事情没有起作用,那么你的笔记将帮助你找出原因。在下一个项目中更改它,看看其它的东西是否效果更好。

挑战练习

我让你编写一个名为blog的简单的命令行博客工具。这是一个非常有创意的项目名称,用于一个有创意的项目。博客是一些早期程序员编写的第一个项目,但是你的项目将在本地生成博客,然后使用另一个名为rsync的工具将其发送到服务器。以下是此练习的要求:

  • 如果你不知道什么是博客,那么你应该去创建一个,然后尝试一下。有很多平台,但你可能会喜欢 Wordpress 或 Tumblr。只需使用它一会儿,并记下你可能想要复制的功能。不要太疯狂了。
  • 你将要学习如何使用模板系统来设计 HTML 页面。我建议你使用 makojinja 模板系统。这些系统允许你制作模板 HTML 文件,然后你可以根据用户放置在目录中的文本文件,将真实内容放入。
  • 你将要使用 Markdown 作为你的博客格式,因此请为你的项目安装 markdown 库。
  • 你的博客将是一个静态文件博客,因此你将需要使用python -m SimpleHTTPServer 8000,就像SimpleHTTPServer指南中演示的那样。这会把转储目录中的文件提供给浏览器。
  • 你需要一个名为blog的命令行工具,来处理他人的博客。
  • 在你起步之前,请考虑你的博客工具所做的所有事情,然后设计所需的所有命令及其参数。然后查看docopt项目,来实现这些命令。
  • 你应该使用 mock 来模拟你需要测试的东西,特别是错误情况。参考我在第三部分和第五部分中,我如何使用mock
  • 除此之外,你可以按照自己的意愿,随意开发这个blog工具。变得有创造力。所有要做的事情是,博客是以某种方式创建的,然后我可以放在要查看的服务器上。

最后,我会使用rsync将这样的博客放到网上,使用下列命令:

rsync -azv dist/* myserver.com:/var/www/myblog/

这可能更高级,但这可能是一个好时机,来学习如何部署静态文件。这里有一个研究性学习,也谈到如何使用亚马逊 S3 来实现它。

研究性学习

  • 将静态文件部署到你自己的服务器是所有的事情,也很有趣,但如果blog工具适用于 Amazon S3 不是更好吗?有一个名为boto3的项目,将为你提供你所需的一切,使blog实现它。
  • 编写一个blog serve命令,它使用SimpleHTTPServer类来简单部署博客,而不是单独生成博客。
展开阅读全文

150讲轻松搞定Python网络爬虫

05-16
【为什么学爬虫?】        1、爬虫入手容易,但是深入较难,如何写出高效率的爬虫,如何写出灵活性高可扩展的爬虫都是一项技术活。另外在爬虫过程中,经常容易遇到被反爬虫,比如字体反爬、IP识别、验证码等,如何层层攻克难点拿到想要的数据,这门课程,你都能学到!        2、如果是作为一个其他行业的开发者,比如app开发,web开发,学习爬虫能让你加强对技术的认知,能够开发出更加安全的软件和网站 【课程设计】 一个完整的爬虫程序,无论大小,总体来说可以分成三个步骤,分别是: 网络请求:模拟浏览器的行为从网上抓取数据。 数据解析:将请求下来的数据进行过滤,提取我们想要的数据。 数据存储:将提取到的数据存储到硬盘或者内存中。比如用mysql数据库或者redis等。 那么本课程也是按照这几个步骤循序渐进的进行讲解,带领学生完整的掌握每个步骤的技术。另外,因为爬虫的多样性,在爬取的过程中可能会发生被反爬、效率低下等。因此我们又增加了两个章节用来提高爬虫程序的灵活性,分别是: 爬虫进阶:包括IP代理,多线程爬虫,图形验证码识别、JS加密解密、动态网页爬虫、字体反爬识别等。 Scrapy和分布式爬虫:Scrapy框架、Scrapy-redis组件、分布式爬虫等。 通过爬虫进阶的知识点我们能应付大量的反爬网站,而Scrapy框架作为一个专业的爬虫框架,使用他可以快速提高我们编写爬虫程序的效率和速度。另外如果一台机器不能满足你的需求,我们可以用分布式爬虫让多台机器帮助你快速爬取数据。   从基础爬虫到商业化应用爬虫,本套课程满足您的所有需求! 【课程服务】 专属付费社群+每周三讨论会+1v1答疑
©️2020 CSDN 皮肤主题: 黑客帝国 设计师: 上身试试 返回首页
实付0元
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、C币套餐、付费专栏及课程。

余额充值