django 1.8 官方文档翻译: 14-4-1 重定向应用

重定向应用

Django 原生自带一个可选的重定向应用。它将简单的重定向保存到数据库中并处理重定向。它默认使用HTTP 响应状态码301 Moved Permanently

安装

请依照下面的步骤安装重定向应用:

  1. 确保django.contrib.sites 框架已经安装。
  2. 添加’django.contrib.redirects’ 到 INSTALLED_APPS 设置中。
  3. 添加’django.contrib.redirects.middleware.RedirectFallbackMiddleware’ 到MIDDLEWARE_CLASSES 设置中。
  4. 运行命令manage.py migrate

它是如何工作的

manage.py migrate 在数据库中创建一张django_redirect 表。它是一张简单的查询表,具有site_idold_pathnew_path 字段。

RedirectFallbackMiddleware 完成所有的工作。每当Django 的应用引发一个404 错误,该中间件将到重定向数据库中检查请求的URL。它会根据old_pathSITE_ID 设置的站点ID 查找重定向的路径。

  • 如果找到匹配的记录且new_path不为空,它将使用301(“Moved Permanently”)重定向到new_path 。你可以子类化RedirectFallbackMiddleware 并设置 response_redirect_classdjango.http.HttpResponseRedirect 来使用302 Moved Temporarily 重定向。
  • 如果找到匹配的记录而new_path 为空,它将发送一个410 (“Gone”) HTTP 头和空(没有内容的)响应。
  • 如果没有找到匹配的记录,请求将继续正常处理。

这个中间件只针对404 错误启用 —— 不能用于500 或其它状态码。

注意MIDDLEWARE_CLASSES 的顺序很重要。通常可以将RedirectFallbackMiddleware 放在列表的最后,因为它最后执行。

更多的信息可以阅读中间件的文档

如何添加、修改和删除重定向

通过Admin 接口

如果你已经启用Django 自动生成的Admin 接口,你应该可以在Admin 的主页看到“Redirects”部分。编辑这些重定向,就像编辑系统中的其它对象一样。

通过Python API

class models.Redirect

重定向通过一个标准的Django 模型表示,位于django/contrib/redirects/models.py。你可以通过Django 的数据库API 访问重定向对象。

中间件

class middleware.RedirectFallbackMiddleware

你可以通过创建RedirectFallbackMiddleware 的子类并覆盖response_gone_class 和/或response_redirect_class 来修改中间件使用的HttpResponse类。

response_gone_class

New in Django 1.7.

HttpResponse 类,用于找不到请求路径的Redirect或找到的new_path 值为空的时候。

默认为HttpResponseGone

response_redirect_class

New in Django 1.7.

处理重定向的HttpResponse 类。

默认为HttpResponsePermanentRedirect

译者:Django 文档协作翻译小组,原文:Redirects

本文以 CC BY-NC-SA 3.0 协议发布,转载请保留作者署名和文章出处。

Django 文档协作翻译小组人手紧缺,有兴趣的朋友可以加入我们,完全公益性质。交流群:467338606。

展开阅读全文

150讲轻松搞定Python网络爬虫

05-16
【为什么学爬虫?】        1、爬虫入手容易,但是深入较难,如何写出高效率的爬虫,如何写出灵活性高可扩展的爬虫都是一项技术活。另外在爬虫过程中,经常容易遇到被反爬虫,比如字体反爬、IP识别、验证码等,如何层层攻克难点拿到想要的数据,这门课程,你都能学到!        2、如果是作为一个其他行业的开发者,比如app开发,web开发,学习爬虫能让你加强对技术的认知,能够开发出更加安全的软件和网站 【课程设计】 一个完整的爬虫程序,无论大小,总体来说可以分成三个步骤,分别是: 网络请求:模拟浏览器的行为从网上抓取数据。 数据解析:将请求下来的数据进行过滤,提取我们想要的数据。 数据存储:将提取到的数据存储到硬盘或者内存中。比如用mysql数据库或者redis等。 那么本课程也是按照这几个步骤循序渐进的进行讲解,带领学生完整的掌握每个步骤的技术。另外,因为爬虫的多样性,在爬取的过程中可能会发生被反爬、效率低下等。因此我们又增加了两个章节用来提高爬虫程序的灵活性,分别是: 爬虫进阶:包括IP代理,多线程爬虫,图形验证码识别、JS加密解密、动态网页爬虫、字体反爬识别等。 Scrapy和分布式爬虫:Scrapy框架、Scrapy-redis组件、分布式爬虫等。 通过爬虫进阶的知识点我们能应付大量的反爬网站,而Scrapy框架作为一个专业的爬虫框架,使用他可以快速提高我们编写爬虫程序的效率和速度。另外如果一台机器不能满足你的需求,我们可以用分布式爬虫让多台机器帮助你快速爬取数据。   从基础爬虫到商业化应用爬虫,本套课程满足您的所有需求! 【课程服务】 专属付费社群+每周三讨论会+1v1答疑
©️2020 CSDN 皮肤主题: 黑客帝国 设计师: 上身试试 返回首页
实付0元
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、C币套餐、付费专栏及课程。

余额充值