diff options
Diffstat (limited to 'docs/locales')
| -rw-r--r-- | docs/locales/zh/admin/robots.md | 2 | ||||
| -rw-r--r-- | docs/locales/zh/advanced/scraper_deterrence.md | 18 | ||||
| -rw-r--r-- | docs/locales/zh/configuration/advanced.md | 17 | ||||
| -rw-r--r-- | docs/locales/zh/mkdocs.yml | 1 |
4 files changed, 1 insertions, 37 deletions
diff --git a/docs/locales/zh/admin/robots.md b/docs/locales/zh/admin/robots.md index c0c5b81ca..06f395087 100644 --- a/docs/locales/zh/admin/robots.md +++ b/docs/locales/zh/admin/robots.md @@ -10,6 +10,6 @@ GoToSocial 在主域名上提供一个 `robots.txt` 文件。该文件包含试 AI 爬虫来自一个[社区维护的仓库][airobots]。目前是手动保持同步的。如果你知道有任何遗漏的爬虫,请给他们提交一个 PR! -众所周知,很多 AI 爬虫在 `robots.txt` 不允许其 User-Agent 的情况下,仍然会忽略对应规则并继续抓去内容。这意味着 `robots.txt` 文件并不是确保 AI 爬虫不抓取你的内容的万无一失的方法。除此以外,你可能还需要考虑通过[请求标头过滤](request_filtering_modes.md)来阻止对应 User-Agent,以及启用基于工作证明的[爬虫防护](../advanced/scraper_deterrence.md)。 +众所周知,很多 AI 爬虫在 `robots.txt` 不允许其 User-Agent 的情况下,仍然会忽略对应规则并继续抓去内容。这意味着 `robots.txt` 文件并不是确保 AI 爬虫不抓取你的内容的万无一失的方法。除此以外,你可能还需要考虑通过[请求标头过滤](request_filtering_modes.md)来阻止对应 User-Agent。 [airobots]: https://github.com/ai-robots-txt/ai.robots.txt/ diff --git a/docs/locales/zh/advanced/scraper_deterrence.md b/docs/locales/zh/advanced/scraper_deterrence.md deleted file mode 100644 index 69ac8552f..000000000 --- a/docs/locales/zh/advanced/scraper_deterrence.md +++ /dev/null @@ -1,18 +0,0 @@ -# 爬虫防护 - -GoToSocial 提供一个可选的、基于工作量证明的爬虫和自动化 HTTP 客户端防护机制,可在账户页和贴文页的网页视图上启用。 - -它的工作原理是:针对每个传入的 HTTP 请求,系统会根据客户端信息和当前时间生成一个唯一质询(一个十六进制编码的 SHA256 哈希值)。然后,它要求客户端为该质询的一部分找到一个附加值,使(附加值+质询部分)组合计算出的新 SHA256 哈希值(同样为十六进制编码)至少包含 4 个前导 '0' 字符。这个质询会通过一个极简的等待页面呈现给客户端,该页面包含一个独立的 JavaScript worker 来计算解决方案。 - -一旦客户端提供了此质询的解,并通过在查询参数中携带该方案刷新页面,GoToSocial 将验证此方案。验证成功后,服务端会返回用户期望访问的账户或贴文页面,并设置一个 Cookie。该 Cookie 允许用户在接下来最多一小时内免验证访问该实例。 - -启用此功能的目的是让自动化数据收集(例如 AI 公司、搜索引擎)对你实例的账户和贴文页面进行爬取的行为,在经济上变得不可行。唯一的缺点是,用户需要启用 JavaScript 才能访问你的账户和贴文网页视图。 - -这个功能深受优秀的 [anubis] 项目的启发,但我们最终决定自己实现,只包含我们需要的功能,使用最少的代码,并能与我们现有的授权/认证流程实现更细粒度的结合。 - -GoToSocial 实现的这个爬虫防护功能仍然是极其精简的。因此,如果你需要更多功能或对防护措施进行更精细的控制,那么完全可以禁用我们的内置功能,并在你的实例前部署像 [anubis] 这样的服务! - -!!! warning "警告" - 这个基于工作量证明的爬虫防护机制并不保护用户账户页的 RSS feed,因为这会带来额外的复杂性。如果你需要确保 RSS feed 可被访问,那么在这种情况下,[anubis] 可能是更合适的选择! - -[anubis]: https://github.com/TecharoHQ/anubis
\ No newline at end of file diff --git a/docs/locales/zh/configuration/advanced.md b/docs/locales/zh/configuration/advanced.md index d9ecab845..c41f3e47d 100644 --- a/docs/locales/zh/configuration/advanced.md +++ b/docs/locales/zh/configuration/advanced.md @@ -149,21 +149,4 @@ advanced-csp-extra-uris: [] # 选项: ["block", "allow", ""] # 默认: "" advanced-header-filter-mode: "" - -# 布尔值。启用基于工作量证明的爬虫威慑机制, -# 作用于账户页和贴文页面。这将为每个 HTTP 客户端生成一个唯一确定 -# 的质询,需要由客户端在访问上述端点时完成。 -# 完成后,客户端会获得一个 Cookie,允许其在 1 小时窗口内免验证访问。 -# -# 这样做的结果是,它理论上使得对这些端点的抓取在经济上变得不可行, -# 同时对你自己的实例的性能影响可以忽略不计。 -# -# 缺点是它要求客户端启用 JavaScript。 -# -# 更多详情请查阅文档: -# https://docs.gotosocial.org/zh-cn/latest/admin/scraper_deterrence -# -# 选项: [true, false] -# 默认值: true -advanced-scraper-deterrence: false ```
\ No newline at end of file diff --git a/docs/locales/zh/mkdocs.yml b/docs/locales/zh/mkdocs.yml index 5a011340d..94f8895ad 100644 --- a/docs/locales/zh/mkdocs.yml +++ b/docs/locales/zh/mkdocs.yml @@ -80,7 +80,6 @@ nav: - "advanced/tracing.md" - "advanced/metrics.md" - "advanced/replicating-sqlite.md" - - "advanced/scraper_deterrence.md" - "advanced/sqlite-networked-storage.md" - "适用进阶场景的构建": - "advanced/builds/nowasm.md" |
