summaryrefslogtreecommitdiff
path: root/docs/locales
diff options
context:
space:
mode:
Diffstat (limited to 'docs/locales')
-rw-r--r--docs/locales/zh/admin/robots.md2
-rw-r--r--docs/locales/zh/advanced/scraper_deterrence.md18
-rw-r--r--docs/locales/zh/configuration/advanced.md17
-rw-r--r--docs/locales/zh/mkdocs.yml1
4 files changed, 1 insertions, 37 deletions
diff --git a/docs/locales/zh/admin/robots.md b/docs/locales/zh/admin/robots.md
index c0c5b81ca..06f395087 100644
--- a/docs/locales/zh/admin/robots.md
+++ b/docs/locales/zh/admin/robots.md
@@ -10,6 +10,6 @@ GoToSocial 在主域名上提供一个 `robots.txt` 文件。该文件包含试
AI 爬虫来自一个[社区维护的仓库][airobots]。目前是手动保持同步的。如果你知道有任何遗漏的爬虫,请给他们提交一个 PR!
-众所周知,很多 AI 爬虫在 `robots.txt` 不允许其 User-Agent 的情况下,仍然会忽略对应规则并继续抓去内容。这意味着 `robots.txt` 文件并不是确保 AI 爬虫不抓取你的内容的万无一失的方法。除此以外,你可能还需要考虑通过[请求标头过滤](request_filtering_modes.md)来阻止对应 User-Agent,以及启用基于工作证明的[爬虫防护](../advanced/scraper_deterrence.md)。
+众所周知,很多 AI 爬虫在 `robots.txt` 不允许其 User-Agent 的情况下,仍然会忽略对应规则并继续抓去内容。这意味着 `robots.txt` 文件并不是确保 AI 爬虫不抓取你的内容的万无一失的方法。除此以外,你可能还需要考虑通过[请求标头过滤](request_filtering_modes.md)来阻止对应 User-Agent。
[airobots]: https://github.com/ai-robots-txt/ai.robots.txt/
diff --git a/docs/locales/zh/advanced/scraper_deterrence.md b/docs/locales/zh/advanced/scraper_deterrence.md
deleted file mode 100644
index 69ac8552f..000000000
--- a/docs/locales/zh/advanced/scraper_deterrence.md
+++ /dev/null
@@ -1,18 +0,0 @@
-# 爬虫防护
-
-GoToSocial 提供一个可选的、基于工作量证明的爬虫和自动化 HTTP 客户端防护机制,可在账户页和贴文页的网页视图上启用。
-
-它的工作原理是:针对每个传入的 HTTP 请求,系统会根据客户端信息和当前时间生成一个唯一质询(一个十六进制编码的 SHA256 哈希值)。然后,它要求客户端为该质询的一部分找到一个附加值,使(附加值+质询部分)组合计算出的新 SHA256 哈希值(同样为十六进制编码)至少包含 4 个前导 '0' 字符。这个质询会通过一个极简的等待页面呈现给客户端,该页面包含一个独立的 JavaScript worker 来计算解决方案。
-
-一旦客户端提供了此质询的解,并通过在查询参数中携带该方案刷新页面,GoToSocial 将验证此方案。验证成功后,服务端会返回用户期望访问的账户或贴文页面,并设置一个 Cookie。该 Cookie 允许用户在接下来最多一小时内免验证访问该实例。
-
-启用此功能的目的是让自动化数据收集(例如 AI 公司、搜索引擎)对你实例的账户和贴文页面进行爬取的行为,在经济上变得不可行。唯一的缺点是,用户需要启用 JavaScript 才能访问你的账户和贴文网页视图。
-
-这个功能深受优秀的 [anubis] 项目的启发,但我们最终决定自己实现,只包含我们需要的功能,使用最少的代码,并能与我们现有的授权/认证流程实现更细粒度的结合。
-
-GoToSocial 实现的这个爬虫防护功能仍然是极其精简的。因此,如果你需要更多功能或对防护措施进行更精细的控制,那么完全可以禁用我们的内置功能,并在你的实例前部署像 [anubis] 这样的服务!
-
-!!! warning "警告"
- 这个基于工作量证明的爬虫防护机制并不保护用户账户页的 RSS feed,因为这会带来额外的复杂性。如果你需要确保 RSS feed 可被访问,那么在这种情况下,[anubis] 可能是更合适的选择!
-
-[anubis]: https://github.com/TecharoHQ/anubis \ No newline at end of file
diff --git a/docs/locales/zh/configuration/advanced.md b/docs/locales/zh/configuration/advanced.md
index d9ecab845..c41f3e47d 100644
--- a/docs/locales/zh/configuration/advanced.md
+++ b/docs/locales/zh/configuration/advanced.md
@@ -149,21 +149,4 @@ advanced-csp-extra-uris: []
# 选项: ["block", "allow", ""]
# 默认: ""
advanced-header-filter-mode: ""
-
-# 布尔值。启用基于工作量证明的爬虫威慑机制,
-# 作用于账户页和贴文页面。这将为每个 HTTP 客户端生成一个唯一确定
-# 的质询,需要由客户端在访问上述端点时完成。
-# 完成后,客户端会获得一个 Cookie,允许其在 1 小时窗口内免验证访问。
-#
-# 这样做的结果是,它理论上使得对这些端点的抓取在经济上变得不可行,
-# 同时对你自己的实例的性能影响可以忽略不计。
-#
-# 缺点是它要求客户端启用 JavaScript。
-#
-# 更多详情请查阅文档:
-# https://docs.gotosocial.org/zh-cn/latest/admin/scraper_deterrence
-#
-# 选项: [true, false]
-# 默认值: true
-advanced-scraper-deterrence: false
``` \ No newline at end of file
diff --git a/docs/locales/zh/mkdocs.yml b/docs/locales/zh/mkdocs.yml
index 5a011340d..94f8895ad 100644
--- a/docs/locales/zh/mkdocs.yml
+++ b/docs/locales/zh/mkdocs.yml
@@ -80,7 +80,6 @@ nav:
- "advanced/tracing.md"
- "advanced/metrics.md"
- "advanced/replicating-sqlite.md"
- - "advanced/scraper_deterrence.md"
- "advanced/sqlite-networked-storage.md"
- "适用进阶场景的构建":
- "advanced/builds/nowasm.md"