经验首页 前端设计 程序设计 Java相关 移动开发 数据库/运维 软件/图像 大数据/云计算 其他经验
当前位置:技术经验 » JS/JS库/框架 » Node.js » 查看文章
手动给docusaurus添加一个搜索
来源:cnblogs  作者:flydean  时间:2024/4/19 8:55:14  对本文有异议

新版博客用docusaurus重构已经有些日子了,根据docusaurus的文档上也申请了Algolia,想一劳永逸的解决博客的搜索问题。但是流水有意,落花无情。

algolia总是不给我回复,我只能对着algolia的申请页面仰天长叹。

正常情况的申请

按照docusaurus官方文档上说的,当我们需要搜索的时候,打开https://docsearch.algolia.com/apply/填一下申请,提交就行了。

image-20240412142349147

但是可惜的是,我填好资料,点这个join the program很多次了,就是没有反应。

怎么办呢?我仔细检查了它的官方文档,看他的描述说是需要等待2个星期。但是2个星期实在太久了,在我们只争朝夕的今天,怎么行。

还好,我看到它还有一种手动上传的办法,笨是笨了点,总比没有的好。那就开始吧。

手动上传

首先我们得去Algolia上注册一个账号,然后在这里需要创建一个应用:

image-20240412143404546

应用的旁边,需要创建一个index用来存储搜索数据:

image-20240412143441586

这样,前期的准备工作就做好了。

再在api设置中找到APPLICATION_ID和API_KEY。把他们保存到.env文件中:

APPLICATION_ID=YOUR_APP_ID
API_KEY=YOUR_API_KEY

注意,这里的API_KEY最好是Admin API Key,因为会有一些权限需要。

如果是Admin API Key的话,记得不要分享给别人,这个key的权限比较大,可以删除和更新你的index数据。

设置配置文件

接下来,我们还需要一个配置文件。用来配置爬虫信息。下面是一个最基本的配置信息。

  1. {
  2. "index_name": "example",
  3. "start_urls": ["https://www.example.com/docs"],
  4. "selectors": {
  5. "lvl0": "#content header h1",
  6. "lvl1": "#content article h1",
  7. "lvl2": "#content section h3",
  8. "lvl3": "#content section h4",
  9. "lvl4": "#content section h5",
  10. "lvl5": "#content section h6",
  11. "text": "#content header p,#content section p,#content section ol"
  12. }
  13. }

其中index_name就是我们刚刚在网站上创建的index_name。当DocSearch scraper程序跑起来的时候,你会发现有一个临时的index_name + _tmp 索引被创建。

别担心,在程序执行完毕之后,会把这个tmp index会替换最终的index。

start_urls包含的是要开始爬取的链接地址。爬虫会循环爬取链接里面的a标签,除非是遇到了stop_urls。另外爬虫不会爬取其他域名的链接。

selectors是用于创建记录层次结构的所有 CSS 选择器。其中text是强制,必须要有的。

如果你对不同的url有不同的selector方案,那么可以给不同的url配置不同的selectors_key,如下所示:

  1. {
  2. "start_urls": [
  3. {
  4. "url": "http://www.example.com/docs/faq/",
  5. "selectors_key": "faq"
  6. },
  7. {
  8. "url": "http://www.example.com/docs/"
  9. }
  10. ],
  11. […],
  12. "selectors": {
  13. "default": {
  14. "lvl0": ".docs h1",
  15. "lvl1": ".docs h2",
  16. "lvl2": ".docs h3",
  17. "lvl3": ".docs h4",
  18. "lvl4": ".docs h5",
  19. "text": ".docs p, .docs li"
  20. },
  21. "faq": {
  22. "lvl0": ".faq h1",
  23. "lvl1": ".faq h2",
  24. "lvl2": ".faq h3",
  25. "lvl3": ".faq h4",
  26. "lvl4": ".faq h5",
  27. "text": ".faq p, .faq li"
  28. }
  29. }
  30. }

好了,基本的配置就这些了。

运行爬虫脚本

现在可以运行爬虫脚本了,这里有两个选择,一是跑docker,方便快捷。二是从源代码运行,这个就比较麻烦了。

这里我只是希望博客可以有搜索功能,所以源码什么的就算了吧,我们直接跑docker命令:

run -it --env-file=.env -e "CONFIG=$(cat flydean.conf | jq -r tostring)" algolia/docsearch-scraper

过一会就运行起来了。但是我们看看日志:

DocSearch: http://www.flydean.com/07-python-module/ 0 records)
DocSearch: http://www.flydean.com/08-python-io/ 0 records)
DocSearch: http://www.flydean.com/09-python-error-exception/ 0 records)
DocSearch: http://www.flydean.com/06-python-data-structure/ 0 records)

Crawling issue: nbHits 0 for myblog

nb_hits表示的是DocSearch 提取和索引的记录数。

怎么是0 records?难道什么都没有爬到?

直觉是我的start_urls不太对,我们把它换成sitemap.xml再试一次:

  1. {
  2. "sitemap_urls": ["http://www.example.com/docs/sitemap.xml"]
  3. }

还是同样的错误。

没办法,再去仔细读一下配置文件的说明。

终于发现了问题,原来这里的selectors写的有问题,#content header h1表示的是在ID为content的元素内部,寻找所有属于header类的元素,并在这些元素内部寻找所有的<h1>元素。但是在docusaurus V3版本中已经发生了变化。

我们把它改写成这样:

  1. "selectors": {
  2. "lvl0": {
  3. "selector": ".menu__link--sublist.menu__link--active",
  4. "global": true,
  5. "default_value": "Documentation"
  6. },
  7. "lvl1": "header h1",
  8. "lvl2": "article h2",
  9. "lvl3": "article h3",
  10. "lvl4": "article h4",
  11. "lvl5": "article h5",
  12. "lvl6": "article h6",
  13. "text": "article p, article li"
  14. },

再运行一次,这次终于有数据了。

回到网站上看看,已经有数据上传上来了:

image-20240412153529110

好了,我们在docusaurus.config.ts中配置一下,看看效果:

  1. algolia: {
  2. // The application ID provided by Algolia
  3. appId: 'YOUR_APP_ID',
  4. // Public API key: it is safe to commit it
  5. apiKey: 'YOUR_SEARCH_API_KEY',
  6. indexName: 'YOUR_INDEX_NAME',
  7. // Optional: see doc section below
  8. contextualSearch: true,
  9. // Optional: Algolia search parameters
  10. searchParameters: {},
  11. // Optional: path for search page that enabled by default (`false` to disable it)
  12. searchPagePath: 'search',
  13. //... other Algolia params
  14. },

我们在网站上试试效果:

image-20240412165018633

完美,遇到问题的小伙伴可以私信我哟!

点我查看更多精彩内容:www.flydean.com

原文链接:https://www.cnblogs.com/flydean/p/18144787

 友情链接:直通硅谷  点职佳  北美留学生论坛

本站QQ群:前端 618073944 | Java 606181507 | Python 626812652 | C/C++ 612253063 | 微信 634508462 | 苹果 692586424 | C#/.net 182808419 | PHP 305140648 | 运维 608723728

W3xue 的所有内容仅供测试,对任何法律问题及风险不承担任何责任。通过使用本站内容随之而来的风险与本站无关。
关于我们  |  意见建议  |  捐助我们  |  报错有奖  |  广告合作、友情链接(目前9元/月)请联系QQ:27243702 沸活量
皖ICP备17017327号-2 皖公网安备34020702000426号