资源列表
[搜索引擎] collect
说明:简易采集爬虫 # 1.我只做了一个收集url的功能,如果需要将数据入库,可在 parseData 函数里面写处理代码 # 2.需要sqlite3或者pysqlite支持 # 3.可以在DreamHost.com空间上面运行 # 4.可以修改User-Agent冒充搜索引擎蜘蛛 # 5.可以设置暂停的时间,控制采集速度-Simple collection reptiles# 1. I have only had a collection of url feature, if y<wangyh123> 在 2025-07-12 上传 | 大小:5kb | 下载:0
[搜索引擎] Web_site_optimization
说明:网站的优化和推广策划方案,大型网站专业平台搜索引擎优化服务:-Web site optimization and promotion planning programs, professional platform for large-scale Web site search engine optimization services:<伊莘> 在 2025-07-12 上传 | 大小:5kb | 下载:0
[搜索引擎] ming-gan-ci-hui
说明:网站设计必备的敏感关键词汇Web site design sensitive key words necessary-Web site design sensitive key words necessary<ylb> 在 2025-07-12 上传 | 大小:5kb | 下载:0
[搜索引擎] Baiduwordsegmentation
说明:查询处理与分词是一个中文搜索引擎必不可少的工作,而百度作为一个典型的中文搜索引擎一直强调其“中文处理”方面具有其它搜索引擎所不具有的关键技术和优势。那么我们就来看看百度到底采用了哪些所谓的核心技术。-Query processing and word is essential to a Chinese search engine work, but as a typical Chinese Baidu search engine has always stressed its " Chi<mtvc> 在 2025-07-12 上传 | 大小:5kb | 下载:0
[搜索引擎] 04799160weblogdig
说明:c++写的非常好的搜索引擎代码,值得学习借鉴-c++ to write a very good search engine code, it is worth to learn from<王强> 在 2025-07-12 上传 | 大小:5kb | 下载:0
[搜索引擎] python_sina_crawl
说明:新浪微博的爬虫程序。程序运行方式:保存所有代码后,打开Main.py,修改LoginName为你的新浪微博帐号,PassWord为你的密码。运行Main.py,程序会在当前目录下生成CrawledPages文件夹,并保存所有爬取到的文件在这个文件夹中。-Sina microblogging reptiles. Program operation: save all the code, open Main.py, modify LoginName for your Sina Weibo accou<tanghao> 在 2025-07-12 上传 | 大小:5kb | 下载:0