第六章 数据地图-《捡只英灵做妹妹》


    第(2/3)页

    他苦笑了一下,对更适合爬虫的python自然是不熟悉的,他在开源网站上找到熟悉的php版,作者是一个印度孩子,不同的主机操作系统,远程安装的命令都不一样,好在开源网站支持远程克隆,一瞬间部署完毕。

    奇怪,硬是没起作用?果然是系统不对,为了用Torch开发人工智障男孩已经忍痛洗成乌班图了,如今又要回到php可不又得换回CentOS才好么,男孩捶了自己胸口一下,将那些被同学称为人工智障的诗篇一一备份存好,重装主机。

    20分钟过去,爬虫部署完毕,男孩测试了一个本地新闻站,路径设置是比较困难的,不同网站的页面结构有所不同,有些标题的Class属性都是乱写的,男孩一边忍着怒气一边一个一个调整好,过了半个小时,三个新闻站已经爬取完毕,最近7天只要带着失踪两字的新闻全都被抓下来。

    趁热打铁,他又添加了十个本地新闻站和两个本地论坛,两三个网站的反爬虫机制很厉害,不到一分钟就被禁止访问了,他苦笑了一声耸了耸肩,无论如何已经有上千条新闻进来了。

    新闻抓取,达成!男孩带着明亮的眼眸笑着,带着欣喜回望了身后熟睡的女孩们,又紧握拳头再次振作。

    接下来是提取工作,首先是去重,用distinct命令就可以。去重之后剩下700多条新闻和帖子,男孩倒吸一口凉气。

    短短几天,全市竟然发生了700多起失踪案!

    提取工作最难的一部分是地点识别,男孩没有字典,如果是有物流公司的数据就好了——思忖片刻,问题很快解决。

    他打开无极公司的地图网页,找到API接口,用网页提取的方式将钱唐市的所有街道小区名、路名、饭馆名、桥名、河名全部提取下来,毕竟工作量不大,于是他连公共厕所也没有放过。导入新的数据表后,自制的字典完成。

    借着字典和熟悉的命令,几十万字的新闻在5分钟化为700个零碎地名的文件,再次去重之后,只剩下500多个地名。

    早知道刚刚顺便把坐标也提取下来了,男孩挑了挑漫不经心的眉毛,喝了一口茶舒展身体,靠着椅背略微休息一会回到屏幕前,重新调用无极公司的API。

    这才发现无极公司早就提供了数据地图的功能,作为测试版本还是免费的,男孩露出欣喜的笑容,他重新下载好地名的数据包,再次敲击好命令之后,500多个地名后面纷纷出现对应的GPS坐标。

    从开始到现在一共过去了两个小时,男孩望着屏幕上密密麻麻标着红点的地图露出兴奋的笑,如此短的时间内取得如此进展真是叹为观止!这是过去以往都没有达到的推进速度。

    看着屏幕,谷文承喜悦的嘴巴逐渐大张,满脸惊恐。
    第(2/3)页