不少预测各地疫情高峰的模型以及小程序,最近在网上出现了,它们能够精确地显示开始日期与结束日期,这引发了广泛的让人注意。这些声称能够帮助大家预判疫情走势的预测工具,然而它们到底准不准确,具有多大的参考价值,还得打上一个表示疑问的符号。
模型预测的兴起
背景是防控措施有所调整,于此情形之下,一些经济学家以及科技公司着手利用公开数据去构建预测模型。举例来说,有一位经济学家,其粉丝数量达到百万之多,他借助对百度搜索指数展开分析,再结合数学模型,针对多个城市的疫情达峰时间予以了估算。
与此同时,有一款被称作“数据团+”的微信小程序同样给出了相仿佛的服务。在用户挑选城市之后,便能够瞅见预测出来的高峰进度条,举例来说,呈现北京的高峰期是去年12月中旬直至今年1月中旬。这些工具得以出现,契合了公众期盼知晓疫情走向的急切需求。
预测方法的原理
这种预测的关键原理,重点是跟踪特定关键词于搜索引擎上的搜索量的变化,模型假定,当越来越多的人去搜索发烧、咳嗽等症状之际,就表明感染人群在扩充,搜索量抵达某个峰值并开始降低的时候,则被看作是疫情达峰的标识。
采用类似逻辑的数据支撑方上海脉策数据公司,综合了百度以及巨量算数等平台的数据,其基本思路为,把超额搜索指数覆盖的面积当作判断感染人口是否达到阈值的依据,进而推断出疫情达峰以及结束的时间点。
数据源的局限性
然而,把搜索引擎数据当作主要甚至于仅有的数据源,存在显著的缺陷。首先,处于移动互联网时代,人们的搜索渠道极为分散,并非所有的人都运用百度。部分老年人或者不常使用智能手机的群体,他们的状况没办法通过搜索数据展现出来。
搜索量极易被外部因素所干扰,比如说,某地忽然发布新的防疫政策,这有可能致使相关搜索量在短期内急剧增加,然而这并非直接就等同于感染人数上升,所以,仅仅依靠搜索数据,极有可能没办法真实地反映出疫情在现实之中的传播状况。
与官方信息的对比
跟部分地区官方预估时间被记者作了对比的小程序预测情况,被发现是有差异的,像小程序预测南昌高峰期是去年12月下旬起始的,然而地方疾控部门基于实际监测或许会有不一样的判断,这种差异恰好表明了模型预测具有不确定性。
统计学专业的相关人士表明,这类模型在宏观层面的走势兴许具备一定的参考意义,然而精准到某一日开端以及终结,其精确程度以及实际所拥有的价值都是值得去进行商讨的。疫情发展是受到诸多复杂因素作用的,是很难被单纯的模型全部给捕捉到的。
统计学在医疗领域的应用与挑战
应用大数据来开展预测并不是刚出现的事情,在公共卫生范畴内,有一个知名的事例是谷歌公司的“流感趋势”(GFT),它曾经借助剖析与流感有关的搜索词汇,顺利地预测出了流感的传播走向,其精准程度曾经在一段时间被众人称赞。
不过,在2013年左右的时候,这一模型出现了极为严重的偏差,它所预测出来的流感病例数量,远远高于美国疾控中心后来统计得出的实际数据。而这个案例深切地揭示出,基于网络行为的大数据模型存在着诸如“信号漂移”等一些固有的风险,在像医疗这样复杂的领域予以应用的时候,必须要格外谨慎才行。
模型的真正价值与改进方向
即便存在着局限,然而此类预测模型并非完全没有任何价值地存在着。从宏观的层面上去看,它们能够为判断不同地区疫情的大致发展阶段,提供出一种观察的视角,这对于资源调配的决策参考是有帮助的。比如说这部分地区可能即将进入高峰,需要提前去准备医疗资源,这是可以通过此类预测模型提示出来的。
想提升预测的准确性,关键之处在于优化数据源,专家提出建议,要结合国家卫健委公布的权威数据,结合有代表性的抽样调查结果等多维度信息,再对模型进行校准。仅仅依靠搜索指数远远不够,只有融合更多真实世界的数据,预测才能够更贴近现实。
面临这些能够“预知”疫情高峰的预测工具,你究竟是会去选择参考呢,还是会更加相信官方的通报以及自身的防护呢,欢迎于评论区分享你的看法,要是觉得文章有帮助,也请点赞予以支持。


