人工智能(AI)这几年火得不要不要的,从自动驾驶到学生写作业,从生成图片到准备报告,似乎就没有它不能做的事。我从去年至今已经做过四五场关于职业卫生和人工智能的演讲,西至加州伯克利,北至加拿大安大略,提问的人无数,有些问题靠我自己的知识甚至很难回答。但是很多AI的应用看起来高大上,实则是追求潮流关键词,一定要冷静看待。
职业卫生领域里AI的几种应用,无非就是用图像和视频识别工作场所的安全问题,或者用算法预测暴露浓度,但最多的是有人希望用大语言模型(LLM)来回答问题。下面一条条来说一下我的担忧:
首先,图像识别并不是人工智能,它只是一种成熟的工具。现在许多研究或应用都在用图像、视频识别来发现现场隐患:
比如识别未戴口罩的工人、检测施工区域的火花、判断是否有坠落风险。这些方案确实有用,也确实提高了效率。但这并不是AI带来的智能革命,早在 2010 年前后,Google 就开源了大量图像识别算法。今天用的所谓AI视频监控,本质上就是把这些老算法套进了新的工业场景。区别在于:过去模型门槛较高,很多公司提供成熟的商业模块,所以,这类应用其实是一种产业化整合,不应该带有太多AI的光环。

另一种常见做法,是用机器学习模型分析数据。比如随机森林回归模型(Random Forest Regression Model)或者梯度提升树回归(GBR),预测空气中某种化学物的浓度,或根据个体特征推测暴露风险。
这类方法在有大量高质量数据时确实非常有效,机器学习能自动发现人眼看不到的趋势,比传统的线性回归模型更灵活。但问题在于职业卫生的数据往往不够多,也不够干净。数据量大的时候又常来自于低成本传感器,质量较低,在这种情况下强行喂进机器学习模型,结果很可能是算法自嗨,从噪点里挖出看似有意义的规律,但那其实只是数据偏差或偶然现象。最近看的几篇学术论文都是这样,数据曲线拟合得漂亮,但没什么用。
最后最热的当属ChatGPT、Claude、Gemini 这类大语言模型(LLM),尝试让AI回答工人关于防护的问题,或写风险评估报告。这听起来像未来,但其实最危险。原因在于,现阶段的LLM并不是真正的智能体。它不是在像人一样思考,而是一种伪装的匹配模式。通俗讲,它只是把特定时间段内的大量正确不正确的信息标签化,然后用一种极端消耗资源的线性回归方式,预测下一个词最可能是什么。所以,当它回答职业卫生问题时,它其实只是在模仿过去的文本表述,而不是在真正理解暴露路径、毒理机制、法规差异。一旦用它来给工人或雇主提供建议,就有可能造成严重的误导和安全风险。

通用人工智能(AGI)或许有朝一日能真正理解情境、权衡风险、做出决策,但那还没远来。在此之前,LLM最多也就只能起到辅助作用,绝对不能成为职业卫生这种能轻易决定工人生死的决策者。

发表回复