当前位置: 首页 实时讯息

使用不当或有反噬作用,人工智能该不该用于大规模监控?

0次浏览     发布时间:2025-04-08 18:03:00    

《公共安全视频图像信息系统管理条例》(以下简称《条例》)日前施行,对公共场所安装视频图像采集设备做出规范,引发公众关注。那么,图像采集究竟是一种什么样的科学技术?随着AI运用越来越广泛,未来我们又将如何平衡技术安全与创新发展之间的关系?我们请知名科普作者张田勘来聊聊这个话题。

在本质上,图像信息采集是将真实世界的图像转化为计算机可以理解和处理的数字格式的过程。现在常用的图像采集设备包括摄像头、数码相机、扫描仪和医学成像设备等。针对公共安全领域的图像信息采集设备,大量应用的是摄像头,它虽然属于相机的一种,但是具有视频摄影/传播和静态图像捕捉等基本功能。

当前,我国公共安全视频图像信息系统已经发展到智能监控的阶段。在图形处理器(GPU)、物联网、大数据、云计算、AI识别和追踪等技术的支持下,安防视频监控由联网、高清化向智能分析转变。通过AI和大数据等,可以对大量人、车、物的行为关系进行数据挖掘,并且分析时空关系(时间和位置),有助于刑侦线索分析、案件规律分析、社会舆情分析、金融诈骗分析、公共交通优化等。未来,公共安全视频图像信息系统还会利用AI进行深层次的逻辑分析,如人员可疑行为分析。

尽管公共安全视频图像信息系统有利于保护公众安全和维护社会秩序,但是使用不当会有反噬作用。意识到这一点,《条例》规定了私密场所不得安装视频图像采集设备及相关设施,以更好地保护公民个人隐私。

视频图像信息系统如同很多探索中的科学技术一样,是把双刃剑。因此,它需要在科学管理下,避免技术的无序“放飞”,尤其是在人工智能快速发展的当下,公共安全领域更需对之持谨慎态度。

2021年11月,193个联合国成员国通过了教科文组织制定的有史以来第一份全球人工智能伦理标准《人工智能伦理问题建议书》,要点主要有两个:1.在国家或国际层面建立适当的数据保护框架和治理机制,将其置于司法系统保护之下,并在人工智能系统的整个生命周期内予以保障;2.禁止人工智能进行社会评分和大规模监控。

而视频图像信息系统正好就属于这类监控技术,若人工智能失控,对于人权侵犯的后果将难以想象。基于这份建议书的内容,现在无论是国内还是国外,人工智能运用的一个基本原则是,能不使用人脸识别的就不使用,一是人脸识别不一定准确,二是人脸信息可能通过各种方式流失于网络,造成隐私泄露和欺诈。

此次我国颁布的《条例》明确了隐私保护的规定,在图像信息采集维护公共安全与保护个人隐私之间划了一条红线,限定了一些不可安装图像采集设备的场所,如旅馆、饭店、宾馆、招待所、民宿等经营接待食宿场所的客房或者包间内部;学生宿舍的房间内部;公共的浴室、卫生间、更衣室、哺乳室、试衣间的内部等。这与《人工智能伦理问题建议书》中的伦理原则相吻合。

客观地看,人工智能和图像信息采集技术“搭档”的应用场景其实很广阔。若二者能良好配合,将有利于推动公共安全事后治理模式向事前预防模式转变。比如,人工智能对从危险突发事件中获取的数据进行实时智能对比分析,获得“经验”,此后便可提前有效预测危险事件的发生,为人们应对突发事件争取更多时间。另外,交通运输也是一个极具发展前景的应用领域。比如,在基于历史车祸数据、道路地图、图像信息采集甚至卫星图像的基础上,利用深度学习技术建立模型,可以预测高分辨率的车祸风险地图,以确定高风险区域。

归根结底,这些都是科学技术发展如何与社会伦理和法律兼容的极为重要的本质问题。在信息和AI时代,更需要促进科学技术与社会兼容,来实现既保护人,又不伤害人的愿景。

(供图:视觉中国)

来源:北京日报客户端

记者:汪丹

相关文章