AI换脸事件背后反映出的深层次问题

AI换脸侵犯隐私并不是小问题,它实际上反映出人类在AI时代的一种现状,在大数据和算法之下,所有人都是“裸露”的,个人隐私无处逃遁,普通人对于利用AI作恶也无力抵抗。

 |  信海光

文|信海光

一款新推出的AI换脸软件火爆社交网络,但同时也引发严重的隐私争议。根据介绍,使用AI技术,用户只需提供一张正面人脸照片上传到该软件,就可以把选定视频中的明星面部替换掉,生成以自己为主角的视频片段。

该软件一夜刷屏,但之后却又引发舆论对其涉嫌侵犯用户隐私权的严重质疑。因为在用户使用前必须签署的授权协议中有规定,用户上传发布内容后,意味着同意授予某些相关方在“全球范围内完全免费、不可撤销、永久、可转授权和可再许可的权利”,一些网友和法律人士认为其涉嫌非法收集用户面部信息,进而担心这些被收集的面部信息会被滥用,抑或被黑客盗用。

现在还很难判断软件运营方收集人脸数据和授权是否出于恶意,但网友的担心却是可以理解的。因为就在上个月的第四届全球金融科技峰会上,央行科技司司长李伟刚刚警示了AI人脸识别技术可能带来的新风险,他说,“人脸支付的时候,一刷脸钱就没了,更可怕。银行卡可能还揣在兜里,脸是平常露在外面,识别出来非常容易,现在有的技术在三公里之外识别你的人脸。”

李伟这番话在报道被广泛传播,使消费者意识到随着AI等技术的进步,人脸作为数据不但是有价值的,而且还会带来新的风险。但李伟的本意实际上是在告诫那些掌握前沿技术的公司:有技术也不能滥用,有技术也不能任性。

但从AI换脸软件所引发的质疑可以看出,并不是所有的公司把这番告诫放在心上。而这背后则存有多重原因:有商业利益上的原因,在数字经济形态下,数据已经成为新的生产要素,数据优势就是竞争优势,同时也是商业优势和经济优势,以逐利为主要目的的公司很难主动割舍这种优势;也有法律没有及时跟进,以及企业普遍缺乏自我商业道德约束的原因。

尤其是后者,如果从改革开放开始计算,中国融入现代商业社会不过四十余年,企业间的商业伦理建设并不完善,游走在法律边缘与灰色地带的企业极多,而主动从用户权益出发者较少,还有很大提升空间。在美国,如何面对人脸数据同样是新生课题,处于模糊地带,但微软却在今年主动选择删除了其最大的公开人脸识别数据库,原因就是担心侵犯公众隐私权、“数据权”。

AI换脸软件所引发的争议表面上是围绕隐私保护,但在本质上却反映了一个全社会甚至全人类必须面对的新课题,人类技术在飞速进步,在不断的进入新的领域,它不仅给人类带来更高品质的生活,同时也会引发大量创造性破坏,这对人类现有制度体系、运行机制、法律规则和社会秩序等都造成前所未有的挑战。

AI换脸侵犯隐私并不是小问题,它实际上反映出人类在AI时代的一种现状,在大数据和算法之下,所有人都是“裸露”的,个人隐私无处逃遁,普通人对于利用AI作恶也无力抵抗。而且随着AI能力的提高以及更普遍的应用,还有更多难题必须面对,比如智能机器人是人还是机器?有没有主体资格?人工智能直接造成的损害谁来承担?甚至人工智能失控了怎么办?

这并非危言耸听。未来已来,人工智能不仅是一个技术问题,也是一道治理考题。实际上,在中国的最高决策层也已经看到这一问题。在2018年的世界人工智能大会上,领导人在贺信中既曾指出,在把握好新一代人工智能所带来之发展机遇的同时,要“处理好人工智能在法律、安全、就业、道德伦理和政府治理等方面提出的新课题”;2018年10月31日,在zzj第九次集体学习时也曾强调,要整合多学科力量,加强人工智能相关法律、伦理、社会问题研究,建立健全保障人工智能健康发展的法律法规、制度体系、伦理道德。

发展人工智能,治理需跟上。理想的状态下是人工智能技术与立法齐头并进,甚至法律能做到未雨绸缪,但人类社会的常态却是治理往往会落后于技术进步,这种情况下,就需要科技企业自发的承担伦理责任,保持敬畏之心,坚持科技向善,维护人类价值,避免技术发展和应用突破人类伦理底线。而从历史经验看,这也是最符合企业根本利益和长远利益的最佳路线。

(本文是作者为新京报撰写的9月1日社论,见刊有删节)