上传照片到AI工具安全吗?专家:控制权易旁落

09-06 07:24
AI照片上传存在隐私风险,数据可能遭到滥用和留存,专家警示要谨慎上传敏感内容。


目前,越来越多的人习惯向ChatGPT等生成式AI上传私人照片,用于识别皮肤疹子、查询植物名称或修改职业头像。然而,在享受便利时,你是否想过这些照片最终的去向?


尽管AI公司常称用户上传的图像只是“临时输入”,但隐私专家指出,实际情况可能并非如此。由于技术漏洞、政策不透明以及未来可能出现的未知用途,将照片交给AI存在巨大风险。


数字权益组织“电子前沿基金会”的高级技术专家雅各布·霍夫曼 - 安德鲁斯直言:“千万不要上传你不希望任何人看到的照片。但可悲的是,太多用户仍一厢情愿地认为AI会保护隐私,就像当年人们对互联网的误解一样。”


照片背后藏隐患


霍夫曼 - 安德鲁斯表示,应将AI聊天机器人视为另一个“云相册”,但它比iCloud或Google相册更危险。


首先,AI平台和其他网络服务一样,可能遭受黑客攻击导致数据泄露,用户账户也可能被盗用。


其次,AI公司有权访问用户的数据和图像。为优化模型性能,公司会定期抽样审核用户的对话内容,包括已上传的图片,即“人在回路”监督。即便你删除了聊天记录,这些图片可能早已被标记、“存档”,甚至经过人工审核。


上传花园植物照片或手臂皮疹特写看似无关紧要,但照片包含的信息远超想象。


每张图像都携带元数据,如拍摄时间、地理位置和设备信息。高分辨率照片还可能意外暴露桌面上的文件、信用卡信息或背景中他人的生物特征。如果AI公司未去除这些元数据,就可能获取你日常行为、常去地点、社交关系等大量敏感信息。


斯坦福大学以人为本人工智能研究所的隐私研究员珍妮弗·金指出:“用户其实是在不知情的情况下,为AI公司提供了免费的训练数据,而如果明确被询问,很多人根本不会同意。”


政策不明,风险难测


珍妮弗·金的研究发现,目前各大AI公司在图像使用政策上差异显著。微软旗下AI助手Copilot及Anthropic的Claude均公开承诺,不会将用户上传的图像用于模型训练。


ChatGPT开发商OpenAI默认使用所有数据,但允许用户选择退出。微软和OpenAI发言人已证实这一政策差异,Anthropic则表示已调整政策,由用户主动选择是否授权数据使用。


更值得关注的是,Meta在美国地区的AI用户目前无法选择退出数据训练。Meta发言人未正面回应这一问题,仅建议用户查看该公司在Facebook隐私中心发布的生成式AI数据使用政策。


尽管单张度假照片或食谱快照混入海量训练数据后风险看似不高,但某些图像确实更容易被AI系统“记住”,甚至可能以可识别的形式出现在聊天机器人的结果中。


“电子前沿基金会”的霍夫曼 - 安德鲁斯指出,两类图像被记住的风险较高:一类是在网络上出现成千上万次的经典图片,如《国家地理》上著名的“阿富汗女孩”照片;另一类是具有高度独特特征的图像。


对普通用户而言,AI完全复现个人照片的概率虽低,但局部特征泄露已构成隐私威胁。AI可能生成带有你独特胎记、疤痕或面部特征的图像,导致身份可被识别。


此外,AI头像生成、年龄变化滤镜等功能,因需用户上传清晰人脸照片,风险尤其高。而混乱的产品设计会加剧问题,例如Meta今年初推出的AI聊天应用中,部分用户的对话(含真实姓名和照片)一度被公开显示。


上传易,掌控难


研究人工智能对社会影响的AI Now Institute的联合主任莎拉·迈尔斯·韦斯特表示:“最令人担忧的是,如今上传的图像,未来可能被用于完全超出你最初预期的场景。”


尽管微软、Anthropic、Meta和OpenAI都声称“不会向第三方分发数据”,但这并不意味着它们会删除已上传的图片。随着技术演进和商业策略调整,这些图像可能进入新的应用场景,而用户或许一无所知。


韦斯特警告:“你上传的任何内容,它的使用时间会远远超过你的想象。”(文/腾讯科技特约编译金鹿


本文来自“腾讯科技”,作者:无忌,36氪经授权发布。


本文仅代表作者观点,版权归原创者所有,如需转载请在文中注明来源及作者名字。

免责声明:本文系转载编辑文章,仅作分享之用。如分享内容、图片侵犯到您的版权或非授权发布,请及时与我们联系进行审核处理或删除,您可以发送材料至邮箱:service@tojoy.com