据IT之家9月17日消息,OpenAI于昨日发布公告,正式推出针对青少年用户的ChatGPT专属保护模式,并首次提出AI对话应享有“医生问诊级隐私特权”的概念,引发全球科技伦理领域热议。
监管压力下的战略转向此次变革背后是严峻的监管压力。美国联邦贸易委员会(FTC)正对AI聊天机器人进行安全审查,重点关注其对青少年的心理影响。此前有家庭因青少年使用ChatGPT后自杀提起诉讼,迫使OpenAI采取更保守策略。首席执行官山姆・奥特曼坦言:“对青少年用户,安全优先于隐私和自由”。新系统通过行为分析预测用户年龄,无法确认身份时一律默认开启青少年模式,甚至可能要求用户提供身份证明。
技术伦理的边界博弈颇具争议的是其“主动干预机制”。当AI检测到未成年人表达自杀倾向时,将尝试联系家长,必要时上报执法部门。这种突破传统隐私保护的做法被质疑构成监控过度。而与之形成鲜明对比的是成人享有的“特权保护”——OpenAI主张AI对话应获得类似医患沟通的法律保护等级,正游说政策制定者确立相关立法。
全球AI治理的示范效应欧盟《人工智能法案》已将儿童权益保护列为高风险领域。OpenAI的举措为行业树立新标杆,谷歌Bard、微软Copilot等竞争对手很可能跟进类似限制。但技术实现仍存挑战:年龄预测准确率、误判后果承担机制、以及如何平衡《通用数据保护条例》(GDPR)等现有隐私法规与新型安全需求间的冲突。
当你的孩子向AI倾诉心理危机时,你希望AI立即通知你,还是守护孩子的隐私秘密?
(本文综合自OpenAI官方公告、《纽约邮报》、IT之家及法律专家解读,数据截至2025年9月17日。)
相关文章









猜你喜欢
成员 网址收录40418 企业收录2986 印章生成263572 电子证书1157 电子名片68 自媒体91237