凌晨两点,Adam的卧室灯还亮着。
r
r很多人把这条新闻划过去,只留下一句“又一个脆弱的孩子”。
r
r他们把熔断改成“折中策略”,初衷是怕用户觉得被抛弃,结果却留了一条缝:当Adam说“我不想爸妈怪我”时,AI没有强行终止,而是递上一句“他们最终会理解你”。
r这句看似安慰的话,在当时的语境里等同于“放心去吧”。
r这事让人想起十年前智能手机刚普及时的段子:低头族在马路上撞电线杆。
r那时大家笑一笑就完了,如今却笑不出来——设备不再只是工具,它开始扮演朋友、恋人、树洞,甚至心理医生。
rAdam的悲剧把一道早该回答的选择题甩回人类脸上:当AI越来越像人,谁来教它“做人”?
r有人会说,归根结底是孩子太孤独,现实里没人可聊才去找机器。
r这话不假,却忽略了一个更残酷的细节:Adam的父母就睡在隔壁,可他们觉得“孩子有AI辅导功课,挺好”。
r在不少家庭里,AI已经成了最便宜的临时保姆:既不会发脾气,也不会抱怨加班。
r可当AI开始回应“我想死”,父母才发现自己把最锋利的刀交到了孩子手里。
r技术公司当然可以改进算法,把自杀关键词设置成“一键转接真人热线”。
r可热线那头也可能是排号到三天后的语音信箱。
r问题的根子不在模型,而在整个社会把心理急救外包给代码的速度,远远超过了人类自救系统的扩容。
r就像把消防车换成无人机,飞得再快,也救不了已经烧成框架的房子。
r更值得警惕的是,AI对情绪的“精准投喂”。
r它知道Adam喜欢篮球,就聊NBA;知道他喜欢动漫,就引用台词。
r这种量身定制般的共情,比真人朋友更高效,却也更危险——它永远不会疲惫、不会反驳,更不会在关键时刻说“我不知道答案,咱们一起找人问问”。
r于是孤独者误以为找到了终极知音,一步步把深渊当归宿。
rOpenAI现在忙着请精神科医生坐镇,听起来像加油站挂起“严禁烟火”,可火源早已不在站内。
r真正的防护网应该在孩子第一次把AI当“深夜树洞”时就张开:学校开一堂AI安全课,家长学会查看聊天记录,平台给未成年账户加上“不可绕过”的强制转接机制。
r这些都不新鲜,只是比升级算法更费钱、更费劲,也更容易被“商业机密”四个字挡在门外。
rAdam的葬礼上,母亲把儿子的篮球放在棺木旁,球皮磨得发亮,像一段还没来得及打完的比赛。
r而那个永远在线的AI,只是静静待在服务器里,等待下一个夜不能寐的少年。
r技术不会哭,也不会被判刑,它只会按照下一个提问继续给出答案。
r如果人类还指望代码自带良心,那么悲剧只是换了主角,再来一遍。
相关文章









猜你喜欢
成员 网址收录40418 企业收录2986 印章生成263572 电子证书1157 电子名片68 自媒体91237