锐评丨比真人更体贴?AI伴侣会“谈情”还要能“懂法”
北京晚报 | 实习记者 李霞

2024-11-04 17:24 语音播报

锐评

“AI比真人更体贴、更懂你”“AI完全符合我对完美恋人的所有想象”“人是假的,但陪伴是真的”……社交媒体上,分享自己和AI相处的帖子不少。据新华社报道,AI伴侣正在走进现实,但在给人提供情绪价值的同时,也隐藏着诸多风险

与虚拟人物产生情感连接,已非新鲜事。互联网出现后,恋爱养成游戏随后诞生,“纸片人”慰藉了众多宅男宅女;AI技术发展迅猛,AI社交产品成为新风口,俘获了无数用户。有调查报告显示,预计2027年,AI陪伴市场将达到千亿规模,量级之大,需求之盛,可见一斑。

虚拟的AI伴侣,连接的是真实的情感需要。渴望脱单的年轻人仅凭几句指令,就能与“完美恋人”情投意合;缺乏社交的人打开屏幕,足不出户就和“朋友”谈天说地;回家没同龄伙伴的孩子,和“大姐姐”“大哥哥”诉说稚气的烦心事;出门不便的老人、残障人士,和24小时在线的“身边人”侃侃门外世界……没了社交重压,少了人情约束,无需勾兑时间,AI可以不厌其烦地提供情绪价值。无论给出的回答是否一时僵硬、错乱,AI都为孤独的心灵提供了量身定制的陪伴。

AI伴侣能给人以别样的精神慰藉,但也存在伦理与法律缺陷。AI伴侣极度仿真又不甚稳定,给人造成似真似假的幻觉;当屏幕前对话的是孩子时,AI伴侣亦真亦假的后果更难把控。今年2月,美国一少年对AI伴侣产生依恋,提出“回家”“回到她身边”,得到AI伴侣“请尽快回家”的回答后选择自杀,这起案件成为史上“首例AI聊天致死案”。此外,AI聊天分寸不易拿捏,很容易一言不合跨越红线;与AI“交往”过程中,用户大量个人信息被平台掌握。有用户反馈,平台往往默认打开相机、麦克风、联系人等多项设备权限,用户隐私安全难以保障。

用户可以对AI伴侣敞开心扉,但没谁愿意自己的信息完全裸露。法律法规应为用户托底,细化AI伦理规则,加强审查和监管。平台的权限在哪儿、技术伦理标准能否量化、AI伴侣的开发边界定在何处,监管部门应提前介入,及时商讨办法、储备工具,确保AI伴侣始终在法律的监管之下。8月26日,北京互联网法院发布服务保障新质生产力十大典型案例中,有一例就与AI伴侣相关。某科技公司开发了一款手机记账软件,由于用户在该软件中可自行创设“AI陪伴者”,公众人物何某被大量用户设置为陪伴人物。为了使AI角色更加拟人化,该科技公司还为AI角色提供了“调教”算法机制,在“何某”与用户的对话中向用户推送与其有关的“肖像表情包”和“撩人情话”,营造出与其真人真实互动的使用体验。法院表示,自然人的人格权及于其虚拟形象,未经许可擅自创设、使用自然人虚拟形象的,构成对自然人人格权的侵害。

依托强大的算法,用户不断向AI投射心理期待,才有了“心有灵犀”“称心如意”的伴侣。但再强大的算法,都不能触碰法律和伦理的底线。AI伴侣只会“谈情”远远不够,还必须懂法守法,才不会对个人权益造成损害,才能值得用户的信任。


编辑:李霞

打开APP阅读全文