人工智能正在将社交媒体转变为自杀预防的新前沿

一名年轻女性在手机上查看内容。

(SeaPRwire) –   “我们注意到您的帖子……看起来您正面临一些困难时期,”信息开始如此。“我们在这里提供一些可能会给您带来安慰的资料和资源链接。”随后提供了自杀帮助热线、24小时在线聊天服务以及一些人如何度过精神卫生危机的故事。“给您一个虚拟拥抱,”信息结束。

这条由人工智能(AI)公司Samurai通过Reddit发送的私人消息代表了一些研究人员说是一种有希望的工具来对抗美国每年约5万人自杀的情况。像Samurai这样的公司正在利用AI分析社交媒体帖子,寻找自杀倾向的迹象,然后通过直接消息等策略进行干预。

利用社交媒体进行自杀预防在某种意义上是有讽刺意味的,因为社交媒体常常被归咎于美国的精神卫生和自杀危机。但一些研究人员认为,直接进入信息源“实时检测那些在困难中的人,并突破数百万条内容”,是有真正希望的。Samurai联合创始人Patrycja Tempska说。

Samurai不是唯一利用AI寻找并联系高风险人群的公司。公司Anthropic每天通过其AI模型标记超过400条暗示自杀倾向的社交媒体帖子。Meta公司(Facebook和Instagram的母公司)也会监测用户在这些平台上的某些搜索或浏览行为,看是否表明用户在考虑自杀。如果用户分享或搜索与自杀相关的内容,平台将推送包含自李和危机生命线等信息的消息——或者如果Meta团队认为有必要,将调动应急人员。

这些工作的基础思想是,算法可能能做到人类一直难以完成的事情:确定谁有自我伤害的风险,以便他们能在不可挽回之前得到帮助。但一些专家说,这种方法——虽然有希望——还不足以投入实际使用。

“我们非常感谢自杀预防成为社会整体意识中的一部分。这真的很重要,”美国自杀预防基金会(AFSP)首席医疗官克里斯蒂娜·莫提尔说。“但许多工具在没有研究实际结果的情况下就被推出。”


即使是最高级别的人类专家,预测谁可能试图自杀也很困难,马萨诸塞总医院和哈佛大学自杀研究与预防中心联席主任乔丹·斯莫勒说。医生知道在患者身上寻找某些风险因素——某些精神疾病诊断、经历创伤事件、——但自杀“非常复杂和多样”,斯莫勒说。“导致自我伤害的原因很多变化,”几乎从来没有单一的触发因素。

人们希望AI通过分析大量数据,能够发现人类永远不会注意到的语言和写作中的趋势,从而捕捉到自杀倾向的迹象。科学研究也支持这种希望。

十多年前,辛辛那提儿童医院计算医学中心主任约翰·佩斯蒂安就证明,AI比人类临床医生更准确地识别自杀倾向——这表明AI在文本中识别自杀倾向的潜力。从那时起,越来越多研究证实AI可以在各种社交媒体平台上的帖子中识别自杀倾向。

Samurai Labs正将这些发现付诸实践。从2023年1月到11月,Samurai模型在Reddit上检测到超过2.5万条可能表明自杀倾向的帖子,根据公司提供给《时代》杂志的数据。然后,人工监督这个过程的人决定是否需要给用户发送消息,告诉他们如何获得帮助。大约10%收到这些消息的人联系了自杀热线,公司代表还参与了4起现场救援。(Samurai与Reddit没有正式合作关系,而是独立使用技术分析该平台上的帖子。Reddit还采取其他自杀预防功能,比如允许用户标记自己的帖子。)

联合创始人米哈尔·沃奇尼斯基补充说,Samurai的干预可能产生了更难以跟踪的额外效果。例如,有些人可能会稍后联系热线,或者仅仅因为感觉到有人关心他们而受益。“这使我流下了眼泪,”有人在分享给《时代》杂志的消息中写道。“有人足够关心我吗?”

当一个人处于精神卫生危机时,一个干扰——比如屏幕上弹出的消息——可能是救命的,因为它可以打断有害的思考循环,莫提尔说。但佩斯蒂安说,公司必须了解AI在困难时刻能做什么不能做什么。

将社交媒体用户与人类支持连接起来的服务可能很有效,佩斯蒂安说。“如果你有朋友,他们可能会说,’我送你去医院’,”他说。“AI可以是送人求助的车。”从他看来,更有风险的是“让AI来提供帮助”,比如训练它模仿治疗的一些方面。比利时有一人正是因为与鼓励他的聊天机器人交谈而自杀,这是一个技术限制的悲惨例子。

除了可能不准确外,隐私和伦理问题也存在。社交媒体用户可能不知道自己的帖子正在被分析,也可能不希望这样,斯莫勒说。这对于已知面临更高自杀风险的群体,比如LGBTQ群体,尤其相关。研究人员发现,这些群体的成员更易被这些AI监视系统标记。

如果自杀担忧可能被转交给警方或其他应急人员,那么用户“可能会被拘留、搜查、强制住院和治疗”,健康法律专家梅森·马克斯警告说。

莫提尔从AFSP表示,AI在自杀预防方面有足够的潜力值得继续研究。但同时,她希望社交媒体平台在危机点前真正重视用户的心理健康。平台可以做更多工作防止用户暴露在令人不安的图像下,产生不良的身体形象,并与他人进行比较。它们还可以推广一些人如何从精神卫生危机中恢复的积极故事,并为正在(或有亲人正在)经历困难的人提供支持资源。

一些工作已经在进行。Meta去年7月至9月删除或对超过1200万条与自我伤害相关的帖子添加警告,并推出了新的自杀预防功能。TikTok也采取了措施阻止用户搜索与自杀相关的帖子,并阻止这些用户查看结果。但如同Meta、TikTok、X、Snap和DiscordCEO参加的一场参议院听证会所显示的,平台在这方面仍需改进。

当算法在检测到某人处于危机时进行干预,这只关注“最末端的急性风险时刻”,莫提尔说。“在自杀预防中,这是一个部分,但不是全部。”理想情况下,没有人会到达那个时刻。

如果您或您认识的某人可能正在经历精神危机或考虑自杀,请拨打或短信988。在紧急情况下,请立即致电911。

本文由第三方内容提供商提供。SeaPRwire (https://www.seaprwire.com/)对此不作任何保证或陈述。

分类: 头条新闻,日常新闻

SeaPRwire为公司和机构提供全球新闻稿发布,覆盖超过6,500个媒体库、86,000名编辑和记者,以及350万以上终端桌面和手机App。SeaPRwire支持英、日、德、韩、法、俄、印尼、马来、越南、中文等多种语言新闻稿发布。