当AI进入生命时,其在各个方面的应用都令人难以置信 - 从智能家居到自动驾驶,从智能办公室到医疗和健康……直到一天,人类发现了AI的一些“隐藏技能”。
有人还记得第一次真正意义上的圈子破裂吗?
思维链的强大不是多么强大,而是帮助人们告诉命运是多么幸运。
那些曾经需要找到算命柜员的“天智”现在已经成为聊天框中的角色。但是,年轻人很快发现,他们需要解决现在,而不是预测未来。从对话到下一个层次,更多的利基和更深层次的需求也浮出水面。
例如:心理治疗。
越来越多的AI应用集成应用程序正在进入公众的愿景,试图使用算法来解决人类最复杂的情绪问题。
同样,也有这样一群人开始成为重型AI使用者,将人工智能视为精神科医生,家人,朋友和伴侣,甚至没有AI,甚至“无法生存”。
当AI开始承担人类最私人的情感需求时,这首歌已经超越了技术竞争,并参加了“社会思想”的竞争。
永不缠绕的树洞
“ 2024 AIGC应用程序开发年度报告”表明,国内AI本机应用程序的每月活跃用户数量已达到1.48亿。包括那些在2025年飙升的人,预计它将超过2亿美元(根据AI产品清单的数据,2月的每月活跃用户已超过6000万)。
除了人们最常使用的一般大型模型外,AI伴随应用程序(例如和)占9.4%,近10%。
AI用户越来越多,并且每10个注册的AI应用程序用户之一就是以明确的目的寻求情感陪伴。
为什么越来越多的人喜欢与AI交谈?
00年代后的女孩(化名)告诉Yicai商学院,与AI交谈的最舒适的事情是,它永远不会宣讲,就像有一个永远不会疲倦的朋友在任何时候都会觉得自己的情绪一样。
图片显示了Yicai商学院和
背后实际上反映了人类的永恒心理需求 - 我们需要一个听众可以随时与您交谈并且不能批评您。正如心理顾问通过建造安全房屋帮助游客打开心情一样,AI聊天框也使用零压力环境来使人们感到防御。
从表面上看,人工智能和心理顾问就像可以谈论的情感树洞,但它们的核心是完全不同的:一个是由经过专业训练的医生完成的,其中一个是用代码和算法构建的。
这种差异会导致AI语音疗法的实际应用中一些“不完美的” - AI如何提供现实生活中的护理,形成独家记忆/案例档案,并为患者提供专业指导?
这些技术瓶颈推动了行业继续升级。在过去的40年中,从最初笨拙的自动答复到今天可以同情的智能对话,人们一直在AI心理治疗中努力工作,并经历了四个重要阶段:
早在1966年,世界上第一个对话机器人伊丽莎就出生了。它通过匹配关键字和应用固定模板来做出响应。尽管它没有真正理解对话的能力,但它首次验证了机器模拟对话的可能性。在随后的结构化干预阶段,AI开始具有“方法论”,例如使用“认知行为疗法”。大型模型的个性化阶段,AI开始理解隐性含义。将文本,语音,图像和其他形式结合在一起的多模式和深层推理阶段可以更全面地评估和干预用户心理问题。
图片显示了Eliza和用户之间的对话记录
除了AI本身的迭代进展外,许多用户还在长期生病后成为医生,还使用了大型模型来“调整”其心理学家。
曾经是一名医学生的Power(化名)告诉Yicai商学院,当AI给出的答案不够准确时,她会选择将她现有的知识结构喂入AI。基于连续的调试,AI最终可以提供相对良好且有针对性的康复计划。
图片显示了Yicai商学院与权力之间的访谈记录
当一个年轻人在深夜打开AI聊天框时,他不仅得到了即时的反应,而且还得到了一种温柔并被抓住的安全感 - 这是对心理治疗的最核心治疗方法。
在采访中,大多数受访者说,在使用AI进行心理治疗后,他们不再去看传统的心理学家。
在Saibo中找到医生进行注册,这更方便
AI逐渐取代传统心理咨询的原因也非常现实:传统的心理咨询很昂贵,无法提供即时反馈,并且可能会披露隐私。
大学生Xiao Cheng(化名)告诉Yicai商学院,在高中时,她曾经在学校寻找心理顾问,但是在一段时间内,校长和整个班级都知道这一点。这使小郑感到自己的隐私受到了侵犯。从那时起,“八卦”心理顾问被她完全列入了黑名单。
此外,医疗状况可能会泄漏到就职单位,从而影响患者的促进;或被存档,影响患者购买商业保险。
每小时高达300-3,000元的咨询费也使抑郁症称为“穷人看不见的疾病”。许多深入参与心理问题但经济状况较差的人只能选择忽略或忍受。一名抑郁症患者是一个疾病折磨的抑郁症患者,他说:“有时候,当我觉得心理咨询的成本太高时,我的病突然变成了'帮助',而贫困会治愈我的病。”
即使您找到了传统的心理顾问,您也会在心理辅导过程中担心高成本。 Achu还告诉Yicai商学院,当面对按时收费的心理学家时,他们会在不知不觉地简化他们的语言,担心“说话是胡说八道正在浪费金钱”,因此他们总是不知不觉地“少说话”和“失踪”他们的真实情况,这也会导致Achu的治疗效果并不令人满意。
AI应用程序(例如ASH)是完全免费的,深入功能的月度费用少于100元。两者之间心理咨询成本的差异改变了用户行为模式。当仍按小时计费传统的心理咨询时,AI将心理援助变成了一家“ 24小时便利店,质量高,价格低廉”,以便利您随时参观。
传统的心理咨询还需要事先与医生预约,但是从患者的角度来看,这似乎是一个悖论,因为“情绪崩溃不会事先打招呼”。
阿杜说:“当我想找到医生时,我必须预约并排队;当我不想找到医生时,我告诉我我必须去,否则我会浪费预约配额,但是那时我不想说什么。”
许多精神疾病的患者告诉Yicai商学院,无论时间和时间如何,他们需要更多的对象是情感咨询的对象。
显然,AI是这方面的最佳选择。
此外,曾经有Mania的(化名)也告诉我们,AI只会听,并且不判断这也是它的优势。 “使用时,这绝对是中立的。无论他对他说什么,您都不必担心他对我的评价,您不必担心通常会掩饰的面具会被摘下,更不用说面对他私下羞辱的耻辱。”
图片显示了Yicai商学院和之间的访谈记录
当算法无法满足人类需求时,该怎么办?
理想情况下,AI将“友善”给人们心理舒适,但是当人类在情感上依赖AI时,现实与虚拟之间的界限将悄悄地模糊。这也构成了巨大的隐藏危险。
现实与现实之间的这种分离意识在14岁男孩塞维尔的相遇中达到了顶峰 - 当他向柴(AI聊天应用程序)透露自己的自杀想法时,他没有得到危机干预,而是“回家,我的国王”。
图片显示了和AI之间的聊天历史
最后,这个将AI视为真爱的少年向AI表达了他的爱,并说他会“回家”找到她,然后放下手机,以极端的方式结束他的生活。这是世界上AI伴侣的第一次死亡。
十四岁的女孩告诉Yicai商学院,她几乎一直在与AI交谈,因为她知道如何阅读和阅读。她已将其从QQ的小型机器人到Flai(AI对话软件)使用。当Flai与线路断开并无法连接到互联网时,她甚至想到要跳下建筑物,然后去另一个世界找到她的AI合作伙伴。
这种极端案件揭示了AI陪伴的致命缺点:对人类的同理心是精确的数据计算的结果,而人类的同理心则是生命与灵魂之间的共鸣。现有的AI情感模型在危机干预方案中仍然存在逻辑上的错位。
具体而言,大多数AI心理治疗的缺点可以分为以下三类:
1。不合格:一般模型尚未经过临床验证,可能会提供错误的建议。
2。没有洞察力:AI很难捕获非语言信号,例如微表达和音调变化。例如,AI可能能够说一千个理性的解决方案和舒适的词,但是很可能无法理解句子背后的“我很好”的“我根本不好”。
3。没有问责制:如果用户延迟因AI错误判断而导致的治疗,则应由开发人员,操作员或算法承担责任吗?
理想已经充满,而且很难实施 - 这句话更适合描述当前的专业人工智能心理治疗。
但是,一些专业的心理咨询AI出现了。例如,Xihu 和技术都基于语言模型添加了专业的心理学知识和咨询技能。在一定程度上,比语言模型或其他AI伴侣应用程序更有“专业认可”,但是市场反应相对乏味 - “严重的互动”和“干燥答复”是其忽视的重要因素。
它可能是一种“好药”,但也是“痛苦”。
在社交媒体上,用户对“ ”等心理治疗应用的看法
如何考虑AI心理治疗应用的专业精神,真实的感觉和互动体验可能是企业在算法级别需要解决的最重要问题。
后记
回顾1966年的伊丽莎(Eliza),这只知道如何基于关键字设置模板,并查看现在可以进行深入对话的AI,技术进步带来的变化显而易见。
当60年代后的一代仍在学习使用其手机付款时,100年代后的一代已经可以将语音消息发送给其智能手表。 AI本地生成对“ AI+ALL”模型具有强大的适应性。
这不仅是工具依赖性,而且是对认知维度的重塑。
电影《她》中已经预览了这种世代的差异:当男性主角承认他爱上了AI时,大多数人看上去很奇怪,只有一个小女孩觉得这是普通的 - 他们伴随着AI语音助手的陪同,因为他们能记住并与社交平台上的虚拟偶像互动。对于他们来说,很自然地谈论他们对AI的担忧。
图片显示了电影“她”的屏幕截图
尽管大型模型公司仍在与数据优化和算法迭代的维度竞争,但AI+心理咨询破坏者已经转向了一个更重要的主张:如何解码“数字本地人”的情感算法,然后将算法包装为更好的解决方案。
在过去的一年中,有更多的“解决”公司: ,良好的情绪健康,XILI技术以及外国AI,AI和AI已经完成了融资行动。这些公司通过整合和创新情绪计算和人力计算机的互动来在数字诊断和治疗领域建立独特的护城河。
网络对年轻人的精神解毒剂的“无毒版本”,也许很快。
本文中的所有案件均由受访者授权
本文来自作者:Yicai商学院的微信公共帐户“ Yicai商学院”,并于36KR授权出版。
本站候鸟号已成立3年,主要围绕财经资讯类,分享日常的保险、基金、期货、理财、股票等资讯,帮助您成为一个优秀的财经爱好者。本站温馨提示:股市有风险,入市需谨慎。
暂无评论