Evaluating the Experience of LGBTQ+ People Using Large Language Model Based Chatbots for Mental Health Support

2024年02月14日
  • 简介
    LGBTQ+个体越来越倾向于使用由大型语言模型(LLMs)驱动的聊天机器人来满足他们的心理健康需求。然而,很少有研究探讨这些聊天机器人是否能够为这个人群提供足够和安全的定制支持。我们采访了18名LGBTQ+和13名非LGBTQ+参与者,了解他们使用基于LLMs的聊天机器人满足心理健康需求的经验。LGBTQ+参与者依赖这些聊天机器人来获得心理健康支持,很可能是因为现实生活中缺乏支持。值得注意的是,虽然LLMs提供了及时的支持,但它们经常无法把握LGBTQ+特定挑战的细微差别。尽管微调LLMs以解决LGBTQ+需求是朝着正确方向迈出的一步,但这并不是万能药。更深层次的问题在于社会歧视。因此,我们呼吁未来的研究人员和设计师不仅要关注技术上的改进,而且要倡导综合性策略,以对抗和消除困扰LGBTQ+社区的社会偏见。
  • 图表
  • 解决问题
    研究探讨LGBTQ+个体使用基于大型语言模型的聊天机器人进行心理健康支持的经验和效果,以及这些聊天机器人是否能够提供定制化且安全的支持。
  • 关键思路
    LGBTQ+个体在现实生活中缺乏支持的情况下,会依赖于基于大型语言模型的聊天机器人进行心理健康支持,但这些机器人在理解LGBTQ+特定挑战方面存在不足。因此,未来的研究和设计需要采取全面策略,以应对和抵制困扰LGBTQ+社区的社会偏见。
  • 其它亮点
    实验采访了18名LGBTQ+和13名非LGBTQ+参与者,发现LGBTQ+个体倾向于使用基于大型语言模型的聊天机器人进行心理健康支持。然而,这些机器人经常无法理解LGBTQ+特定挑战的细微差别。未来的研究和设计需要超越技术改进,采取全面策略来应对和抵制困扰LGBTQ+社区的社会偏见。
  • 相关研究
    最近的研究主要关注LGBTQ+个体的心理健康问题,以及使用聊天机器人进行支持的效果。例如,一项研究探讨了基于情感分析的聊天机器人对LGBTQ+个体的心理健康支持的效果。另一项研究则关注了LGBTQ+个体对在线社区的使用和依赖。
PDF
原文
点赞 收藏 评论 分享到Link

沙发等你来抢

去评论