斯坦福大学作者的一篇叙述性综述为临床医生在日常实践中考虑使用像ChatGPT这样的大型语言模型(llm)提供了重要的见解,包括使用建议和缓解策略的潜在缺陷。该评论发表在《内科医学年鉴》上。
法学硕士是在大量文本数据上训练的人工智能模型,可以产生类似人类的输出,并已应用于医疗保健领域的各种任务,例如回答医学检查问题、生成临床报告和做笔记。随着这些模型获得牵引力,医疗保健从业者必须了解它们的潜在应用以及在医疗环境中使用它们的相关陷阱。
根据审查,法学硕士可以用于行政任务,如总结医疗记录和辅助文件;与增加知识相关的任务,比如回答诊断问题和医疗管理问题;与教育相关的任务,包括写推荐信和学生水平的文本摘要;以及与研究相关的任务,包括产生研究想法和为拨款撰写草稿。
然而,用户应该小心潜在的陷阱,包括缺乏HIPAA遵守、固有偏见、缺乏个性化以及与文本生成相关的可能的道德问题。为了减轻这些风险,作者建议进行制衡,包括始终让人类参与其中,并使用人工智能工具来增强工作任务,而不是取代它们。根据作者,医生和其他卫生保健专业人员必须权衡潜在的机会与这些现有的限制,因为他们寻求将法学硕士纳入他们的医学实践。
更多信息:Annals of Internal Medicine(2024)。www.acpjournals.org/doi/10.7326/M23-2772期刊信息:美国内科医师学会提供的内科医学年鉴引文:综述揭示了生成式人工智能在医疗环境中的潜在用途和陷阱(2024年1月29日),检索自2024年1月31日https://medicalxpress.com/news/2024-01-reveals-potential-pitfalls-generative-ai.html。除为私人学习或研究目的而进行的任何公平交易外,未经书面许可,不得转载任何部分。内容仅供参考之用。