91学术服务平台

您好,欢迎来到91学术官网!业务合作:91xueshu@sina.com,站长邮箱:91xszz@sina.com

发布论文

论文咨询

ChatGPT对循证医学发展的影响、挑战及其应对

  2024-06-27    15  上传者:管理员

摘要:探讨了ChatGPT在循证医学领域的应用潜力,分析其可能带来的挑战并提出应对策略。ChatGPT作为当前最火爆的人工智能技术之一,在推动循证医学学科发展方面发挥着重要作用,尤其体现在:扩展原始证据来源、提高证据获取的效率、协助医患共同决策、促进循证医学教育和科普教育。当前ChatGPT正处于“技术萌芽期”,需要警惕其带来的风险,例如“证据污染”、算法黑箱、安全漏洞和数字鸿沟等。为了平衡ChatGPT在循证医学领域的积极作用与潜在风险,笔者从ChatGPT的伦理规范、证据来源、专家验证和使用规范等角度给出了对策和建议。

  • 关键词:
  • 人工智能
  • 人机对话
  • 循证医学
  • 生成式预训练对话模型
  • 自然语言处理
  • 加入收藏

生成式预训练对话模型(Chat Generative Pre-trained Transformer,Chat GPT)一经发布,吹响了人工智能时代来临的号角。这项最具革命性的科技成果,在循证医学领域引起了广泛关注。Chat GPT是人工智能技术驱动的自然语言处理工具,能够进行流畅、高效的人机对话,而且还可以通过学习进行信息加工、信息归纳、语义理解和“二次创作”等,远超其他人工智能产品。Chat GPT不仅仅是技术进步的一种体现,更是循证医学领域的一个重要转折点。当前Chat GPT正处于“技术萌芽期”,需要警惕其带来的风险,例如大规模的“证据污染”、算法黑箱下Chat GPT信任存疑、潜在的安全漏洞对用户隐私的威胁、加剧新一轮的数字鸿沟以及过度依赖Chat GPT可能会弱化人类思维能力等。鉴于此,制定有效的应对策略,将是推动循证医学未来发展的关键。


1、Chat GPT对循证医学学科发展的重要意义


1.1 Chat GPT扩展原始证据来源:重塑临床决策新路径

Chat GPT不只是简单复制现有资料库中的内容,其本身就是全域数据汇聚融合推理能力的新型信息源[1]。在传统的循证医学中,尽管随机对照试验一直被视为临床证据的“金标准”,证据强度级别最高,但它们往往无法反映真实世界中的复杂性和多样性。而真实世界研究可以作为随机对照试验的补充,有助于推动循证医学向更高质量发展。Chat GPT引入了“网络-机器-用户”的个体化知识生成要素,使科学知识生产呈现出数据驱动逻辑。它可以与大数据深度融合,对真实世界中产生的医疗大数据进行挖掘和再加工,成为扩展循证医学证据库的重要工具。尤其在罕见病和新发性传染病领域,可以提供重要的临床决策支持(Clinical Decision Support,CDS)。自2022年ChatGPT公开发布以来,开展了诸多研究评估其在CDS领域的应用价值,如表1所示。

表1 Chat GPT在CDS领域的应用价值  

1.2 Chat GPT提高证据获取效率:推动循证医学智能化转型

目前,循证医学的知识服务主要依赖于文献检索,通过文献数据和文献元数据的索引,实现对海量医学文献的检索服务,但也带来了检索全面性和准确性的问题。ChatGPT提供了基于自然语言处理的对话交互能力,集成了搜索引擎、语言翻译、语义分析、场景问答、观点提炼、图像生成和图像识别等多种应用场景。推动了索引式信息检索方式向问答式知识应答方式的转变,使得Chat GPT在与用户的交互过程中表现出高度的智能化和灵活性,并且进一步提升了用户体验的完整性。Chat GPT创造了一种动态连接方式,加速了特征、信息的交换、流动,以及关系的确认和瓦解[7]。因此,在实际应用中,用户通过调整对话策略,可以使Chat GPT精确识别用户的具体检索需求,Chat GPT根据用户的反馈进行信息的补充。当它面对未曾学习过的信息时,Chat GPT可以通过其内置搜索工具进行互联网访问,从而生成更加全面和多层次的响应。ChatGPT的知识内容并非一成不变,Open AI公司定期对模型进行迭代训练和更新。在与用户交互过程中,Chat GPT也不断生成新的知识内容,并将这些新知识内容融入ChatGPT的知识储量中,实现了对Chat GPT的训练优化。

除此之外,Chat GPT能够从语义层面深入理解文献内容,识别细粒度知识元,整合文献中的观点,形成大规模的知识网络。用户仅需提交他们希望阅读的文献资源,ChatGPT便能自动进行文本提取、文本分类、关系揭示等操作,并以对话交互的方式为用户提供相应的响应。这种方法在处理海量文献与满足用户个性化需求之间架起了桥梁,使传统的线性阅读模式转变为多维度的内容分析,从而显著提高文献阅读的效率。相较之下,人类在全面涉猎各类文献并将其与证据相衔接方面存在着明显的局限,而且处理速度远不及Chat GPT。假以时日,借助Chat GPT强大的“内容生产力”,二次研究的证据(例如系统评价、临床实践指南)可以在极短的时间内顺利完成。

1.3 Chat GPT协助医患共同决策:推动构建和谐的医患关系

医患共同决策作为打通循证医学实践“最后一公里”的重要方式,近年来受到高度重视。医患共同决策是医生和患者基于最新的医学研究证据以及患者的偏好和价值观,共同选择诊断、治疗、管理和随访方案的决策过程[8]。传统的医患关系中,代表专业权威的医生主导着整个医疗过程,患者被视为不懂医学、蒙昧无知的被动承受者。循证医学改变了医生绝对主导医疗的局面,将患者作为循证实践服务的主体。然而,在我国医患共同决策并未在临床实践中得到广泛应用,主要归结于以下三个方面:(1)患者的健康素养和认知水平较低,与医生的疾病知识不对等,导致的医患沟通障碍;(2)临床医生面临巨大的工作压力,难以具备足够的时间和耐心帮助患者全面理解和正确看待自己的病情;(3)临床医生可能缺乏医患沟通技巧、存在无意识的偏见,并且往往会高估患者的健康素养。在这种背景下,Chat GPT的应用在促进医患共同决策中展现出独特优势。首先,Chat GPT能够基于患者的特定背景(例如不同国家、不同地区、不同宗教信仰)、健康状况和需求,提供更准确、更易于获取和理解的健康信息和临床建议。有助于弥补患者在健康素养和认知水平方面的不足,帮助患者更加深入地了解自己的病情以及治疗方案的利弊。其次,Chat GPT对患者的健康素养不做任何假设。它基于大数据分析、机器学习算法为患者提供客观的医疗建议,因此理论上消除了无意识的偏见。除此之外,Chat GPT还能够有效减轻临床医生的工作压力。撰写医疗文件是一个冗长且耗时的过程,Chat GPT已被证明在生成患者放射学报告[9]、诊疗记录[10]和出院小结[11]等方面是有效的,从而提高临床医生的工作效率。这意味着临床医生可以有更多的时间和精力去关注每位患者的个体需求,提升医患沟通的质量,更好地引导患者参与到决策过程中。

1.4 Chat GPT突破循证医学教育瓶颈

循证医学教育是一种基于最佳医学证据、教师专业技能和学习者偏好为基础的医学教育模式[12]。循证医学教育方式主要以在校教育和继续教育为主[12]。在校教育主要是通过在高校中针对临床医学类及相关专业的本科生、研究生所开展的一定学时的循证医学课程。继续教育是针对已参加工作的临床医护人员,其循证医学课程的设置更注重满足实际临床需求。在我国,大多数院校仍采用“以学科为中心”的课程课堂教学模式,主要注重基础知识、基本理论和基本技能的培养。这种教学模式存在教师教学观念老化、教学内容陈旧、教学方法死板、个性化教育薄弱等问题。此外,继续教育的人员多数是临床一线的医务人员,由于临床工作繁忙,学习时间相对较少,使其有时难以协调学习与工作的关系[13]。因此,探索与循证医学理念相符合的教学模式已成为当前研究的重点。我国政府也相继推出系列指导文件,要求利用智能技术推动人才培养模式、教学方法改革,构建包含智能学习、交互式学习的新型教育体系[14]。Chat GPT的出现极大地冲击了以知识传递为中心的循证医学教育模式,有望改变我国循证医学教育的时空场景和供给水平,使超越“基础知识”范畴的个性化、多元化循证医学教育模式成为可能。Chat GPT能够借助用户反馈实现强化学习、促成话题的全面覆盖,并学习用户的价值偏好,提供拟人化和贴近用户需求的交互感受。对于医学生而言,在与Chat GPT进行“一对一”的模拟对话过程中,它能够根据学生的个体差异、学科需求和学习偏好,为其量身定制合适的教学内容、设计个性化的学习路径,并提供智能化的辅导和答疑服务。其次,案例教学是贯彻循证医学教学的主要形式之一。有研究发现,基于案例的教学方法有助于培养医学生根据当前临床问题检索证据、评价证据、应用证据的能力,弥补了传统教育中对实际操作的不足,实现理论与实践的充分结合,提高了医学生循证思维能力和循证实践能力[15]。Chat GPT能够模拟丰富的临床场景,提供虚拟的医学案例和病例分析,帮助医学生在模拟环境中进行实践操作和循证决策。对于教师而言,Chat GPT是教师教学资源更新和专业知识增长的驱动器。Chat GPT能够迅速检索、整合医学领域的最新医学文献、研究报告和临床实践指南等信息,为教师提供及时、全面的医学知识支持。教师也可以向Chat GPT咨询定制化教学策略、课程计划等,以促进教师教学经验的累积[16]。

1.5 Chat GPT助力循证医学科普教育:提升全民健康素养

循证医学科普教育是提高社会公众健康素养和认知水平的关键手段。它的目标是通过多样化的方法,向公众普及医学科学知识、疾病预防和治疗技巧、医疗保健措施以及健康生活理念。然而,我国面向社会公众的循证医学科普教育存在许多问题,例如科普内容过于专业化、科普手段单一、未采用最新的研究证据等问题。ChatGPT既可以直接面向大众提供循证医学科普知识,也可以辅助医疗专业人员和科普工作者,帮助他们在创作科普内容时检索合理的、可靠的、最新的证据作为科普创作的参考资料。Chat GPT强大的自然语言处理能力能够将抽象专业的文字内容转化为通俗易懂的表达(例如绕口令、故事),也能够利用图形、色彩将复杂繁琐的信息转变为最直观的科普图片。这些创意表达方式不仅增加了科普内容的趣味性,也有助于提高社会公众对复杂医学信息的理解和记忆。


2、Chat GPT给循证医学学科发展带来的挑战


2.1大规模的“证据污染”风险

获取可靠的研究证据是循证医学研究的重要步骤。尽管Chat GPT可提高知识生产、整合、更新和传播的效率,但其仍会产生看似合理的事实性错误(通常称为“幻觉”)[17]。Chat GPT的性能很大程度上受训练数据集的质量和范围的影响[18]。如果训练数据存在虚假信息和信息噪声,那么Chat GPT在决策过程中可能会产生偏见。ChatGPT的训练数据来源于互联网上公开的通用知识库(包括维基百科、各类书籍、Ar Xiv论文库、Stack Exchange问答网站等基础数据集)[19],这些海量信息难以经过实质性筛选、过滤。根据哥本哈根未来研究所(Copenhagen Institute for Futures Studies,CIFS)专家Timothy估计,如果生成式人工智能工具得到广泛应用,到2025年至2030年,互联网上99%至99.9%的内容将由人工智能生成[20]。因此,如果将大量信息来源不透明或混入了非同行评审的内容“投喂”给大模型,必然会导致“垃圾输入,垃圾输出”的恶果,即伪科学或毫无循证依据的证据的广泛传播。这种“信息污染”现象的存在会降低医疗信息资源利用的效率,长期存在会使搜寻信息的成本大于获得信息的价值。在循证医学领域中,采用方法来准确评估偏差和质量对于证据综合至关重要[21]。而Chat GPT不具备甄别虚假信息的能力,没有内置的机制来评价证据的真实性和可靠性。其本身就存在算法偏见,且不是为了回答医学问题而开发的,它缺乏临床经验。因此,如果缺乏批判性的人类思维可能会导致放大或持续训练数据中已存在的偏见和偏倚。对于准确率要求较高的循证医学来说,大规模的“证据污染”会导致严重的后果,如疾病进展的误判、延误治疗进程或对患者的生命和健康产生负面影响[22]。

2.2算法黑箱下Chat GPT信任存疑

当生成式人工智能的决策过程被透明地展示出来时,用户往往更容易信任其决策与建议。然而,Chat GPT能够根据输入数据自动调整其内部机制进行学习和预测,通常无法提供对其特定结果背后的确切原因的解释。并且其算法应用及前身的基础训练集缺乏公开性和透明性。因此,为什么会产生当前答案既无法被证实也无法被证伪,对于人类来说仍然是一个无法解释的“黑匣子”[23,24,25]。当涉及关键的临床决策场景,如需要清晰理解建议的诊断或治疗选项的逻辑时,缺乏可解释性限制了Chat GPT的实用性。目前,在机器学习领域,许多研究人员已经开发出了一些可解释性的工具,以增强算法透明度和可解释性,从而有效应对算法黑箱问题。例如,Deep LIFT(Deep Learning Important Fea Tures)技术是一种追踪性技术,可以展示每个激活神经元之间的可追踪链接,并显示它们之间的依赖关系,LIME(Local Interpretable Model-Agnostic Explanations)技术是一种解释技术,可以解释任何分类器的预测结果[26]。在循证医学人工智能领域,具有可解释性的模型却并不普及,主要原因在于循证医学实践需要清晰地展示证据和推理过程,以便临床专家或研究者能复核和验证,但这些模型无法在循证实践中提供真正令人满意的解释,很难满足循证医学的标准。此外,开发者还以知识产权保护为由,将算法视为商业秘密来保护,这有悖于透明、开放的科学发展趋势,从而大大降低患者和医护人员对该技术的信任度。在Temsah等[27]的研究中,评估了医护人员对Chat GPT的信任度,研究结果显示,医护人员对Chat GPT做出医疗决策的能力表现出中等到低等的信任水平。Praveen等[28]的倾向性分析研究表明,20名医生中仅有3名(15%)对使用Chat GPT进行咨询持积极的态度,近42%的医生对此表示负面看法,而43%的医生则持中立态度。还有一些专家认为黑箱模型永远不应该用于高风险决策[23]。

2.3 Chat GPT存在严重的安全漏洞,用户隐私或被泄露

Chat GPT面临“最后一公里”难题可能会限制其在医学领域的全面应用。换言之,大型语言模型在临床应用的门槛很高,即使高达99%的准确率仍不足以直接面向患者提供医疗指导(类似于自动驾驶汽车,即使99.9%的安全率也是不能接受的)。医疗人工智能的安全问题是其实践过程中出现的一系列潜在风险和危害,包括程序错误、数据泄露、恶意攻击等。Chat GPT中的技术漏洞可能对患者构成的风险超过个别医生的误诊,因为自动化系统会导致错误的广泛复制。此外,Chat GPT的使用条款明确指出,为了提升系统性能,用户的输入将经过人工审查,即明确了其会收集全部的输入信息。Chat GPT在医学领域提供知识问答服务的过程中,通常包含患者敏感的个人信息(例如医疗记录、健康状况等)。而Open AI公司并未提供技术手段对敏感数据进行匿名化或脱敏处理[29],这使得用户面临隐私泄露的风险。据西班牙《经济学家报》网站3月31日报道,在指责Open AI未能遵守用户数据保护法规后,意大利负责监管数据的机构3月31日宣布将禁止在其境内使用Chat GPT[30]。这项限制措施发起前,Open AI也发布了由用户数据泄露问题引起的临时中断服务报告[31]。在资本逐利的浪潮中,Open AI的商业属性难以保证其是否将用户隐私信息的安全性置于优先位置。

2.4 Chat GPT的应用热潮加剧新一轮的数字鸿沟

Chat GPT一方面确实降低了循证医学知识的传播门槛,让社会公众也有机会了解到无法企及的循证医学知识。但另一方面由于Chat GPT的商业选择涉及某种形式的“付费墙”,又进一步加剧了新一轮的数字鸿沟。Chat GPT在研究预览期间,可以免费使用[32]。然而,Open AI的领导层已表示免费使用只是暂时的,该产品最终将被货币化[33]。2023年3月发布的Chat GPT-4已经采用了订阅模式。在社会经济较为优越的地区,机构或许能够承担得起获取信息的费用,但对于低收入和中等收入国家的机构,这笔费用可能难以承受[34]。此外,Chat GPT生成的内容也必然包含算法偏见。当前“信息穷人”缺乏的并不仅仅是信息,更是缺乏应对算法偏见的算法素养和专业知识[35]。如果“信息穷人”过度依赖Chat GPT作为信息来源,那么他们会被困于算法编织的世界而逐渐失去主体性[35],进一步加剧“信息穷人”与“信息富人”之间的信息不平等。因此,在人工智能时代,能否在利用生成式人工智能提高生产力的同时又保持人的主体性?这个问题,成为了推动技术公平性和包容性的关键挑战。

2.5过度依赖Chat GPT可能会弱化人类思维

过度依赖生成式人工智能工具,很容易使用户产生思维惰性,从而削弱他们的批判性和创造性思维能力。这种过度依赖对于循证医学学科的发展是不利的。ChatGPT确实提高了信息检索、管理和利用的效率,但这也可能导致一种对即时信息和快捷解答的过分依赖,从而削弱了医疗专业人员进行深度思考和独立分析的能力。ChatGPT作为一种新兴技术,其迅速普及和广泛应用无疑是技术革命的一个缩影。技术的进步本应是推动社会前进的动力,但如果过度依赖,则可能变成制约个体思维发展和适应新环境的桎梏。对于医学生而言,过度依赖Chat GPT,会将学习过程扁平化、碎片化,不利于进行系统学习和深入思考[36]。此外,由于人工智能系统在处理问题时往往采用固定的算法和逻辑,这可能会导致人们在接受其提供的信息和解决方案时形成一种“思维套路”,从而导致思维的同质化。


3、Chat GPT在循证医学领域中的发展策略


3.1人工智能的伦理规范:建立监管和质量控制框架

为了应对人工智能给循证医学带来的伦理挑战,应当通过建立一个多元协调机制来促进Chat GPT在知识转化中发挥的积极作用。针对政府、医疗机构和人工智能公司这三个主体建立的监管框架综合考虑了法律伦理、人文伦理、算法伦理和信息伦理[37]。首先,政府应制定相关政策,明确人工智能在医疗领域应用的法律责任边界,制定法律来维护患者数据和隐私,负责审查和批准新的医疗技术和人工智能应用,确保它们符合规定的安全和性能标准。其次,医疗机构在采用人工智能技术时,需严格遵守医疗行业的标准和伦理规范,即使使用人工智能进行辅助诊断和治疗,医生对患者的个人关注、专业判断和人文关怀仍然不可或缺。最后,人工智能公司应负起技术创新的责任,持续改进算法,并严格遵守隐私法律。这包括开发大规模泄漏检测和即时响应分析系统,采取定制化的方法以防止数据泄露。同时,公司应提高推理响应的透明度,通过持续的验证和评估减少偏差和错误,并实施技术的透明化管理。

3.2人工智能的伦理观:将“以患者为中心”融入科技

人工智能的发展和应用应当反映和服务于人类的思想和意志,而不是取而代之。在循证医学领域,这一原则尤为重要。循证医学建立的初衷就是呼吁对患者核心需求的满足。把患者价值观和所处境况放至与科学证据、临床经验同等地位,兼顾了医学的科学性和社会性。这是以人为本,促进现代医学发展趋于完整的体现。这意味着在应用人工智能辅助医疗决策时,应充分考虑患者的个体化需求。伦理学家们指出,如果在医疗决策过程中,人工智能系统仅仅提供基于证据的选项,而不考虑或纳入患者的个人偏好和价值观,那么这个过程不能被认为是真正的以患者为中心[38]。因此,为了确保使用人工智能时从根本上实现医患共同决策,患者的偏好必须纳入设计中,这种设计方法被称为“价值敏感设计”。其核心理念是在整个设计过程中,从概念化到应用,都要考虑和反映人类的价值观和道德原则。然而,将患者个体价值观纳入算法设计仍需要进一步研究。

3.3人工智能可靠性:从源头遏制垃圾信息的传播与扩散

考虑到医学研究和技术的快速发展,缺乏高质量医学信息可能会影响其在循证实践中的可靠性。为了确保Chat GPT可以访问高质量且具有代表性的医学信息源,一种方法是将生成式人工智能的回答建立在经过同行评审已发布的数据上,即经过科学验证和专业审查的资料,同时,建立完善的数据循证体系,附加数据证据链、数据来源详情,实现对风险的有效管控和溯源。另一种方法是对输出结果进行“幻觉”检查,例如Manakul等[39]开发了Self Check GPT,旨在以零资源方式用于辨别黑箱模型输出的虚构内容。如此,可以从源头上避免无效、低质量的医学信息随意散播,以至于为科研人员和临床医生提供最专业的医学知识搜索和循证问答服务。

3.4人工智能的适用性:进行跨学科团队合作验证

在医药领域中,许多常规使用的药物实际上也是处于“黑箱”状态,即它们的工作机制经过了多年研究,仍然未被完全科学解释。尽管如此,这些药物因为通过了“金标准”的随机对照试验而被认为是可以接受的。如果Chat GPT的输出也通过了类似的验证标准,那么也应该被认为是适合在循证医学领域使用的。因此,一个由多学科专家组成的验证过程仍然是强制性的,这包括医学、数据科学、伦理学以及政策制定等不同领域的专家共同参与[40]。通过这种跨学科合作,可以确保这些大型语言模型在开发时不仅考虑到了医疗需求和面临的挑战,还考虑到了使用这些技术可能带来的伦理、法律和社会影响。其次,建立一个反馈机制,允许医疗专业人员和研究者对Chat GPT的输出结果提供评价和建议。这些反馈将被用于训练和优化Chat GPT的算法,使其更好地适应循证医学领域的特殊需求。

3.5人工智能的公正性:确保Chat GPT平等服务所有人群

Chat GPT的开发和实施应当遵循一项核心原则:确保所有社会成员,不论其社会经济地位或其他人口特征,都能平等地获得其服务并从中受益[41]。为此,开发者必须特别关注系统的普及性和无障碍性,积极消除Chat GPT中的潜在偏见和刻板印象。此外,Chat GPT需在不同因素之间权衡取舍——在辅助临床决策时,成本效益、不惜代价的疗效、便利性、副作用最小还是医疗公正?这需要一个平衡的视角,不仅要考虑技术的先进性和实用性,也要充分考虑到医学伦理和社会责任。

3.6医学研究的透明度:制定生成式人工智能工具的指南

建议世界卫生组织指南实施与知识转化合作中心制定在医学领域使用Chat GPT等类似生成式人工智能对话工具的报告指南。当使用Chat GPT等类似生成式人工智能对话工具进行论文撰写或医学研究时,应遵循报告标准并提供有关该过程的详细信息。可以成立一个国际多学科专家组织,制定Chat GPT在医学研究中的应用指南,旨在提高Chat GPT等生成式人工智能在医学研究领域中使用的透明度。

3.7临床决策的理性和科学性:保持独立性和批判性思维

在循证医学中,我们应强调人工智能工具的辅助性,而非替代性。Chat GPT严密的语言逻辑导致其生成的虚假信息具有很强的迷惑性。因此,在循证实践中,医护人员使用Chat GPT做出临床决策之前,应当采用人工监督,并持批判态度去看待所获得的研究成果、正确评估和应用证据,这不仅可以避免对虚假信息的盲目信任,还能保留临床实践所需要的人情味。正如“当决策者并非真正独立而是受到某些外部实体的影响时,群体决策可能会变成群体疯狂”这一观点所强调的医护人员在利用人工智能技术获取最新证据辅助决策时,必须保持独立性和批判性思维,以确保决策过程的理性和科学性。


4、结语


Chat GPT引领了一种全新的知识检索、归类和呈现模式,将知识获取、整合与传播过程以繁化简,成为新一代具有颠覆能力的智能媒介。Chat GPT带来的改变已是大势所趋,但它依然不会取代人类的医疗判断和临床经验。Chat GPT的出现只是人工智能在医疗领域改革的起点,而非终点。循证医学的发展必须把握机遇,积极应用ChatGPT等人工智能技术挖掘多维证据,对所有可用数据进行深度整合和融合,以实现下一代“深度”人工智能-循证医学。


参考文献:

[1]陆伟,刘家伟,马永强,等.Chat GPT为代表的大模型对信息资源管理的影响[J].图书情报知识,2023,40(2):6-9.

[7]王建磊,曹卉萌.Chat GPT的传播特质、逻辑、范式[J].深圳大学学报:人文社会科学版,2023,40(2):144-152.

[12]王云云,靳英辉,郭毅,等.新时代背景下循证医学助力新型医学人才培养的思考[J].中国循证心血管医学杂志,2021,13(12):1434-1437.

[13]余淳,卢军,张瑞琦,等.四川大学华西医院构建基于全生命周期的继续医学教育体系实践[J].中国循证医学杂志,2021,21(10):1219-1221.

[14]国务院.国务院关于印发新一代人工智能发展规划的通知[EB/OL].(2017-07-20)[2023-11-21].

[15]樊景春,李金娟,靳利梅,等.如何在医学生《循证医学》课程中开展案例教学[J].教育教学论坛,2017(47):181-184.

[16]吴军其,吴飞燕,文思娇,等.Chat GPT赋能教师专业发展:机遇、挑战和路径[J].中国电化教育,2023(5):15-23.


基金资助:2023年江苏省社科基金“学习贯彻党的二十大精神”研究专项课题一般项目(23ZXZB017); 2022年徐州市科技计划项目-重点项目(KC22157);


文章来源:罗姚,谈在祥.ChatGPT对循证医学发展的影响、挑战及其应对[J].医学与哲学,2024,45(12):16-21.

分享:

91学术论文范文

相关论文

推荐期刊

网友评论

加载更多

我要评论

医学与哲学

期刊名称:医学与哲学

期刊人气:2977

期刊详情

主管单位:中国科学技术协会

主办单位:中国自然辩证法研究会

出版地方:辽宁

专业分类:医学

国际刊号:1002-0772

国内刊号:21-1093/R

邮发代号:8-122

创刊时间:1980年

发行周期:半月刊

期刊开本:大16开

见刊时间:10-12个月

论文导航

查看更多

相关期刊

热门论文

【91学术】(www.91xueshu.com)属于综合性学术交流平台,信息来自源互联网共享,如有版权协议请告知删除,ICP备案:冀ICP备19018493号

400-069-1609

微信咨询

返回顶部

发布论文

上传文件

发布论文

上传文件

发布论文

您的论文已提交,我们会尽快联系您,请耐心等待!

知 道 了

登录

点击换一张
点击换一张
已经有账号?立即登录
已经有账号?立即登录

找回密码

找回密码

你的密码已发送到您的邮箱,请查看!

确 定