2024诺奖引发热议!人工智能助力科研,却也危机四伏?
人工智能在科学研究领域备受瞩目,2024年诺贝尔物理学奖和化学奖的揭晓更是激起了对人工智能的热议。目前,众多科研工作者都对人工智能在推动科学变革方面的作用给予了高度评价。有观点认为,人工智能在加速科研突破方面的巨大潜力,使其成为人类历史上最具革命性的技术之一。但这样的变革对科学的深远影响究竟是怎样的呢?尽管人工智能在助力研究人员以较低成本、更高效地完成大量工作时展现出巨大潜力,然而,它同时也带来了一系列新的忧虑。比如,如果研究人员过于急切地借助人工智能来获取成果,这可能会使得科研成果更难以获得公众的理解和信任。人工智能正面临着安全风险和代表性不足的双重挑战,那么它是否真的能有效推动科学的发展呢?展望未来,人工智能与科学研究之间的互动将如何演变,其发展路径又将呈现何种态势?针对学术界及公众广泛关注的那些焦点议题,本报记者对相关领域的专家进行了深入访谈。
理性看待人工智能与科学研究的结合
人工智能在科学界的影响力持续增强,一个关键因素在于其能以更高效的速度、更经济的成本产出更多成果。日本的一家名为“AI”的人工智能企业,推出了“AI科学家”这一综合性平台,其目标是实现“完全由人工智能主导的科学突破”。令人惊叹的是,该系统仅需大约15美元的投入,便能够自动生成一篇完整的研究论文。与此同时,人们不禁心生疑惑,我们真的能够利用人工智能来推动科学进步吗?
尽管人工智能在众多研究领域得到了广泛的应用,然而,澳大利亚国立大学负责任创新实验室的高级讲师伊赫桑·纳巴维(Ehsan)指出,人工智能至少在三个关键方面可能导致研究人员的误解。首先,存在所谓的“解释深度错觉”,尽管人工智能模型在预测现象方面表现出色,但这并不代表它们能够对现象进行精确的解释。神经科学领域的研究已明确指出,旨在提升预测性能的人工智能模型可能会使研究者对神经生物学潜在机制得出错误的推论。此外,还存在“探索范围误判”的现象,部分研究者误以为他们构建的模型能够囊括所有假设性的数据集,而实际上仅包含了适用于人工智能测试的数据集。还有一点是“客观性误判”,即研究者可能过分相信模型得出的结果具有客观性。部分研究学者持观点,人工智能模型并无偏见,然而实际上,所有的人工智能模型在训练过程中不可避免地会映射出其数据集里的偏见以及开发者所带有的主观意愿。
纳巴维对本报记者透露,目前科学界被大量人工智能创作的内容所充斥。人工智能在科学领域的迅猛发展,恰逢公众对科学及科学家仍保持较高信任度之时。然而,这种信任并非易得,它既复杂又易碎。全球正面临诸如气候变化、生物多样性下降以及社会不公等诸多挑战,解决这些问题,公共政策制定者必须依靠专家的精准判断。这种能力涵盖了有意识地针对特定情境进行思考,搜集来自多个学科领域的见解以及生活中的经验材料,并从地域文化和价值观念的视角进行深入分析。然而,现阶段的人工智能模型尚不具备这样的能力。
国际科学理事会在2024年发布的报告中指出,研究人员需深刻理解研究对象的细微差异及其不同背景,方能得出令公众信服的研究成果。若人工智能在未来主导科学发展,恐将损害这种信任的维系。一旦研究人员赋予人工智能在科研领域的核心作用,便有可能催生一种“知识同质化”的文化现象。在这种文化中,人们将优先考虑那些最适宜人工智能参与的问题、研究方法和理论观点。这种现象可能会导致我们逐渐偏离科研的根本宗旨,以及在社会和环境问题解决过程中不可或缺的细致入微的公众讨论和逻辑推理。
建立人工智能使用规则
21世纪降临之际,部分人士主张,科学家应当确立一份新的社会公约,将自身的学识与能力投入到应对时代最为紧迫的挑战中,以此助力社会迈向一个更加可持续的生物圈——一个生态平衡、经济合理、社会公正的生物圈。人工智能的崛起不仅为科学家们提供了实现这一使命的良机,同时也为他们的研究带来了源源不断的创新动力。然而,关键在于学术界需首先厘清一系列关于人工智能应用规范的问题。比如,在科研领域运用人工智能是否算作“外包”行为,这种做法是否会对公共资金的完整性造成损害,以及如何妥善解决这一问题;此外,人工智能对环境有何种影响,以及研究人员如何在将人工智能融入研究过程中,确保其研究成果与社会需求相契合。
纳巴维指出,若在缺乏相应规则的情况下,将人工智能应用于科学研究的变革,此做法或许颠倒了主次。若让人工智能独断研究焦点,而忽略各学科领域的声音与见解,将使得研究成果与社会的实际需求脱节,进而引发资源分配不均,甚至造成资源的浪费。科学研究理应服务于整个社会,研究人员有必要在研究与实践过程中,就人工智能的使用规则进行深入的交流与探讨。当前,有必要深入讨论在科学研究领域运用人工智能可能引发的问题,并构建相应的指导原则与评价准则,从而以负责任的心态充分挖掘人工智能的潜能。
除此之外,人工智能领域的安全问题同样引起了公众的广泛关注。人工智能安全的内涵涵盖了研究、战略和政策等多个层面,其目的是保障这些技术系统的稳定性、契合人类的核心价值观念,并尽量避免造成任何不必要的损害。目前,学术界出现了一种思考,认为人工智能领域所展现的往往是西方的认知体系,主导形成的研究模式也是以西方为核心,并且主要服务于发达国家的技术组织及其利益相关者。这种系统性排除不仅加剧了既有的权力不平等,还对真正有价值的人工智能系统的发展造成了伤害。涵盖非洲、大洋洲、拉丁美洲及加勒比海地区、中东、中亚、南亚以及东南亚等广泛区域,全球多数地方在人工智能技术的研究与应用、尤其是训练数据的嵌入方面,普遍存在代表性缺失的问题。在这种背景下,人工智能与科学研究的融合无疑会引发公众对其研究结论与社会现实的契合度产生疑虑。
人机协作要求研究人员转变角色
人工智能与科学研究的紧密结合,促进了人机互动时代的迅速到来,同时极大地影响了研究人员的工作模式,引发了深刻的变革。这种变革不仅提升了学术产出效率、扩大了研究范围,还为科学研究领域带来了全新的发展格局。在以往,研究人员主要依靠个人的知识储备和分析技能进行研究。新技术的涌现使得研究阶段的学术职责发生了转变,进而推动人们深入思考科学研究的本质、流程以及科研人员角色变化的趋势。
澳大利亚悉尼大学的教授凯·里默尔在接受本报记者采访时指出,这一变革的核心要素涵盖了人类始终占据核心地位并承担所有责任等核心议题。鉴于人工智能能够提出新的假设和试验策略,人类与机器之间的贡献界限或许将变得难以界定。考虑到人工智能的作用主要是辅助性的,尚不能单独提供符合学术界认可标准的科研方法,因此我们有必要对“研究人员身份”这一概念作出新的定义。
里默尔指出,尽管人工智能在数据分析和模型构建方面展现出强大能力,研究人员仍需坚守自己的知识产权,同时掌握科研项目的整体管理权。尽管部分学者在学术界倡导充分利用人工智能作为协作工具的潜力,但人类研究者有责任坚守科研诚信,保持学术严谨,并切实履行监督职责。身份的变迁要求研究人员不断加强对新技术的熟练度,同时积极采纳多元化的视角,如此一来,在人与机器的协作中才能表现出色,并持续从人工智能那里汲取有价值的洞见。此外,研究人员对人工智能的应用必须保持警惕。毕竟,尽管人工智能具备强大的能力,但它的不足之处也可能引发偏差或误差,从而损害研究的全面性。研究人员不应将人工智能仅仅看作是一种方便的“认知负担转移”手段,他们应当持续持有批判的眼光,并通过引用多种资料、实施额外的实验或是咨询同行的看法,来对人工智能输出的结果进行严格的验证。
人工智能对科研领域的变革产生了深远影响,在这一变革的推动中,高等学府扮演着至关重要的角色。面对人机协作这一新兴的研究模式,高等教育机构需采取积极、主动、全方位的策略,以培育新一代科研人才。这些机构肩负着培养使命,需提升研究人员的认知能力,激发他们的创新意识,并激励他们在新时代中学习新技能。具体举措涵盖协助研究人员掌握前沿的科研技术,指导他们把人工智能技术融入研究流程之中。同时,研究人员还需深刻认识到人工智能的无限可能,并精通涉及伦理、法规、认知、社会以及环境等多个领域的相关知识。高等教育机构应推动研究生态系统中研究人员与各方利益相关者之间的坦诚交流,以此提升相关意识。通过持续探讨人机协作所带来的各种机遇与挑战等关键议题,研究人员对人工智能发展趋势的理解将得到深化。同时,这些机构还应激励研究人员采取创新思维,将人工智能不仅视作一种辅助工具,更将其定位为研究过程中的重要伙伴。尤为关键的是,我们必须在此前提下,着力提升研究人员的批判性思维能力,同时不断探寻运用人工智能技术,以加速推进那些对公众福祉有益的研究项目。
总体来看,目前的研究工作者正处在技术革新的关键时期,他们可能需要应对与个人身份、知识财产以及道德伦理等相关的种种挑战。高等学府有必要主动出击,采纳多方面的策略,联合法律领域的专家、道德伦理学者以及行业内的合作伙伴等,共同构建出切实可行的对策,妥善解决那些复杂而棘手的问题。