首页 > 美国大学院校 > 斯坦福大学 >  2023年人工智能主要议题——斯坦福大学人工智能现状报告

 2023年人工智能主要议题——斯坦福大学人工智能现状报告

在线咨询

2023年,人工智能如同一匹脱缰的野马,驰骋在科技领域的无垠草原上,其力量之巨大与难以预测的挑战,让我们在惊叹其潜力的同时,也开始深刻反思其背后所隐藏的种种风险。2023年,人工智能如同一匹脱缰的野马,驰骋在科技领域的无垠草原上,其力量之巨大与难以预测的挑战,让我们在惊叹其潜力的同时,也开始深刻反思其背后所隐藏的种种风险。

随着2023年的落幕,人工智能领域展现了前所未有的活力与挑战。斯坦福大学最新发布的报告深入分析了今年人工智能的关键发展,从医疗、教育到艺术创作,再到政治传播,AI的影响无处不在。这一年,我们见证了AI技术的惊人进步,但同时也面临着新的伦理、社会和政策问题。在这个多元且复杂的背景下,我们开始审视AI的双刃剑效应,探索其在不同领域中的潜力与风险。

AI技术在医疗领域的应用与挑战

2023年,人工智能在医疗诊断和治疗中展现出巨大的潜力。AI系统在分析复杂的医学数据、提供精确诊断方面取得了重要进步。然而,这种技术的发展也带来了新的挑战。最引人关注的是,AI技术可能加剧医疗服务的不公平,特别是在资源有限的地区。此外,AI在医疗决策中的使用也引发了关于数据隐私和伦理的讨论。这不仅是技术问题,更是全球卫生政策和公平获取医疗资源问题的一部分。

在探讨AI技术在医疗领域的应用时,不妨看看以下几个真实案例,它们展示了AI技术如何在医疗实践中发挥作用,同时也揭示了相关的挑战。

西雅图的弗雷德·哈钦森癌症研究中心使用自然语言处理(NLP)技术,通过Amazon Comprehend Medical,来审查大量非结构化的临床记录数据,以快速匹配患有临床癌症研究的患者。使用NLP,医生们能够每小时审查约10,000份医疗记录,从而找到符合纳入标准的患者。

纽约伊坎医学院的肾脏研究所主任彼得·科坦科博士指出,人工智能正在帮助医生诊断和管理肾脏疾病,并预测肾脏病患者的病程。他表示,肾脏病学家和其他医学领域的专家使用AI和机器学习(ML)来评估放射学或组织病理学图像,以及通过智能手机拍摄的图像来诊断患者的状况。此外,RRI使用深度学习分析智能手机或平板电脑上的图像,以评估患者的动静脉血管通路,这对于连接患者到透析机器至关重要。

AI在教育中的角色及其双刃剑效应

2023年,AI在教育领域的应用也成为了一个热门话题。AI技术,特别是个性化学习工具和智能教学助手,正在改变传统的教学方式。这些工具可以为学生提供定制化的学习经验,帮助教师更有效地评估学生的学习进展。然而,这些技术的应用也引发了关于其可能加深数字鸿沟的担忧。在资源有限的地区,学生可能无法获得先进的AI教育工具,这可能导致教育不平等的进一步加剧。

AI技术在教育中的使用还引发了其他一些问题,例如学生依赖于AI的风险,以及AI工具在评估和反馈方面的准确性和有效性。这些问题需要政策制定者、教育工作者和技术开发者共同努力,以确保AI在教育中的应用既公平又有效。

特拉华大学正在引领有关AI在教学和学习中应用的讨论。通过其“AI for Teaching and Learning Working Group”,26名教职员工正在开发与新兴AI工具相关的创新教学实践和政策。该组织于2023年5月成立,其目标是评估最有可能影响教学、学习和研究的AI应用,并探索长期的机构、教师和学者需求。

该校的约书亚·威尔逊教授,背景是特殊教育,正在研究如何使用自动化作文评估系统和其他机器学习形式来支持学生学习。他与文理学院和教育和人类发展学院的同事一起,使用AI开发新的教学方法,特别是针对那些学生可能难以保持参与度或感受到个人联系的大型基础课程。

同时,特拉华大学的学术技术服务(ATS)正在进行一个名为“UD Study AiDE”的AI开发项目。该项目由教育软件工程团队领导者Jevonia Harris牵头,旨在创建一套学习工具,供学生用来制作自己的学习材料。在与大学教师的合作下,ATS正在训练一个内部AI模型,以便从教学视频文字稿、学习管理系统页面和其他支持性教学文件中提炼、总结和生成与UD课程内容相关的材料。

AI与创意产业的交融

2023年,生成式AI在创意产业中的应用取得了显著进展,从艺术作品的创作、交响曲的编排,到法律文本和幻灯片演示的撰写,AI在各种创意活动中都展现了其潜力。然而,这些发展也引发了关于AI是否会超越人类在创意任务中的表现,甚至让知识工作者变得多余的担忧。

在《自然人类行为》特刊上的一篇新论文中,奥胡斯大学高级研究所和混合智能中心的研究员Janet Rafner与Jacob Sherson教授及国际合作伙伴讨论了创意和AI的研究和社会影响。他们强调,我们应该关注和培养人类与机器之间的共创能力,即所谓的“以人为中心的AI”和“混合智能”。这将有助于开发同时确保AI自动化程度高和人类控制的界面,从而优化双方的相互赋能关系。

Rafner评论说,目前大多数关于人类-AI共创的研究来自人机交互领域,专注于AI的能力、交互设计和动态。虽然这些进步对于理解人类和算法之间的动态、人类对共创过程和产品的态度至关重要,但迫切需要用心理科学领域几十年来关于创造力的洞见来丰富这些应用。

Rafner进一步解释,我们现在需要将讨论从“AI能否创造?”的问题转移开来。在研究纯人类、纯机器和人类-AI共创时,我们需要考虑创造力的类型和水平,从日常创意活动(例如制作新食谱、艺术品或音乐)到可能需要更高水平人类干预的范式转换贡献。此外,考虑人类-AI共创和人类创造力之间在认知、行为、动机和自我效能上的相似性和差异更有意义。

人工智能对劳动力市场的影响

在2023年,人工智能对劳动力市场的影响引发了广泛的讨论。OECD对2000多家雇主和5300名工人进行的调查显示,虽然人们担心AI可能会威胁到工作和工资,但目前AI对就业水平的影响还很有限。我们正处于AI应用的早期阶段,通常集中在大型公司,这些公司通常还在试验这些新技术。然而,替代的潜力仍然显著,引发了对工资下降和失业的担忧。目前,AI尚未在劳动力市场上导致工资的大幅变化,正面或负面都没有。

尽管AI对工作质量的影响总体上是积极的,但我们的研究也发现了一些具体的担忧,例如工作强度的增加。那些被AI管理的工人对AI的影响通常不如与AI并肩工作的工人那么积极。AI的使用还伴随着数据保护和隐私、透明度和可解释性、偏见和歧视、自动决策和问责等严重的伦理挑战。

OECD强调,如何最终影响工人和工作场所,以及利益是否会超过风险,也将取决于我们采取的政策行动。在工作场所推进AI本身不应该停止,因为有许多好处可图。然而,我们也应避免陷入“技术决定论”的陷阱,即技术塑造社会和文化变革,而不是相反。迫切需要采取行动,确保AI在工作场所的使用是负责任和可信赖的。

此外,迫切需要政策行动来解决AI在工作场所使用时可能带来的风险——包括隐私、安全、公平和劳工权利方面的风险——并确保AI支持的与就业相关的决策具有问责性、透明度和可解释性。

AI在政治传播中的使用及其对民主的影响

在2023年,人工智能对政治传播的影响越来越显著,特别是在政治竞选和公共政策制定中。ChatGPT的发布和快速普及揭示了AI在日常生活、职业生涯,甚至自我治理体系中的潜在影响。然而,公众对于AI可能对民主构成的威胁的讨论往往缺乏想象力,专注于对抗性竞选活动、假信息传播等已有经验的领域。

一些里程碑事件展示了AI在政治中的潜在影响:

立法机关或机构接受AI生成的证词或评论:已经有一些由AI起草的法案被引入,尽管是在人类用户的指导下并由人类立法者提出。许多主要立法机构已经拥有了“首个由AI编写的法案”、“使用ChatGPT生成委员会评论”或“首个由AI编写的国会演讲”等事件。

AI生成的政治信息在民意调查测试中超过了竞选顾问的建议:AI生成的政治信息是现代政治传播中的一个主要工具,而AI训练的公共话语、竞选修辞和政治报道可以预测有效的信息策略。

AI自主产生利润并为政治竞选捐款:AI可能成为现代政治的关键能力,它能够直接对竞选基金会作出贡献。

AI在多个管辖区实现协调的政策成果:AI可以通过数字渠道制定和推广信息,甚至直接影响关键政策制定者,从而实现公共政策上的成果。

面对人工智能的发展,最紧迫的任务是确保伦理和责任

2023年的人工智能发展揭示了一个多面临挑战的未来。在AI技术迅速渗透到医疗、教育、创意产业、劳动力市场,甚至政治传播的各个领域时,最紧迫的任务是确保伦理和责任的应用。这不仅涉及到技术本身的发展,更关乎我们如何使用这项技术、如何塑造与它相互作用的社会和文化环境。

原因深刻而明确:AI的发展不应仅被视为技术进步的问题,更是一个涉及伦理、责任、社会公正和民主原则的问题。我们必须在技术创新与人类价值之间找到平衡,确保技术的发展既促进社会进步,又不损害个人权利和社会公正。这需要政策制定者、技术开发者和社会各界共同努力,共同构建一个负责任和可持续的AI未来。

斯坦福大学最新推荐