斯坦福大学科技论坛:AI发展应增强人类的能力

人气 178

【大纪元2024年06月03日讯】(大纪元记者薛明珠采访报导)人工智能的迅速发展已渗透社会生活的各个领域,其指数级增长的应用和内容,引发了公众对道德伦理、数据安全和监管等方方面面的担忧。

5月31日(上周五)下午,斯坦福大学举办了第26届创新前沿科技论坛(New Frontier in Computing,NFIC),探讨生成人工智慧的伦理问题。

走向负责任的人工智能

Ricardo Baeza-Yates博士,是东北大学体验式人工智慧研究所(Institute for Experiential AI of Northeastern University)的研究主任。他首先做了演讲。在演讲中,他坦言,生成式人工智能具有很大的局限性。因为,生成式人工智能无法学习数据中没有的东西。“我认为,我们对(AI的)深度学习的评估,是完全错误的”。而且,AI的深伪技术,让“我们不能相信我们看到的任何东西”。

Baeza-Yates博士也表示,AI的危险并非在于它能摧毁人类,而是在于它能把人类逼疯了。他强调,AI的发展应该尊重人类的尊严,并具备问责制和责任制。AI应该增强人类的能力,而不是取代人类。

2024年5月31日下午,Ricardo Baeza-Yates博士在论坛上演讲。(薛明珠/视频截图)

他还提到,我们面临一个全球性的道德问题。我们需要了解自己的道德,并在大学一年级,就开始教授伦理道德课程,且将其融入每个学科的实践中,让学生们像医生一样,充分认识到道德的重要性。

他说:“我不担心人工智能,我担心的是我们的智能。如果出了什么事,那是我们的错,而不是人工智能的错。”

导航生成式人工智能的伦理

Vishnu S. Pendyala博士,是圣荷西州立大学应用资料科学系的教师,也是IEEE圣塔克拉拉谷分会的主席。他讨论了与生成式人工智能相关的伦理问题。他表示,当今生成式人工智能的发展速度,比人类智慧的进化速度还要快。生成式人工智能在各领域,越来越达到了人类的水准。但是相应地,人工智能带来的问题也越来越多。

随后,他提出了几个重要问题。首先,现代大型语言模型拥有数万亿个参数,这使得人类无法预测、控制人工智能模型的行为。其次,企业之间的激烈竞争,导致它们的产品在投产前未经充分测试。

2024年5月31日下午,Vishnu S. Pendyala博士在论坛上演讲。(薛明珠/视频截图)

再次,大多数大型语言模型主要使用英语进行训练,90%或接近90%的训练资料都是英文,而世界上有7,000种语言。他担心人工智能的发展,可能会带来灾难和气候变化等问题。他还说,“人工智能是一把双刃剑。如果落入坏人之手,可能会造成大规模的破坏”。他认为,在人工智能发展的道路上,监管非常重要,但目前政府的监管力度还不够。

在当天的论坛上,英特尔公司研究科学家Jesmin Jahan Tithi博士,探讨了如何使用Z-Inspection®,来确保生成式人工智能的可信度。CogniCor创办人兼首席执行官Sindhu Joseph博士,讨论了生成式人工智能对劳动力的影响。

Ruksana Azhu Valappil博士强调了在医疗领域中,实施伦理和负责任人工智能的重要性。Yang Liu博士探讨了建立可信大型语言模型的挑战和进展。还有Pratik Desai博士,他分享了如何利用人工智能,促进气候强化的农业适应的见解。

这次论坛,是由北美台湾工程师协会(North America Taiwanese Engineering & Science Association,NATEA),和电气与电子工程师学会圣塔克拉拉谷分会(Institute of Electrical and Electronics Engineers Santa Clara Valley,IEEE SCV)联合主办,IEEE担任2024年NFIC的轮值主席。

出席此次论坛的有,北美台湾工程师协会(NATEA)总会会长杨燿宏、秘书长张志仰、硅谷分会会长李湘鹤、硅谷分会副会长林祐立、前总会长及创会会长余金榜、前执行主委陈彦光,以及周信结、叶俊雄、倪文俊等。此外,还有台裔IEEE第六区主席Joseph Wei和侨务委员林政源也应邀出席。◇

2024年5月31日下午,出席论坛的北美台湾工程师。(北美台湾工程师协会提供)

责任编辑:宋佳怡

相关新闻
工研院COMPUTEX参展 睽违5年展16项技术成果
2030年前供电无虞 郭智辉:AI是未来最大用电变数
澳智库:中共藉AI、网游扭曲认知
中共热炒军用机器狗 专家:花哨不实用
如果您有新闻线索或资料给大纪元,请进入安全投稿爆料平台
评论