李俊奎将AI比作高速行驶的列车,“它既带来了前所未有的机遇,如促进经济发展、社会进步、助力公益事业,但如同列车需要轨道和信号的引导一样,AI的发展也不能毫无约束地狂奔,必须为其设立红绿灯,保障其健康前行”。
红灯,就是做好风险的控制。“我们要警惕AI技术被恶意利用,比如用于制造虚假信息、发动网络攻击或者加剧社会不平等。深度伪造技术就是一个例子,如果不加以限制,它可能会破坏社会的信任体系,引发混乱。”李俊奎表示,必须对抗这种会对人类价值观和社会稳定造成严重冲击的应用,让红灯成为不可逾越的红线。
黄灯,就是在技术之外,做好AI制度管理,谨慎对待那些具有潜在风险的AI领域。“例如,自动驾驶领域虽然前景非常广阔,但目前还存在很多复杂的伦理问题,比如当自动驾驶汽车面临不可避免的碰撞时,它应该优先保护车内乘客还是行人?”李俊奎认为,面对类似情况,要进行充分、深度的研究和讨论,建立完善的伦理和安全框架,只有当风险可控时,才允许其继续前行。
李俊奎认为,负责任AI的建立需要各界多方共同努力。对于政府来说,要制定合理的法规政策,明确红线和监管的机制;对于社会组织、科研机构来说,要加强对AI伦理和风险的研究,为决策提供科学依据;对于科技企业来说,要自觉遵守道德和伦理准则,将社会责任融入技术研发中;对于公众来说,要积极关注和参与AI发展的讨论,共同构建负责任的AI。“总之,设立好红绿灯,建立负责任AI,是一个系统性、开放性的命题,既刻不容缓,也需要长期主义。”
李俊奎介绍,蚂蚁集团在去年年初建立AI安全伦理委员会时便期望用“善治”应对“善智”。集团的任何AI应用在出台前,都会经过包括科技伦理在内的评测,真正做到用制度引导AI驱动的业务符合“以人为本,科技向善”。
李俊奎表示,为AI的发展设立“红绿灯”的过程也是构建负责任AI的过程。负责任AI的建立从长远来看面临三大趋势:第一,从“准确性”到“人情味”。除了保证AI的可靠性和准确性之外,也要真正让AI更好地服务人类。第二,从“显性风险被动防控”到“隐性风险主动防控”。第三,从“对话交互”到“有效协同”。
b体育app官网11月21日,在2024年世界互联网大会乌镇峰会“人工智能负责任开发与应用分论坛”上,蚂蚁集团副总裁李俊奎在发言中指出,要为AI健康发展设立“红绿灯”:对会给人类价值观和社会稳定造成严重冲击的AI应用,必须进行防御和抵制;对具有潜在风险的AI应用领域,要做充分、深度的分析和研究,建立完善的伦理和安全框架;对那些有益于人类的AI应用,应亮起通行信号。
绿灯,就是为那些有益于人类的AI应用亮起通行信号。“安全是手段,最终目的是促进AI健康发展,广泛应用于产业和方便人民的生活,缩小AI引发的技术鸿沟。”
网友评论更多
21任丘x
方励为拍摄《里斯本丸沉没》「砸锅卖铁」是否值得?这部电影会产生多大影响?🈴🈵
2024-12-05 03:51:15 推荐
187****5722 回复 184****3990:各自精彩——《无敌号》原著与游戏情节对比🈶来自黄骅
187****4493 回复 184****2430:大众对攀岩运动有哪些误解?🈷来自河间
157****9129:按最下面的历史版本🈸🈹来自霸州
19三河623
清华计算机入学教育之“关于如何做科研的一些个人经验”🈺🉐
2024-12-05 00:19:54 推荐
永久VIP:在战锤世界中,四邪神是通过什么方法蛊惑忠诚派星际战士入坑的?🉑来自深州
158****8603:如何欣赏《黑神话:悟空》中极其精致的铠甲披挂,它符合中国历史上的真实甲胄设计吗?🌀来自太原
158****3227 回复 666🌁:《黑神话:悟空》讲了一个什么故事?🌂来自大同
16阳泉ol
2024 知乎创作者盐沙龙·成都站活动回顾🌃🌄
2024-12-05 03:46:23 不推荐
长治ry:【长文】24.8~京都大学数据科学/东京大学情报理工CS/东京大学复杂理工~合格经验🌅
186****7159 回复 159****4907:如何评价《黑神话:悟空》的战斗设计?🌆