关于人工智能的问题(人工智能发展面临问题)

【环球网科技报道记者王楠】说到AI,你首先会想到什么?是九大天才棋手柯洁vs. AlphaGo?是自驾吗?还是和朋友聊某个话题时手机每秒推送的同类广告?还是家长

【环球网科技报道记者王楠】说到AI,你首先会想到什么?是九大天才棋手柯洁vs. AlphaGo?是自驾吗?还是和朋友聊某个话题时手机每秒推送的同类广告?还是家长认不出来的“美容神器”?

从1950年的图灵之问到今天工业的蓬勃发展,人工智能技术早已渗透到人们生活的方方面面。但在快速发展的背后,“黑箱模式”导致的技术不可控、数据安全、隐私泄露等问题时有发生。似乎人们对人工智能技术的“万能”已经从最初的全面肯定,变成了冷静下来后的迷茫、担忧和思考。人们应该如何应对科技飞速发展带来的信任危机?

首先,我们需要搞清楚什么是值得信赖的AI?“可信AI实际上是通过底层技术框架解决人工智能应用中可能存在的各种问题,从而建立一个可靠的人工智能生态系统。”中国信息通信研究院华东分院人工智能与大数据处处长陈俊毅在12月14日举行的“谈云·谈AI”科技行业沙龙上表示。事实上,近年来人脸识别被黑产盯上,围绕用户个人隐私数据的买卖隐私信息等安全问题屡见报端,公众对隐私保护、数据安全等问题的关注度也在不断提高。“现在的信息是多源的,短时间内无法追溯。如果数据使用存在监管漏洞,将直接导致个人隐私泄露,甚至直接经济损失。”陈俊彦进一步分析了当前人工智能技术中的信任危机。

同时,AI信任危机也可能造成严重的人身安全问题。“由于AI技术基于黑箱模型,在一些关键领域,如医疗诊断、自动驾驶等危及生命的行业,如果出现信任危机,将会产生可怕的后果。”JD.COM研究所的算法科学家何凤祥表示,这些危机将对行业的发展和应用产生巨大影响。

在此背景下,寻找人工智能时代隐私保护、政府监管和商业诉求之间的平衡点,成为产学研各界亟待解决的问题。标准负责人、华清教信息技术(北京)有限公司战略总监王运合认为,在推进可信AI建设的过程中,需要各方共同努力。“从法律层面来说,目前有几部安全法和个人保护法为数据提供安全保障,这是信任AI的硬手段;下一步是提高行业标准化,这可以被认为是可信AI的软措施。两者缺一不可,相辅相成。”

谈及近年来国际上可信AI的相关政策或标准,陈俊毅总结道:“目前国际上主要以指南和法案的形式规范人工智能的可信度,如2018年可信人工智能伦理指南草案和2019年可信人工智能伦理准则的发布等。;同时,在标准制定方面也有探索,比如构建人工智能管理框架,监督可信AI提高其可靠性。例如,关于识别和管理人工智能中的歧视的标准提案以及今年发布的人工智能风险管理框架。”国外可信AI虽然领先于法规和标准,但灵活性不够,容易产生‘一刀切’的问题。

对此,何凤祥指出,随着人工智能可信的概念逐渐成为全球共识,在可信AI的技术研究和标准制定方面,JD.COM研究院和信通院的白皮书有着相同的思路。它应该保证人工智能的公平性、可解释性、稳定性和隐私保护,保证算法可信任,这将成为未来人工智能行业健康发展的必由之路。“JD。COM从基础理论上研究前沿问题,从这些理论问题和理论成果上设计新的、可靠的新型AI算法,然后尝试将这些AI算法应用到产品上,完成技术的最终落地。”

与会专家表示,无论是理论研究还是产业实践,可信AI都还有很长的路要走。“可信AI涉及的实际工作范围很广,一个企业或机构很难独自带来质的创造和飞跃。因此,产学研的全链条合作是关键;未来,行业需要构建一个成熟开放的生态系统,聚人之力可以带来更多技术、标准和实践的突破。”何凤祥说。

总体来看,目前中国在政策、生态、法律、标准等方面都在全面发力。在可信AI建设方面,比如《国家新一代人工智能标准体系建设指南》、《促进可信人工智能发展倡议》等文件。除了监管部门的全力配合,以信通院、JD.COM为代表的重要机构,以及头部企业,都在努力推动行业倡议和标准制定,未来会有更多积极的进展。

来源:环球网

免责声明:本站所有文章内容,图片,视频等均是来源于用户投稿和互联网及文摘转载整编而成,不代表本站观点,不承担相关法律责任。其著作权各归其原作者或其出版社所有。如发现本站有涉嫌抄袭侵权/违法违规的内容,侵犯到您的权益,请在线联系站长,一经查实,本站将立刻删除。

作者:美站资讯,如若转载,请注明出处:https://www.meizw.com/n/227361.html

发表回复

登录后才能评论