loading...
未登录头像  

2019-10-12

为什么说AI时代就是现在

编辑 | Sushi

还有关于纯粹的智能:谷歌DeepMind的算法很容易在AlphaGo围棋和星际争霸游戏中击败人类,而加拿大阿尔伯特大学开发的DeepStack则在无极限扑克游戏hold 'em poker中战胜了人类。通常情况下,这些硅脑产生的游戏策略并不像人类大脑。

它们的学习和发展的速度惊人:在诊断乳腺癌、眼疾和其他医学成像可见的疾病方面,算法常常超过放射科医生,从本质上讲,几十年的专家培训缩短到了几个月。

1570872934501122.jpeg

▲南加州大学Assad Oberai教授开发了一套机器学习算法,用于更准确地诊断乳腺癌  图源:ISTOCK

尽管如今AI润物无声的“侵入”主要体现在技术、金融和卫生领域,但它对各行业的影响正在迅速蔓延。8月18~21日在旧金山举行的奇点大学(SingularityUniversity)全球峰会上,奇点大学AI和机器人技术主席尼尔•雅各布斯坦(Neil Jacobstein)为人类描绘了一幅更美好的AI驱动未来的图景。

多亏了基于云的认知平台,深度学习如此复杂的AI工具不再局限于学术实验室。对于那些想要应对人类巨大挑战的初创企业来说,有效地将AI融入其使命的工具已唾手可得。雅各布斯坦开玩笑说,AI的进步正在大幅加速,以至于你需要AI的帮助才能跟踪它的进步。

现在是考虑AI如何影响各行各业的时候了,在这个过程中,人类开始设想与我们的机器同事建立一种有益的关系。正如雅各布斯坦在他的演讲中强调的那样,脑机并用的未来是一种协作智能,可以增强我们自己的智慧。“AI正在重塑我们的发明方式”,他说。

1、AI的“大众化”革命远比你想象得要快

机器学习和其他基于AI的方法可能显得学术性,有些深奥。但是雅各布斯坦指出,现实世界中已经有很多AI应用框架。

规模较小但拥有远大愿景的公司正在利用基于云的解决方案,如谷歌的TensorFlow、微软的Azure或亚马逊的AWS,而不是通过从头开始编写代码来开启它们的AI之旅。这些平台提供了一应俱全的解决方案,不仅可以清理和组织数据,还包括了内置的安全性和拖放代码,任何人都可以使用这些代码来试验复杂的机器学习算法。

例如,谷歌Cloud的Anthos允许任何人从其他服务器(例如IBM Watson或AWS)迁移数据,因此用户可以利用不同的计算平台和算法将数据转换为见解和解决方案。

1570872973644695.png

▲谷歌Cloud的Anthos官方简介

雅各布斯坦说,与其从头开始编写代码,现在已经可以去借助一个平台上的数据。关键是:AI的大众化是让所有人开始学习如何利用AI探索解决问题,那些问题是我们甚至不知道我们有、或一直认为不可能的问题。

加速仍在继续。AI令人难以置信的发展速度在很大程度上要归功于大量资金的注入。微软最近向埃隆•马斯克(Elon Musk)旗下的OpenAI公司注资10亿美元,这家公司旨在设计具有社会责任感的人工通用智能(AGI)。

另一场革命发生在硬件领域,谷歌、IBM和NVIDIA等公司正在竞相生产专门为机器学习设计的计算芯片。

让AI大众化就像印刷机的诞生。机械印刷使任何人都能成为作家;如今,一部iPhone可以让任何人拍摄一部电影大片。

然而,AI在我们生活结构中的扩散,意味着科技探索者需要对他们的AI解决方案始终持有一种怀疑态度,给它们一剂有同理心、细腻情感和人性的良药。

2、通往有道德感的AI之路

AI的大众化是一把双刃剑:随着越来越多的人在现实应用中享受这项技术带来的便利性,深度学习中存在的问题可能会破坏这些判断。

雅各布斯坦说,很多关于AI危险的报道都聚焦于超级智能——比人类更擅长学习的AI——占领世界。但近期的威胁,以及更为潜在的威胁,在于人类滥用这项技术。

1570873013946287.png

▲AI换脸工具Deepfakes  图源:Scripps Media, Inc

例如,AI换脸工具Deepfakes允许AI新手把一个人的脸毫无违和感地套在另一个人的身体上,或者让另一个人在视频中根据提前设计的台词以对应的嘴型说出。正如奇点大学人工智能AI和机器人技术组委会指出的,将AI视为一个网络安全问题是值得的,这个问题目前的问责性和复杂性都不稳定,而且在多样性和偏见方面也存在很大隐患。

AI是带有偏见的。由于自然语言处理的进步,谷歌翻译在今天几乎可以完美地工作,以至于很多人认为翻译问题已经解决。但该组委会表示,事实并非如此。一个著名的例子是,谷歌翻译为何将“医生”和“护士”这类中性词汇分别翻译成“他”和“她”?这些AI偏见反映了我们人类自己的固有偏见,这不仅仅是一个数据问题。要真正设计出客观的AI系统,消除我们社会的偏见,我们需要问询谁在开发这些系统,并咨询那些会受到产品影响的人。

除了性别,种族偏见也很猖獗。例如,最近的一份报告发现,美国新奥尔良一个本以为客观的犯罪预测系统,是基于伪造数据训练出来的,产生的结果反而进一步助长了某些警察的腐败行为——使用过多的武力,不成比例地打击黑人居民;针对少数民族、非英语母语者和LGBTQ个体;未能解决对妇女的暴力问题……谷歌本月的另一项研究发现,与其他种族的推文相比,谷歌的仇恨语言检测器更经常将来自非裔美国人的无害推文标记为“淫秽”。

我们经常认为构建AI纯粹是一项工程工作。但与基因驱动、生殖系基因组编辑等其他既具变革性但又很危险的工具类似,AI需要在政策制定者和其他利益相关方的共同协商下发展。从年轻一代开始是有好处的:让新一代的年轻人接受警惕AI偏见的教育,及早塑造可塑性强的头脑,提醒他们注意偏见问题,并降低潜在风险。

正如来自非盈利高中生AI学习项目AI4ALL的组委会成员苔丝波斯纳(Tess Posne)所说,AI是实现抱负的火箭燃料。如果年轻人开始使用AI工具来解决他们关注的问题,同时充分意识到AI的固有弱点,我们就可以开始构建一个AI嵌入的未来,这个未来是广泛可及且包容的。

底线是:在AI解决方案的构思过程中,那些将受到AI影响的人需要在场。人们将会被新技术所取代,而有道德的AI必须考虑如何在过渡期间减轻人类的痛苦。组委会认为,仅仅因为AI看起来像“魔法仙尘,并不意味着你就可以轻松地为己所用。”每个有良知的人类,都要为决定如何使用这项技术承担责任。

Yes,AI的时代就是现在!

 


参考资料:

https://singularityhub.com/2019/08/21/the-time-for-ai-is-now-heres-why/

https://viterbischool.usc.edu/news/2019/07/addressing-the-urgent-need-for-early-and-accurate-tools-in-diagnosing-and-treating-cancer/

https://cloud.google.com/anthos/

https://www.reuters.com/article/us-microsoft-openai/microsoft-to-invest-1-billion-in-openai-idUSKCN1UH1H9

https://deepfakes.com.cn/

https://www.technologyreview.com/s/612957/predictive-policing-algorithms-ai-crime-dirty-data/

https://www.forbes.com/sites/nicolemartin1/2019/08/13/googles-artificial-intelligence-hate-speech-detector-is-racially-biased/#5172e035326c



你所访问的内容不存在!

著作权归美柏医健所有。转载请联系美柏医健(微信公众号:mybio1)获得授权,并附上出处(美柏医健)和原文链接 https://www.mybiogate.com/article/476。
AI 人工智能

作者头像

+ 关注

打赏 打赏作者

评论:0

hi,

提交评论

暂时还没有评论哦~~~
鼓掌
0
收藏
微博
微信

作者头像

+ 关注

[Ta的贡献]

查看更多 >

投资人交流群

限量名额,微信扫码申请

二维码
微信群 ① : 投 资 人 群
 微信群 ② : 路演交流群
微信群 ③ : 医健研究群
top 回到顶部