当前位置: 环球解密 > 科学探索 > 人工智能AI可帮助人类发挥“群体智慧”

人工智能AI可帮助人类发挥“群体智慧”

2020年6月29日7:59 环球解密

机器人很难捕作到构成人类群体动态的微妙和难以言喻之社交表达方式,而人类则很难信任过度干涉的人工智能系统。

人类很早已认识到,群体合作集思广益,其解决问题的成效可以大过个体各自智慧的总和。“群体智慧”早在古希腊就已得到公认,当年希腊哲人亚里士多德就指出,众多平凡之人如果齐心合力,所作的集体判断往往比伟大的个人更为出色。

不需多想即知多人参与决策会有较出色的成果,但知易行难,任何行政主管都会告诉你,让一个大团队齐心合力共事并不容易。然而,最近人工智能(AI)的进步让群体智慧的可操作性变得比较可行,从而得以让人类工作会更有效率,更有能力解决紧迫的社会挑战。

英国国家科技艺术基金会(NESTA)是英国一个资助和推动改善人类生活之创新和发明的公益机构。其群体智慧设计中心的负责人彼得‧巴克(Peter Baeck )说,“我们知道,人类工作的未来完全依赖相互合作解决问题,其中一个最显然而明的机遇是利用人工智能,这可帮助人类面对共同挑战时在通常相当纷乱的网络中建立良好联系。”

卡内基梅隆大学组织行为学权威专家安妮塔‧伍莱(Anita Woolley)表示,影响一个团队发挥群体智慧的最大因素是成员之间的协调程度。智能工具在这一领域可能起很大作用,因此伍莱现在与同事正一起开发人工智能的合作教练,这个AI教练可以跟踪团队成员的工作状态,然后给予提示,帮助团队成员同心协力工作。

伍莱说,“这些(人工智能)工具可以扮演的角色实际上是无穷无尽的,比如促进不同分部门之间的交流,提醒人们可能忘记的事务,充当信息的存储库,以及帮助团队协调决策等。”

马云对话马斯克:人工智能对人类是机遇还是威胁?

人工智能未来可能会太聪明令其意外摧毁人类

人工智能AI的前世今生:神话、科幻和现实

人工智能:吓坏创造者的“深度造假写手”

有的公司希望蜂群型的集体智能模式能帮助人类建立团队合作精神。

蜂群思维

在开发人工智能帮助我们汇总各自独特的才干方面,已经有了一些前景很看好的个案。旧金山初创公司Unanimous AI建立了一个帮助指导团队决策的在线平台。该公司以一种大家意想不到的模式来建立其人工智能方法,即模仿蜂群的集体智能模式。

首席执行官路易斯·罗森伯格说,在设计这个模式时“我们回到最基本的问题,即‘大自然是如何增强放大物种的群体智慧? ’自然所做的就是建立实时系统,在这个系统中,动物团队通过反馈回路即时交互作用。因此,蜜蜂是作为一个系统,相互推动和拉扯,汇聚它们各自的知识、智慧、洞察力和直觉于一体,因而形成最佳的智力决策。”

他们建立的峰群人工智能平台(Swarm AI)的运作模式通常向群组提出一个问题,并在屏幕的不同角落放置可能的答案。群组各用户需用鼠标控制一个虚拟磁石,互相争抢着把一个冰球拖向他们认为正确的答案处。

这个系统的算法则分析每个用户与冰球的互动方式,例如,其对拖动冰球的信心有多大,或者当位于少数时,其信心动摇的速度有多快,然后利用这些信息来确定冰球的移动方向。这就形成了每个用户都会受到其他人的选择和信念影响的反馈循环,从而使得冰球最终会落脚于这个互动群体智慧的最佳选择处。

使用该产品的一些学术论文和知名客户进一步增强了这个蜂群人工智能平台的有效性。在最近的一项研究中,一组交易员被要求预测几个关键股市指数的每周波动曲线,方法是试图把冰球拖到四个答案的其中一个。这四个答案是涨或跌超过4%,以及涨或跌不到4%。使用该工具,他们的预测准确率提高了36%。

瑞士信贷集团利用这个平台帮助投资者预测亚洲市场的表现。迪斯尼曾用来预测电视节目的成功率。Unanimous AI甚至与斯坦福医学院合作,使用这个平台将医生通过胸透X光诊断肺炎的能力提高了33%。

“蜂群智能”模式可帮助医生使用X光诊断肺炎时减少三分之一的误诊。

打造团队

但伍莱表示,要设计出能够与人类团队良好融合的技术,可能会惊人的困难。她正与同事一起研究开发人工智能的团队教练,这个人工智能教练可以跟踪团队成员的行动,给予提示,帮助整个团队能良好地协同工作。

她的团队在一项研究中,尝试了三种旨在最大化群体智慧的工具。一种工具可以对团队成员的努力提供实时反馈,另一种工具可以帮助分配任务,还有一种聊天机器人可以帮助团队成员谈论他们的技能和专业知识。

第一个工具似乎会让人们失去动力,而第二个工具则会用不必要的计划分散团队的注意力。只有最后一种工具,即聊天机器人有所帮助,能确保每个任务由最适合的人选来完成。伍莱说,“我们不断发现的是,制造一些让人讨厌的东西比制造一些真正有用的东西要容易得多。”

她表示,利用人类的社交智慧来构建人工智能非常困难,因为机器仍然很难捕捉到支配着人类群体动态的那种微妙而难以言喻的社交表达方式。从伍莱的研究中也可以明显看出,这些系统只有在人类真正信任人工智能决策,并且用户只接受系统的轻微提示的情况下才能工作。伍莱说:“一旦系统过度干涉用户,人们就会想办法让其失效。”

人工智能:机器人冲击七大职业,看看有没有你

小鹦鹉能说会道 还能网上购物扫货

机器人对人类交给他们的任务越来越胜任。

但是,巴克说,人工智能和人类很难结合的原因也是机器和人类能否很好合作的关键之所在。人工智能的运行速度和规模远远超越了人类的能力,但机器人要学会人类的灵活性、好奇心和对微妙语境的把握,还有很长的路要走。

最近,巴克与英国国家科技艺术基金会(Nesta)高级研究员艾勒克斯‧贝蒂谢夫斯卡雅(Aleks Berditchevskaia)共同撰写了一份报告,确定了人工智能增强我们群体智慧的几种方式。其中包括帮助我们更好地理解数据,找到更好的方法来协调决策,帮助我们克服固有的偏见,以及彰显经常被忽视的非寻常解决方案等。

但该报告还显示,将人工智能工具与人类团队结合起来需要精心设计,以避免意外后果。贝蒂谢夫斯卡雅说,目前缺乏人类群组如何应对与人工智能合体的研究,因此很难预测这种合作系统一旦实际使用其效果会如何。

她补充说,人工智能系统“可能会以新的方式扩充我们的才能,或我们需要做出快速反应时提高我们的回应速度。我们对人类认识以及有能力引导个人对这类人工智能系统作出反应的研究,诸如人类对AI的信任问题以及AI对自己代理角色的意识等,尚处于非常早期的阶段。”

人性化人工智能

将人类智慧和AI智慧结合在一起,也有助于赋予人工智能技术更多的人性元素,更好地指导其决策。

总部位于伦敦的初创企业Factmata建立了一个人工智能审核系统,该公司招募了2000多名专家,其中包括记者和研究人员,专门分析互联网上的某些信息,比如偏见、言论的可信度或仇恨言论等。然后,他们利用这一分析来训练一个自然语言处理智能系统,用来自动扫描网页中有问题的内容。

其首席执行官德茹夫‧古拉特(Dhruv Ghulati)说,“一旦你有了经过训练的算法,就可以用于分析互联网上的数百万条内容。你可以放大这些专家对互联网言论的批判性评估。”

虽然人工智能通常是在一次性过程中接受专家标记的数据训练,但Factmata的专家不断更新训练数据,以确保人工智能算法能够跟上不断变化的政治和媒体环境。他们还让公众对人工智能的输出作出反馈,古拉特说这能确保人工智能不脱离现实,也不会存在固有偏见。

然而,将我们自己和我们的智力决策与人工智能混合在一起并非没有风险。伍莱说,我们给机器提供的信息越多,人工智能和集体智能之间的协同作用效果也越好,但我们也就会面临我们究竟愿意放弃多少个人隐私的艰难选择。

但她说,考虑到气候变化和流行病大爆发等全球性的多方面复杂挑战,有效利用我们人类的群体智慧已攸关人类的存亡。

已经有一些例子说明以人工智能来增进人类的群体智慧这种方法是如何应对这类全球性危机。卡耐基梅隆大学的研究人员目前正在使用人工智能学习算法,将自愿症状调查、医生报告、实验室统计数据和谷歌搜索趋势等结合一体,实时预测新冠肺炎流行趋势。再例如,监察全球种族灭绝和反人类罪风险的美国NGO“早期预警”(Early Warning Project),结合网络的众包预测、专家评估和机器学习算法,来确认最有可能发生这类暴行的国家,从而提前发出警示。

伍莱说:“我们可以让一些非常聪明的人单独研究问题的不同方面,但是如果我们不协力合作,没有集思广益,就很难取得任何进展。我认为,关键之处是要让人工智能帮助这些单打独斗的工作实现集群化,这样才能解决需要全球集体行动以面对的问题。”

(必须)

(必须,保密)

阿狸1 阿狸2 阿狸3 阿狸4 阿狸5 阿狸6 阿狸7 阿狸8 阿狸9 阿狸10 阿狸11 阿狸12 阿狸13 阿狸14 阿狸15 阿狸16 阿狸17 阿狸18

真诚欢迎各科普媒体、机构、专家和网友与我们联系合作! QQ 404-455-307

版权所有,保留一切权利! ©2011-2016 Designed by 环球解密 豫ICP备18040785号-1

sitemap