機器人與人類共同辯論AI危險性 英媒:人類最后被說服了

中華新聞社 2019-11-28 09:24

參考消息網11月27日報道 英媒稱,一個人工智能系統日前與人類就人工智能的危險性展開了辯論——它以微弱優勢說服觀眾相信人工智能利大于弊。

據英國《新科學家》周刊網站11月24日報道,由IBM公司開發的機器人——“辯論家”計劃(Project Debater)——分別代表正方和反方進行了辯論,而每一方的團隊都各有兩名人類辯手。21日晚,這個人工智能平臺在劍橋大學同學會以一名美國女性的聲音向觀眾做了正反雙方的開篇立論,其間使用了來自人類預先提交的1100多份意見中的觀點。

報道稱,在代表正方——主張人工智能弊大于利——時,“辯論家”計劃的開場白帶有陰暗的諷刺意味。它說:“人工智能可以造成許多傷害。人工智能將無法作出一個在道德上正確的決定,因為只有人類才講道德。”

它還說:“人工智能公司在如何正確評估數據集和過濾掉偏見方面仍然極度缺乏專業知識。人工智能將采納人類的偏見,并把這種偏見固化數十年時間。”

報道指出,人工智能利用一款名為“眾包演講”(speech by crowd)的應用軟件對人們在網上提交的論點進行分析,進而生成自己的論點。“辯論家”計劃隨后將人們提交的意見歸入若干關鍵主題,并識別出冗余觀點——即措辭不同的相同觀點。

報道稱,該人工智能平臺在辯論過程中能做到前后一致,但是也出現了少量紕漏。它有時會說車轱轆話,并且沒有提供具體的例子來支持自己的論點。

在代表反方——主張人工智能整體而言利大于弊——時,“辯論家”計劃稱,人工智能將在某些部門創造新的就業崗位,并“大大提升工作場所的效率”。

但隨后它又提出了一個與其觀點背道而馳的觀點:“人工智能能夠照顧病人,機器人能夠教導學童——那些領域也不再需要人類。”

報道稱,反方以微弱優勢獲勝,贏得了51.22%的觀眾票。

報道稱,“辯論家”計劃去年首次與人類展開辯論,它在今年2月與冠軍辯手哈里什·納塔拉詹的一對一較量中失利。納塔拉詹本次也作為反方三辯參加了在劍橋大學同學會的辯論。

IBM公司計劃利用“眾包演講”人工智能平臺收集大量人群的反饋。例如,IBM工程師諾姆·斯洛尼姆說,政府可以利用它征求選民對政策的意見,企業也可以利用它征求員工的意見。

他說:“這項技術有助于在決策者和將受決策影響的人之間建立有趣和有效的溝通渠道。”(編譯/馮雪)

上一篇:全球芯片市場“兩強之爭”已打響
下一篇:新媒:你應該了解的“美國反中國科技戰”

? 手机彩票app排名