很早之前,著名的物理學家和宇宙學家霍金就提出了“人工智能威脅論”,在他看來,如果有人設計計算機病毒,那么就有人設計不斷自我完善、直到最終超越人類的人工智能,而這些人工智能很可能通過戰爭摧毀人類,世界就將以一種新的生命形式出現。
我們需要認識到人工智能對人類的威脅,并及時化解這一威脅的存在。之前霍金在表明他對人工智能的擔憂時,就表示人類必須建立有效機制盡早識別威脅所在,防止新科技(人工智能)對人們類帶來的威脅進一步上升,他認為人類要用邏輯和理性去控制未來可能出現的威脅。
霍金表示:一個高度發達的人工智能可以很好地完成他的目標,如果這些目標沒有和我們人類一致,那人類就麻煩了。近年來隨著人工智能技術的高速發展,其潛在的威脅也受到了越來越多科學家的關注,英國牛津大學教授、人類未來研究所創始人Nick Bostrom表示:隨著世界的不斷分化,我們在不斷開發出越來越強大的工具,我不確定人類是否能夠長期生存下去。
霍金稱:自從人類文明形成以來,來自生存能力優勢群體的侵略就一直存在,而人工智能的進一步發展就有可能更具有這種優勢,它們自身將比人類更加強大與完美,并可能通過核戰爭或生物戰爭毀滅人類。因此盡早的建立完善的機制防止未來可能出現的威脅很有必要。
無獨有偶,前段時間出現了一個震驚世界的消息:Facebook人工智能研究實驗室的兩個AI聊天機器人互相對話時,竟逐漸發出人類無法理解的獨特語言。這些看似冷冰冰的機器,正在逐漸擁有了像人類一樣的思考能力,乃至自我意識。所以說,人類建立完善的機制來做預防是何等的重要。
那么問題就來了:人工智能已經滲透到各行各業,當人工智能具有什么條件時才會對人類造成毀滅性的威脅?
想了解更多IT資訊,請訪問中培偉業官網:中培偉業