人工智能的發展會加劇當權者與不當權者之間的二分法。它還可能會加速那些擁有AI的人與少數沒有AI的人之間的鴻溝。人工智能發展的某些方面使得進入該領域非常困難。考慮到成本,工程和硬件需求,人工智能的發展帶來了巨大的資金需求,從而造成了高投入門檻。如果這個問題持續存在,那么其發展背后的思想很可能會被大型技術公司所采用。盡管GPT-3的發布標志著人工智能發展的重要里程碑,但前進的道路仍然模糊。如今,人工智能技術仍然存在某些局限性。這是當今數據科學家面臨的六個主要限制。
1.數據訪問
為了正確地訓練預測或決策模型,他們需要數據。正如許多人所說的那樣,數據現在是驅逐石油的最搶手的商品之一。它已成為一種新貨幣。當前,大量數據掌握在大型公司組織的手中。
這些公司具有固有的優勢,這對剛剛進入AI開發競賽的小型初創公司不公平。如果對此不采取任何措施,那將進一步推動大型企業與初創企業之間的動力關系。
2.偏見
偏見會蔓延到數據建模過程中的方式(這助長了AI的發展)令人恐懼,更不用說創建者要考慮的潛在(已識別或未識別)偏見。偏愛的AI比污穢的數據要細膩得多。深度學習過程有很多階段可能會出現偏差,目前,我們的標準設計程序根本無法適當地識別它們。
正如本相關文章所指出的那樣,我們目前甚至設計AI算法的方法實際上并不是要識別并追溯消除偏差。由于大多數這些算法僅針對其性能進行了測試,因此會流過許多意外的絨毛。這可能是偏見的數據,缺乏社會背景以及對公平性有爭議的定義。
3.計算時間
盡管近年來技術進步迅速擴展,但仍然必須克服一些硬件限制,例如有限的計算資源。同樣,鑒于開發此類定制和精確的硬件所產生的成本,老牌公司也具有明顯的優勢。
4.費用
在能源和硬件使用方面,挖掘,存儲和分析數據都將非常昂貴。
GPT-3模型的培訓費用估計為460萬美元。另一個視頻預測,對于類似于大腦的模型,培訓費用將大大高于GPT-3,約為26億美元。
而且,鑒于這些領域的熟練工程師目前是稀有商品,因此雇用他們肯定會削弱這些公司的財力。同樣,新公司和小公司也處于不利地位。
5.對抗攻擊
由于AI不是人類,因此它不能完全適應環境中的偏差。例如,僅在錯誤的道路兩側粘貼膠帶會導致自動駕駛汽車轉向錯誤的車道并撞毀。人類甚至可能不會在磁帶上注冊或做出反應。在正常情況下,自動駕駛汽車可能會更安全,但我們需要擔心的是這些異常情況。
正是這種無法適應的能力凸顯了尚未解決的明顯安全漏洞。盡管有時“欺騙”這些數據模型可能很有趣且無害(例如, 錯誤地將烤面包機標識為香蕉),但在極端情況下(例如出于防御目的)卻可能使生命受到威脅。
6.沒有關于安全,道德和隱私的共識
弄清楚我們使用AI的極限還有很多工作要做。當前的局限性凸顯了AI中安全性的重要性,因此必須迅速采取行動。此外,大多數對AI的批評者都在遵循實施AI的道德準則上爭論,不僅是在如何使隱私成為被遺忘的概念方面,也在哲學上。
我們認為我們的情報天生就是人類和獨特的。放棄排他性似乎是矛盾的。出現的一個普遍的問題之一是,如果機器人能夠完全做到人類能做的一切,并且從本質上講等同于人類,那么他們是否應該享有人權?如果是這樣,您在定義這些機器人權利方面走了多遠?這里沒有確切的答案。鑒于AI發展的興起,AI 哲學領域仍處于起步階段。我很高興看到AI領域的發展。
上述就是關于人工智能技術的6大局限性的全部內容,想了解更多關于人工智能技術的信息,請繼續關注中培偉業。