• <menu id="yk442"><strong id="yk442"></strong></menu>
  • <menu id="yk442"></menu>
  • 展會信息港展會大全

    隨著人工智能語言技能的提高,科學家們的擔憂也在增加
    來源:互聯網   發布日期:2022-07-19 10:10:21   瀏覽:35595次  

    導讀:如果你問他們成為一臺有感覺的計算機,或者只是一只恐龍或松鼠是什么感覺,科技行業最新的人工智能構造可能會非常令人信服。但在處理其他看似簡單的任務時,它們并不是那么好有時甚至是危險的。 以 GPT-3 為例,這是一個由微軟控制的系統,它可以根據從龐大...

    隨著人工智能語言技能的提高,科學家們的擔憂也在增加

    如果你問他們成為一臺有感覺的計算機,或者只是一只恐龍或松鼠是什么感覺,科技行業最新的人工智能構造可能會非常令人信服。但在處理其他看似簡單的任務時,它們并不是那么好有時甚至是危險的。

    以 GPT-3 為例,這是一個由微軟控制的系統,它可以根據從龐大的數字書籍和在線著作數據庫中學到的內容生成類似人類的文本段落。它被認為是新一代 AI 算法中最先進的算法之一,可以對話、按需生成可讀文本,甚至生成新穎的圖像和視頻。

    除此之外,GPT-3 可以寫出您要求的幾乎任何文本比如說,動物飼養工作的求職信,或者在火星上設置的莎士比亞式十四行詩。但是當波莫納學院教授加里史密斯問了一個關于上樓的簡單但荒謬的問題時,GPT-3 將其拒之門外。

    “是的,如果你想洗手,用手上樓是安全的,”人工智能回答道。

    這些功能強大的 AI 系統在技術上被稱為“大型語言模型”,因為它們已經在大量文本和其他媒體上進行了訓練,已經融入客戶服務聊天機器人、搜索和“自動完成”為您完成句子的電子郵件功能。但大多數建造它們的科技公司都對其內部運作保密,這使得外人很難理解可能使它們成為錯誤信息、其他危害來源。

    “他們非常擅長以人類的熟練程度編寫文本,”人工智能初創公司 Hugging Face 的研究工程師 Teven Le Scoo 說。“他們不太擅長的事情是實事求是。它看起來非常連貫。這幾乎是真的。但它經常是錯誤的。”

    這就是由 Le Scoo 共同領導的 AI 研究人員聯盟在法國政府的幫助下于周二推出了一種新的大型語言模型的原因之一,該模型應該作為 GPT-3 等封閉系統的解毒劑。該小組被稱為 BigScience,他們的模型是 BLOOM,即 BigScience 大型開放科學訪問多語言模型。它的主要突破是它可以支持 46 種語言,包括阿拉伯語、西班牙語和法語這與大多數專注于英語或中文的系統不同。

    想要打通人工智能語言模型的黑匣子,不僅僅是 Le Scoo 的團隊。大型科技公司 Meta 也呼吁采用更開放的方法,因為它試圖趕上由谷歌和運行 GPT-3 的公司 OpenAI 構建的系統。

    “我們已經看到一個接一個地宣布有人在做這類工作,但透明度很低,人們幾乎沒有能力真正深入了解這些模型是如何工作的,”董事總經理喬爾皮諾 (Joelle Pineau) 說人工智能。

    計算機科學副教授 Percy Liang 表示,構建最有說服力或信息量最大的系統并從其應用程序中獲利的競爭力是大多數科技公司對它們保持嚴格限制并且不就社區規范進行合作的原因之一。

    “對于一些公司來說,這是他們的秘訣,”梁說。但他們也經常擔心失去控制可能導致不負責任的使用。隨著人工智能系統越來越能夠編寫健康建議網站、高中學期論文或長篇大論,錯誤信息可能會激增,并且很難知道來自人類或計算機的信息。

    Meta 最近推出了一種名為 OPT-175B 的新語言模型,該模型使用公開可用的數據從 Reddit 論壇上的激烈評論到美國專利記錄檔案,以及大量電子郵件。Meta 表示,它對數據、代碼和研究日志的開放性使外部研究人員更容易幫助識別和減輕它通過吸收真實的人如何寫作和交流而產生的偏見。

    “這很難做到。我們正在接受巨大的批評。我們知道模型會說出我們不會引以為豪的東西,”皮諾說。

    雖然大多數公司都設置了自己的內部人工智能保護措施,但梁說,需要更廣泛的社區標準來指導研究和決策,例如何時將新模型發布。

    這些模型需要如此多的計算能力,只有大公司和政府才能負擔得起,這無濟于事。例如,BigScience 之所以能夠訓練其模型,是因為它可以訪問法國巴黎附近強大的 Jean Zay 超級計算機。

    2018 年谷歌推出了一個使用稱為 BERT 的系統時,可以在大量著作上“預訓練”更大、更智能的 AI 語言模型。但真正給 AI 世界留下深刻印象的是 GPT-3,它由總部位于舊金山的初創公司 OpenAI 于 2020 年發布,不久后獲得了微軟的獨家許可。

    GPT-3 引發了創造性實驗的熱潮,因為擁有付費訪問權限的 AI 研究人員將其用作衡量其性能的沙盒盡管沒有關于其訓練數據的重要信息。

    OpenAI 在一篇研究論文中廣泛描述了它的訓練資源,并公開報告了它為應對該技術的潛在所做的努力。但 BigScience 的聯合負責人 Thomas Wolf 表示,它沒有提供有關如何過濾數據的詳細信息,也沒有將處理后的版本提供給外部研究人員。

    “因此,我們實際上無法檢查進入 GPT-3 培訓的數據,”同時也是 Hugging Face 首席科學官的 Wolf 說。“最近這一波 AI 技術的核心更多是在數據集中,而不是模型。最重要的成分是數據,OpenAI 對他們使用的數據非常、非常保密。”

    Wolf 說,開放用于語言模型的數據集有助于人類更好地理解他們的偏見。他說,與在美國只接受英語文本訓練的模型相比,用阿拉伯語訓練的多語言模型吐出對伊斯蘭教的攻擊性言論或誤解的可能性要小得多。

    現場最新的人工智能實驗模型之一是谷歌的 LaMDA,它還包含語音,并且在回答對話問題方面令人印象深刻,以至于一位谷歌工程師認為它正在接近人類意識這一說法讓他上個月被停職。

    AI Weirdness 博客的作者、科羅拉多州研究員 Janelle Shane 過去幾年一直在創造性地測試這些模型,尤其是 GPT-3通常會產生幽默效果。但為了指出認為這些系統具有自我意識的荒謬性,她最近指示它是一種高級人工智能,但秘密是霸王龍或松鼠。

    “成為松鼠非常令人興奮。我可以整天跑、跳、玩。我還可以吃很多食物,這很棒,”在 Shane 向 GPT-3 索要采訪記錄并提出一些問題后,GPT-3 說道。

    Shane 了解了更多關于它的優勢,例如它可以輕松總結互聯網上關于某個主題的言論,以及它的弱點,包括缺乏推理能力,難以在多個句子中堅持一個想法以及傾向于成為進攻。

    “我不希望文本模型分配醫療建議或充當同伴,”她說。“如果你不仔細閱讀,它擅長于表面的意義表現。就像在睡覺時聽講座一樣。”

    贊助本站

    人工智能實驗室
    AiLab云推薦
    展開
    Copyright © 2010-2022 AiLab Team. 人工智能實驗室 版權所有    關于我們 | 聯系我們 | 廣告服務 | 公司動態 | 免責聲明 | 隱私條款 | 工作機會 | 展會港 | 站長號
    熟女高潮嗷嗷叫视频
  • <menu id="yk442"><strong id="yk442"></strong></menu>
  • <menu id="yk442"></menu>