第 172 期 AI 推薦文章

# AI

# [英]Elon Musk 悄悄啟動新的人工智慧公司 X.AI,挑戰 OpenAI

根據最新報導,特斯拉創始人 Elon Musk 將推出一家名為 X.AI 的新人工智慧(AI)初創公司,直接競爭 OpenAI。據《金融時報》報導,Musk 已經開始組建 AI 研究和工程師團隊,並與 SpaceX 和 Tesla 的幾位投資者談過支持他的新 AI 初創公司的事宜。此外,他還購買了約 1 萬個圖形處理單元(GPU)來為新的 AI 項目提供支持。然而,這一決定引起了 OpenAI 聯合創始人 Sam Altman 的擔憂。此前,Musk 在 OpenAI 的董事會上辭職,並批評該組織追求人工通用智慧(AGI)的做法。這次,Musk 的新冒險是在他表達對人工智慧潛在危險的擔憂和對監管和監督的需要之後而進行的。

# [英] 為什麼負責任的 AI 導致更準確和有效的 AI 模型?

負責任的 AI 定義了在設計、開發和部署 AI 模型時確保安全、公平和道德的承諾。通過確保模型按預期運行 - 並且不會產生不良結果 - 負責任的 AI 可以幫助增加信任,保護免受損害,並提高模型表現。

為了負責,AI 必須是可理解的。這已經不是人類規模的問題了;我們需要算法來幫助我們理解算法。

GPT-4,OpenAI 的 大型語言模型(LLM) 的最新版本,是基於互聯網的文本和圖像進行訓練的,而我們都知道,互聯網充滿了不精確之處,從小的錯誤說法到完全的杜撰。儘管這些錯誤本身可能很危險,但它們也必然產生不太準確和智能的 AI 模型。負責任的 AI 可以幫助我們解決這些問題,並朝著開發更好的 AI 前進。具體而言,負責任的 AI 可以:

  1. ** 減少偏見 **:負責任的 AI 專注於解決開發過程中可能被建立到 AI 模型中的偏見。通過積極努力在數據收集、訓練和實施過程中消除偏見,AI 系統變得更加準確,為更廣泛的用戶提供更好的結果。
  2. ** 增強普遍性 **:負責任的 AI 鼓勵開發在不同情境和不同人群中表現良好的模型。通過確保 AI 系統在各種情況下進行測試和驗證,可以增強這些模型的普遍性,從而產生更有效和適應性的解決方案。
  3. ** 確保透明度 **:負責任的 AI 強調 AI 系統的透明度的重要性,使用戶和利益相關者更容易理解決策是如何做出的以及 AI 的運作方式。這包括提供算法、數據來源和潛在限制的可理解解釋。通過促進透明度,負責任的 AI 促進了信任和責任,使用戶能夠做出知情決策,促進了對 AI 模型的有效評估和改進。

# [英]OpenAI 的首席執行官表示,巨型 AI 模型的時代即將結束;GPU 危機可能是其中一個原因。

OpenAI CEO Sam Altman 認為,人工智能模型不斷變大的時代即將結束。Skyworth AI 應用研發技術中心副總經理陳瑩認為,在大數據時代,人工智能的「三高」問題——高成本、高門檻和高風險——是制約人工智能發展的主要阻礙。成本問題是人工智能發展的瓶頸之一。如今,隨著大數據的快速增長,人工智能的計算需求越來越高,計算成本也不斷增加。目前,以 Nvidia 為代表的 GPU 廠商正在推出一系列面向人工智能的 GPU。這些 GPU 的價格高昂,單價甚至可以達到 3 萬美元以上。此外,GPU 的使用壽命也較短,需要不斷更新。

Tag

Recommendation

  1. 第 163 期 Golang 推薦文章
  2. 第 141 期 前端開發 推薦文章
  3. 第 131 期 前端開發 推薦文章
  4. 第 130 期 DevOps 推薦文章
  5. 第 126 期 DevOps 推薦文章

Discussion(login required)