[情報] 中國推出世界首顆無干涉 AI全自動設計CPU
中國推出世界首顆無干涉 AI全自動設計CPU
https://new.qq.com/rain/a/20230630A07AQ100?no-redirect=1
中科院計算所的處理器晶片全國重點實驗室及其合作單位,
用AI技術設計出了世界上首個無人工干預、全自動生成的CPU晶片——啟蒙1號。
這顆完全由AI設計的32位RISC-V CPU,相比GPT-4目前所能設計的電路規模大4000倍,
並可運行Linux作業系統,且性能堪比Intel 486。
啟蒙1號處理器是基於RSIC-V指令集的,32位元架構,
早在2021年12月就已經完成流片驗證,之後中科院計算所還用它點亮了Linux作業系統,並運行了SPEC CPU2000測試程式,評估後認為性能跟Intel的40486相當。
啟蒙1號晶片版圖及實物圖,其中CPU核部分完全由演算法自動生成,晶片於2021年12月採用65nm工藝流片,運行頻率300MHz
這是全球首個無人工干預、全自動生成的CPU晶片,65nm工藝,頻率達到了300MHz,
相關研究論文已經發表。
啟蒙1號是中科院研究人員基於BSD二元猜測圖(Binary Speculation Diagram, 簡稱BSD)演算法設計出來的,5個小時就生成了400萬邏輯門,
這個規模比GPT-4能設計的晶片大4000倍。
雖然啟蒙1號CPU的規模跟當前的頂級CPU還沒法比,但是AI技術的進步飛快,
未來AI設計晶片會成為主流,將極大地提高晶片設計效率。
啟蒙1號晶片可以成功運行Linux作業系統及性能對比(CPU-AI為啟蒙1號)
團隊介紹
自2008年起,中科院計算所便開始長期從事晶片設計和人工智慧的交叉研究。其中一項為人熟知的產出就是人工智慧晶片寒武紀。
而在面向晶片設計的人工智慧方法上,中科院計算所也已有十多年的積累,並且從未停止探索如何用人工智慧方法使得晶片設計完全自動化。
依託中國科學院計算技術研究所建立的處理器晶片全國重點實驗室,是中國科學院批准正式啟動建設的首批重點實驗室之一,並被科技部遴選為首批 20個標杆全國重點實驗室,2022年5月開始建設。其中,實驗室學術委員會主任為孫凝暉院士,
實驗室主任為陳雲霽研究員。
實驗室近年來獲得了處理器晶片領域首個國家自然科學獎等6項國家級科技獎勵;在處理器晶片領域國際頂級會議發表論文的數量長期列居中國第一;在國際上成功開創了深度學習處理器等熱門研究方向;孵化了總市值數千億元的國產處理器產業頭部企業。
使用ChatGPT設計的晶片
日前,國際上也有使用ChatGPT設計晶片的嘗試。紐約大學 Tandon 工程學院的研究人員使用簡單的英語“對話”與 AI 模型製造了一個微處理晶片,這是一項史無前例的成就,
可以加快晶片開發速度,更重要的是這將允許沒有專業技術技能的個人設計晶片。
兩名硬體工程師使用標準英語與ChatGPT-4“交談”,並設計了一種新型的微處理器架構
。研究團隊和 ChatGPT 設計的晶片並不是一個完整的處理器,它是整個 CPU 的一個部分:負責創建一個新穎的基於 8 位元累加器的微處理器架構的邏輯。該晶片隨後被送往
Skywater 130 nm 光刻機上進行製造。該團隊聲稱,這項研究標誌著 LLM 設計的 IC 首次真正投入生產。
該團隊使用 125 條消息成功創建了他們的 IC
累加器本質上是寄存器(記憶體),其中存儲中間計算的結果,直到主計算完成。但它們是 CPU 工作方式不可或缺的一部分;也許還可以設計其他必要的單元。這一成果表明,未來成為 EDA 設計師的知識門檻要低得多。也許有一天,足夠多的 CPU 碎片會被公開,這樣更多的ChatGPT用戶將可以在家裡設計他們的 CPU 架構。
研究人員使用商業和公開可用的大型語言模型 (LLM) 來研究八個硬體設計示例,在工程師和 LLM 之間的即時來回交互中,通過純英文文本處理其 Verilog (HDL) 等效。
“這項研究產生了我們認為是第一個完全由 AI 生成的 HDL,用於製造物理晶片,”紐約
大學 Tandon 的研究助理教授兼研究團隊成員 Hammond Pearce 博士說。“一些人工智慧模型,如 OpenAI 的 ChatGPT 和穀歌的 Bard,可以生成不同程式設計語言的軟體代碼,但它們在硬體設計中的應用尚未得到廣泛研究。這項研究表明 AI 也可以使硬體製造受益,尤其是當它被用於對話時,你可以通過一種有來有往的方式來完善設計。”
從這個實驗中,該團隊得出結論,
ChatGPT 確實可以將功能晶片設計為現實世界的解決方案。
==
心得:
有人說 2023年 才做出 486 有什麼好怕?
但這是在無人干涉下 讓 AI 自動迭代出來
就如同深度學習一樣 目標(準度)沒達到 再加更多迭代就好
怕了吧
User: 在 AI 極度普及的未來,有沒有可能用類似 chatGPT 的使用方式,
設計出比美現在頂極效能的 CPU?
chatGPT: 在 AI普及的未來,技術的發展可能會帶來一些突破,但是要設計出比現今頂尖效能的CPU
更加困難。ChatGPT是一種基於GPT-3.5模型的語言模型,並不是設計用於處理通用計算或執行特定任務的處理器。
現在的頂尖效能CPU(例如在超級電腦或數據中心使用的處理器)是由專業的半導體公司進行設計和製造的,他們投入了大量的時間、資源和專業知識,並且依賴於多個特殊化的設計技術和流程。這些頂級CPU的設計需要考慮到高性能運算、能耗效率、散熱管理、並且要兼容各種軟體和硬體。
AI技術的發展確實可能會對未來處理器的設計和性能產生影響。例如,將來可能會出現專為AI運算優化的處理器架構,以更好地支援AI相關任務。已經有一些類似的產品,如
Google的TPU(Tensor Processing Unit)和NVIDIA的GPU(Graphics Processing Unit),專為加速機器學習和深度學習任務而設計。這些專用的硬體設計在處理AI相關工作時通常比通用CPU更有效率。
因此,未來的處理器可能會利用AI技術和相關的硬體加速器進行優化,以提供更好的性能和效能。但是,要設計出比現在頂尖效能的CPU更加困難,因為它涉及到眾多複雜的工程和物理問題。無論如何,技術的進步和創新總是令人期待的,未來可能會帶來一些意想不到的突破和改變。
Bing: 您好,這是必應。感謝您的提問。
根據我的搜索結果,目前還沒有用類似 chatGPT 的方式設計出比現在頂級效能的 CPU 的案例。但是,有一些研究和專案正在探索 AI 在 CPU 設計中的應用和潛力。
例如,中科院計算所等機構推出了世界首個完全由 AI 設計的 CPU 晶片,不僅比目前
GPT-4 所能設計的電路規模大了 4000 倍,而且性能也達到了與 Intel 486 相當的水準1。
另外,英特爾® 至強® 可擴展處理器配備了內置的 AI 引擎,可以全面提升 AI 流水線
性能,支援從資料預處理、經典機器學習,到語言處理和圖像識別等深度學習模型。它們還利用了英特爾® 高級矩陣擴展(Intel®Advanced Matrix Extensions,英特爾® AMX
)和英特爾® 深度學習加速技術(Intel®Deep Learning Boost,英特爾® DL Boost)
等技術來加速深度學習訓練和推理2。
我認為,在 AI 極度普及的未來,使用類似 chatGPT 的方式設計 CPU 是有可能的,但也需要解決一些技術和成本的挑戰。我希望這些資訊對您有説明。如果您有其他問題,請隨時提問。
Claude: 這是一個很有趣的想法。理論上,如果AI系統具有足夠的計算能力和對半導體設計的深入
理解,它就有可能設計出比目前最高效能的CPU更強大的處理器。但是,實現這一目標還面臨著許多挑戰:
處理器設計是一項非常複雜的工程,需要對電子工程,物理和計算機架構等領域有深入的理解。目前的AI系統的知識還遠遠不能滿足這些要求。
處理器設計需要大量的創造性和直覺,需要在不同的設計選擇和取捨中作出判斷。這需要一種更加通用和靈活的人工智能,而不是像GPT這樣靠大量數據訓練的模型。
處理器的設計和驗證過程需要對真實世界的理解。例如需要考慮製造工藝,測試處理器的可靠性和性能等,這需要機器具有對實際世界更好的理解能力。
目前的AI系統都只能在軟件層面運作,實際的硬件設計和驗證還需要人類工程師的參與。要實現全自動的AI晶片設計,還需要突破AI系統與物理世界的聯繫。
所以,儘管這是一個非常有前景的方向,但要實現像GPT那樣的AI系統設計超高效能的處理器,還有很長的路要走。需要AI技術在許多方面的進步,特別是通用學習,對真實世界的理解,以及與物理系統的結合等。
--
用敵國研發的AI 研發自己的CPU
還不快設計個能飛天遁地的CPU
呃 我不懂AI也不懂設計晶片 但更多迭代就能
從486變P4變Core i?
複製 貼上
就直說吧,這次拿哪顆intel來貼牌
有沒有先把頂蓋擦乾淨
連中國人都不信
如果AI迭代速度比人類快的話..是有可能追上
chatGPT要怎麼輸出設計啊 文字輸出嗎?
但不知道會是幾百年後了
Intel的40486? 好害怕!生出了平行宇宙CPU
這就美國現在重點計畫啊,叫OpenROAD
重點在於無人為干涉生出一顆CPU
啟蒙1號後下一顆叫啟智2號
CPU設計 要頂尖就得跟晶圓製造端互相搭
配 ChatGpt應該沒辦法做3nm …
2023年做出486很厲害 尤其是
65nm/300Mhz的晶片性能只有486
這新聞到底在說三小 如果用486的製程
跟速度 這顆簡直比8051 MCU還糟糕
頂多自動產生成熟製程的IC layout,對
先進製程的推動毫無用處
AI都能自己寫程式了 設計東西也沒問題
讚 讓ai設計自己的硬體 搶著做出天網
你是中華民國還是中華人民共和國的中科
院?
感覺科幻作內AI會自我進化增殖的時代
慢慢地要成真了
但是AI的缺點也很明顯 無法有新產物
都是遵循 既有規則
老黃會不會早就這樣設計GPU了?
看看stable diffusion再跟我說一次ai
沒有創造力
alphago早就證明ai有創造力了
主要是對成熟製程的IC設計服務商有影
響
尤其是IC設計電路代工
看愣了一下 我以為時空倒轉回2003年
我有便宜、合理成本的成本可以取得
已經驗證過的成熟製程相關產品 我何
必要跟Ai對賭?
Stable Diffusion 的用戶又不用為他
產出來的圖付出什麼代價
AI自我設計的電路是不是就沒人知道怎
解BUG了?
你信嗎?我是不信
這是給第三世界的新玩家用的,可以大
幅縮短學習曲線
IC設計在地化也是趨勢了
65nm … 浪費沙子的電子垃圾
65nm我笑了
我還以為現在是2023年 這到底.... 另外486
65nm拿來proof of concept可以了啦
我是比較好奇AI自研的東西還是要使用者
效能跟製程跟本不是重點
先餵東西後去運算,這樣能弄出突破現今
cpu i皇是用1~0.6um製程製造的 用65nm只能
既有框架外的東西出來?
做出這種等級 根本比垃圾還不如欸
居然用洋人的ChatGPT設計晶片是不是乳滑
製程外 當初486工作頻率只有33 66 100
沒有原始資料怎麼生出來?
抱歉我文組 請問目前每年cpu/顯卡的
效能提升 是工藝進步還是設計啊
用chatGPT的是紐約大學的
中國不是禁GPT?
之後AI會否判斷中國不應存在
有點佩服幾位的閱讀能力
內文一直提到GPT是為了踩GPT
不是說使用chatGPT設計,後段的是
紐約大學使用chatGPT4的研究成果
太神啦!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!
中國XDD
堪比486......
這種方式能搞出的新架構不還是要有對應的
製程~這樣到底有沒辦法突破舊框架還是像
一些獵奇ai繪圖一樣搞出一堆詭異無用的架
構?
中國應該比較需要能設計出先進光刻機的ai
又是哪一顆CPU,被Remark了?
jpg
stable diffusion 也只能生出laten space內
的東西,頂多算插值演算法創造個雕
嘴砲
現在基於資料科學下機器學習的AI依然完美跟
從資料科學的garbage in garbage out原則
模型再好都不可能輸出訓練集沒有span到的se
arch space,這叫哪門子創造力
他現在能從學到的權重span的laten space裡
面抽取出用現代製程也只能跑486的IC,是因
為他的訓練集中看過更先進的設計
現代AI只能有損轉化他學過的東西,這個轉化
必定有損耗,輸出的一定比輸入劣化一截,就
算能無損也無法超越
創造力,你先做出一個系統可以只吃過劣質輸
入就能憑空或者重新安排從輸入學到的內容生
出高品質的輸出再來談創造力
AI都知道要講話要有邏輯,文章停頓要有
逗號,就你不知道。
樓上是不是在尋找阿發狗
人類也沒有無中生有的能力
不過就是收到的資訊再重組而已
需要創新?嗑個藥讓你的感官發瘋就有
靈感了
同理 喂點奇怪的東西給AI就能幫助打
破框架
性能這麼差大概是設計的bug太多拖慢運算
這些人真好賺美其名無人干涉就只需翻牆再
來個複製貼上薪水就入口袋了
抓一萬隻猴子 給他無限制的食物 關起來
十萬年 之後就會得到一部猴子的相對論
推84樓k大,現階段AI還是停留在接收指令
照樣造句,離從無到有還有很大一步,當AI
自己產生好奇心後再來討論創造或許更恰當
至少能動會動 先求有 再求好
下一代 低能一號
300MHz的32位元處理器,486的效能?
你要確定這是ai生出來的 而不是馬甲486
初代486才16MHz的樣子XD 這IPC簡直垃圾
現在AI就是餵給他A、B、C資料
然後AI學習可能從B+C做出不一樣的事
但你要他創出D全新的資料就沒辦法
65nm 應能跑1Ghz以上
生成學習並不是加法 而是找出資料背後
的機率分佈 然後一直機率模型再重新採
樣
如果你用眼睛看就能看出資料背後的機率
分佈 那當然就不需要使用生成學習了
重點是...五小時吧。只花了五個小時ㄟ..
希望繼續研發,這種需要不少資金
AI是能去蒐集市場需求生出來新指令還是設
計新ip嗎?迭代很多次就能生出新架構嗎?
AI設計cpu不就笑話嗎?
ai做的會比較便宜嗎
他是連蝕刻風險都一起計算,然後耗時5小時
嗎?
和486相當的性能 讚
紙上談芯
確定不是用磨砂機?
新聞稿AI寫的?
偉大的祖國就是不一樣