MIT博士肖光烜近日在社交平臺(tái)宣布完成學(xué)業(yè),即將加入由OpenAI前CTO創(chuàng)立的初創(chuàng)公司Thinking Machines,專注大模型預(yù)訓(xùn)練領(lǐng)域。這一消息引發(fā)科技圈關(guān)注,英偉達(dá)科學(xué)家、xAI研究員及UCSD學(xué)者等業(yè)內(nèi)人士紛紛在評(píng)論區(qū)送上祝賀。
翻開肖光烜的履歷,其學(xué)術(shù)背景堪稱亮眼。本科階段就讀于清華大學(xué)計(jì)算機(jī)系,同時(shí)輔修金融學(xué)并獲得雙學(xué)位,期間斬獲國家獎(jiǎng)學(xué)金、全國大學(xué)生數(shù)學(xué)建模競賽一等獎(jiǎng)等十余項(xiàng)榮譽(yù)。2020年至2021年,他以訪問學(xué)者身份赴斯坦福大學(xué)開展研究,2022年進(jìn)入MIT攻讀博士學(xué)位,師從韓松教授,研究方向聚焦深度學(xué)習(xí)的高效算法與系統(tǒng)。
在MIT期間,肖光烜展現(xiàn)出極強(qiáng)的工程實(shí)踐能力。2024年初,他在英偉達(dá)實(shí)習(xí)期間提出的DuoAttention技術(shù),通過結(jié)合檢索與流式注意力頭,成功解決長上下文大語言模型的推理加速問題。此后參與的XAttention項(xiàng)目,利用反對(duì)角評(píng)分機(jī)制實(shí)現(xiàn)塊稀疏注意力優(yōu)化;StreamingVLM模型則突破視頻流處理時(shí)長限制,可實(shí)時(shí)分析數(shù)小時(shí)長視頻內(nèi)容。這些成果均體現(xiàn)其從理論到落地的完整技術(shù)閉環(huán)能力。
其博士論文《Efficient Algorithms and Systems for Large Language Models》更被視為行業(yè)里程碑。針對(duì)大模型顯存爆炸、推理遲緩等痛點(diǎn),論文提出SmoothQuant量化技術(shù),首次實(shí)現(xiàn)十億級(jí)模型W8A8無損壓縮;StreamingLLM架構(gòu)通過"注意力匯點(diǎn)"機(jī)制,將模型上下文處理能力從數(shù)千token提升至百萬級(jí)。更值得關(guān)注的是,團(tuán)隊(duì)通過信噪比分析證明"塊越小越好"的理論極限,并開發(fā)FlashMoBA內(nèi)核使小塊架構(gòu)在實(shí)際應(yīng)用中提速9倍,為AGI發(fā)展開辟新路徑。
科技行業(yè)薪酬數(shù)據(jù)印證了這場(chǎng)人才爭奪戰(zhàn)的激烈程度。據(jù)Business Insider獲取的2025年一季度招聘記錄顯示,Thinking Machines為技術(shù)員工開出平均46.25萬美元年薪,其中基礎(chǔ)薪資最高達(dá)50萬美元。這一水平不僅遠(yuǎn)超OpenAI技術(shù)團(tuán)隊(duì)29.2萬美元的平均年薪,也高于Anthropic的38.75萬美元。盡管與meta某些高管超億元薪酬仍有差距,但在初創(chuàng)公司中已屬頂尖水準(zhǔn)。









