軟件開發(fā)是大模型落地最快的應(yīng)用場景之一,但現(xiàn)有模型主要基于靜態(tài)代碼數(shù)據(jù)進行訓(xùn)練,缺乏對軟件開發(fā)過程中動態(tài)交互、工具使用、迭代問題解決和演化特性的深入理解,影響了其在真實場景中的實用性。

據(jù)介紹,通義靈碼SWE-GPT基座模型為通義千問Qwen2.5,在后訓(xùn)練階段進一步模擬人類程序員的認知過程,學(xué)習(xí)軟件工程領(lǐng)域復(fù)雜問題的端到端多步驟解決過程。同時,團隊創(chuàng)新性采用合成數(shù)據(jù)進行迭代模型訓(xùn)練,通過模擬真實軟件開發(fā)中的動態(tài)交互與迭代問題解決過程(如代碼庫理解、故障定位和補丁生成),有效解決現(xiàn)有基礎(chǔ)大模型的局限性。

在模型訓(xùn)練階段,為了增強訓(xùn)練過程的魯棒性,通義靈碼團隊還采用了課程學(xué)習(xí)的方法,隨著迭代的進行,逐步加入當(dāng)前模型未能解決的問題,循序漸進提高訓(xùn)練樣本的復(fù)雜度,確保模型鞏固基礎(chǔ)能力。

此前的實驗結(jié)果顯示,在權(quán)威基準(zhǔn)SWE-bench-Verified(500項真實GitHub任務(wù))測試中, SWE-GPT 72B以 30.20%問題解決率刷新開源紀(jì)錄,較Llama 3.1 405B提升22.76%,接近同時期閉源模型GPT-4o的效果。不僅如此,輕量級SWE-GPT 7B模型以 18.20%的解決率超越Llama 3.1 70B(17.20%),展現(xiàn)了小尺寸模型在復(fù)雜軟件維護任務(wù)中的實用價值。

更重要的是,SWE-GPT是一個通用框架,可以進行持續(xù)拓展,比如以其為基礎(chǔ)引入思考能力和測試時擴展(test-time scaling),小尺寸(32B)模型在SWE-bench-Verified上可以達到46%的問題解決率,接近業(yè)界領(lǐng)先的閉源模型 Claude 3.5 Sonnet v2 (46.20%) 和 OpenAI o1 (45.60%) 。

ISSTA評審委員會專家點評稱:“ SWE-GPT是一種新穎的以「軟件開發(fā)流程為中心」的大語言模型,它提出的數(shù)據(jù)合成方案真實模擬了實際軟件開發(fā)過程,這是AI輔助軟件開發(fā)領(lǐng)域前進的重要一步?!?/p>

通義靈碼算法負責(zé)人李永彬表示:“基于大模型的軟件工程智能化領(lǐng)域的研究和應(yīng)用正在快速發(fā)展,僅靠現(xiàn)有基礎(chǔ)模型仍無法滿足真實場景的需求,SWE-GPT為AI 輔助軟件開發(fā)提出了新范式?!?/p>

ISSTA是軟件工程領(lǐng)域最具影響力的學(xué)術(shù)會議之一,該會議匯聚了學(xué)術(shù)界和工業(yè)界在軟件測試、程序分析、代碼質(zhì)量保障等技術(shù)的前沿研究與應(yīng)用。本屆ISSTA共收到550篇投稿,最終錄用107篇,其中僅有9篇被評為杰出論文。

分享到

xiesc

相關(guān)推薦