Jack Ma's fintech-företag har utnyttjat hemmagjorda chips från Alibaba och Huawei för att träna AI-modeller som verkar konkurrera med Nvidias H800 GPU: er.
Enligt personer med kännedom om ärendet har Ant Group räknat ut ett sätt att träna AI-modeller på kinesisktillverkade halvledare, vilket sänker kostnaderna med cirka 20 procent jämfört med konventionella metoder.
Insiders säger att Ant's resultat står sig väl mot Nvidia Corp.s H800-chips, som för närvarande inte är tillgängliga för kinesiska företag på grund av Amerikanska exportkontroller. Även om Ant fortfarande använder Nvidia-hårdvara för en del av sitt AI-arbete, lägger företaget nu enligt uppgift mer tonvikt på AMD-processorer och kinesiska alternativ för sina senaste modeller.
Ant publicerade ett forskningsdokument den här månaden och hävdade att dess Ling-Plus- och Ling-Lite-modeller till och med slog ut Meta Platforms Inc. i vissa riktmärken. Om dessa resultat håller upp kan dessa system representera ett stort steg framåt för kinesisk AI genom att drastiskt minska kostnaderna för utbildning och utrullning av AI-tjänster.
Papperet noterar att användning av högpresterande hårdvara för att träna 1 biljon tokens kostar ungefär 6.35 miljoner yuan (cirka 880,000 XNUMX dollar). Men med företagets optimerade tillvägagångssätt - och utrustning med lägre specifikationer - sjunker siffran till cirka 5.1 miljoner yuan (cirka 700,000 XNUMX dollar). För de som inte känner till är tokens i huvudsak de informationsenheter som används av dessa modeller för att lära sig och producera utgångar.
Framöver avser Ant att använda dessa AI-modeller för hälso- och finansapplikationer. Tidigare i år förvärvade företaget den kinesiska onlineplattformen Haodf.com för att stärka sina AI-tjänster med fokus på hälso- och sjukvård. Ant driver också en AI-app för "livsassistent" som heter Zhixiaobao och ett AI-verktyg för finansiell rådgivning som heter Maxiaocai.
Båda Ling-modellerna är öppen källkod: Ling-Lite har 16,8 miljarder parametrar, medan Ling-Plus väger in 290 miljarder. Även om det är rejäla siffror är de fortfarande mindre än några andra stora AI-modeller - experter uppskattar att GPT-4.5 sitter på cirka 1,8 biljoner parametrar och DeepSeek-R1 klockar in på 671 miljarder.
Ant erkände några stötar på vägen, särskilt när det gäller stabilitet under träning. Forskningsdokumentet noterade att små förändringar i hårdvara eller modelldesign ibland utlöste stora spikar i felfrekvenser.
Källa(n)
Bloomberg (på engelska)
Topp 10...
» Topp 10: Bästa bärbara allround/multimediadatorerna
» Topp 10: Bästa bärbara speldatorerna
» Topp 10: Bärbara budget/kontorsdatorer
» Topp 10: Bästa bärbara kontors/premiumdatorerna
» Topp 10: Bärbara arbetsstationer
» Topp 10: De bästa små/kompakta bärbara datorerna
» Topp 10: Bästa ultrabooks
» Topp 10: Bästa hybriddatorerna
» Topp 10: Bästa surfplattorna
» Topp 10: Marknadens bästa smartphones