Samsung’s AI-onderzoeker introduceert nieuw, open redeneermodel TRM dat beter presteert
De trend waarbij AI-onderzoekers nieuwe open-source generatieve modellen ontwikkelen die beter presteren dan veel grotere, propriëtaire modellen, zette zich deze week voort met weer een spectaculaire doorbraak.
Alexia Jolicoeur-Martineau, senior AI-onderzoeker bij Samsung’s Advanced Institute of Technology (SAIT) in Montréal, Canada, heeft het Tiny Recursion Model (TRM) gepresenteerd — een neuraal netwerk dat slechts 7 miljoen parameters bevat, en toch concurreert met of beter is dan toonaangevende taalmodellen die 10.000× zoveel parameters hebben, zoals OpenAI’s o3-mini en Google’s Gemini 2.5 Pro, op een aantal van de moeilijkste redeneer-benchmarks in AI-onderzoek.
Het doel is aan te tonen dat zeer krachtige nieuwe AI-modellen betaalbaar kunnen worden gemaakt, zonder de enorme investeringen in GPU’s en energie die nodig zijn om de (multi-biljoenen parameter) grootschalige modellen te trainen die vandaag de dag veel LLM-chatbots aandrijven. De resultaten zijn beschreven in een onderzoeksartikel gepubliceerd op de open toegangssite arXiv, getiteld “Less is More: Recursive Reasoning with Tiny Networks.”
“Het idee dat je moet vertrouwen op enorme fundamentele modellen, getraind voor miljoenen dollars door een groot bedrijf, om moeilijke taken op te lossen, is een val,” schreef Jolicoeur-Martineau op het sociale netwerk X. “Op dit moment is er te veel focus op het exploiteren van LLM’s in plaats van het bedenken en uitbreiden van nieuwe richtingen.”
“Met recursief redeneren blijkt dat ‘minder meer is’. Een klein model, vanaf nul voorgetraind, dat recursief op zichzelf opereert en zijn antwoorden in de loop van tijd bijwerkt, kan veel bereiken zonder de bank te breken.”
De code van TRM is nu beschikbaar op GitHub onder een MIT-licentie die ook geschikt is voor commercieel gebruik — dat betekent dat onderzoekers én bedrijven het kunnen nemen, aanpassen en inzetten voor hun eigen doeleinden.