OpenAI lanceert krachtig maar duur AI-model

OpenAI lanceert krachtig maar duur AI-model
OpenAI heeft een krachtigere versie van zijn o1 “redenerende” AI-model gelanceerd, o1-pro, in de developer API. Volgens OpenAI gebruikt o1-pro meer rekenkracht dan o1 om “consistent betere antwoorden” te bieden. Momenteel is het alleen beschikbaar voor geselecteerde ontwikkelaars — degenen die minstens $5 hebben uitgegeven aan OpenAI API-diensten — en het is duur:
It uses more compute than o1 to provide consistently better responses. Available to select developers on tiers 1–5. Supports vision, function calling, Structured Outputs, and works with the Responses and Batch APIs. With more compute, comes more cost: $150 / 1M input tokens and $600 / 1M output tokens.
OpenAI rekent 150 per miljoen USD tokens (~750.000 woorden) die in het model worden ingevoerd en $600 per miljoen tokens die door het model worden gegenereerd. Dit is twee keer zo duur als de prijs van OpenAI’s GPT-4.5 voor invoer en 10 keer zo duur als de reguliere o1.
OpenAI gokt erop dat de verbeterde prestaties van o1-pro ontwikkelaars zullen overtuigen om deze hoge prijzen te betalen.
“O1-pro in de API is een versie van o1 die meer rekenkracht gebruikt om harder na te denken en nog betere antwoorden te geven op de moeilijkste problemen,” vertelde een woordvoerder van OpenAI aan TechCrunch. “Na veel verzoeken uit onze ontwikkelaarsgemeenschap, zijn we enthousiast om het aan de API toe te voegen om nog betrouwbaardere antwoorden te bieden.”
Toch waren de eerste indrukken van o1-pro, dat sinds december beschikbaar is op het AI-aangedreven chatbotplatform ChatGPT voor ChatGPT Pro-abonnees, niet enorm positief. Het model had moeite met Sudoku-puzzels, ontdekten gebruikers, en werd verward door eenvoudige optische illusiegrappen.
Bovendien toonden bepaalde interne benchmarks van OpenAI eind vorig jaar aan dat o1-pro slechts een klein beetje beter presteerde dan de standaard o1 bij codeer- en wiskundeproblemen. Het antwoordde deze problemen wel betrouwbaarder, vonden de benchmarks.