Fokozódik a verseny, olcsóbb csúcsmodell az OpenAI-tól
Az OpenAI közkinccsé tette az o1 modellek utódát, a gyorsabb, kevésbé drága, kódolásban, matematikában és tudományokban különösen jól teljesítő o3-minit. A nagy nyelvmodell (LLM) választható alacsony, közepes és magasszintű érvelési „erőfeszítést” kínál.
Mit jelent ez a valóságban? A szintek progresszíven több érvelési tokent kínálnak gondolatlánc (Chain-of-Thought, CoT) generálására, ami persze több időt és magasabb költséget is jelent. A modell a ChatGPT Plus, a Team és a Pro előfizetői számára, valamint az API (alkalmazásprogramozói felület) felhasználói körében érhető el. Regisztrált felhasználók az ingyenes ChatGPT szolgáltatáson keresztül, az „érvelés”-t választva tesztelhetik.
Az o3-mini gyakorló adatkészletének összeállítói a tudományos és technológiai területen történő problémamegoldásra fektették a hangsúlyt, a modellt megerősítéses tanulással finomhangolták gondolatlánc-adatokon. Az o1 családhoz hasonlóan, díjat számít fel az érvelési műveletek során feldolgozott tokenekért, amelyeket elrejt a felhasználó elől. A rivális érvelő modellek, mint például a DeepSeek R-1, a Gemini 2.0 Flash Thinking és a QwQ-32B-Preview elérhetővé teszik ezeket a tokeneket.
Az o3-mini maximális inputja 200 ezer, maximális outputja százezer token, ismeretbázisát viszont 2023 októberével lezárták.
A felhasználók dicsérik a gyorsaságát, érvelését és kódolási képességeit. Megállapították, hogy a sok kontextusos, „tömbszerűbb” promptokra jobban reagál. Kisebb mérete miatt azonban nem rendelkezik a való világ átfogó ismeretével, és tények felidézésével is problémái vannak.
Nem sokkal az o3-mini közkinccsé tételét követően az OpenAI bemutatta a „mélykutató” ágenst (deep research), az o3-on alapuló ChatGPT kutatóágenst. Magát az o3 családot decemberben, a CoT-megközelítés újabb evolúciós állomásaként jelentették be. A mostani közkinccsé tétel kicsit úgy tűnik, mintha a kínai DeepSeek R-1-ére igyekeztek volna gyorsan reagálni, de az OpenAI hangsúlyozza: minden az ütemezés alapján megy. Egy biztos: tovább bővítették, finomították az o1 család érvelő-technológiáját, amellyel más fejlesztőknek is felállították az új mércét. Újabb alkalmazások várhatók, az MI egyre inkább szakmai partnerként, nem pedig intelligens gyakornokként fog működni.
Minél több felhasználó tanulja meg, hogyan promptoljon érvelő modelleket, annál jobb lesz az eredmény.
0 Hozzászólás:
Legyél te az első hozzászóló!
Hozzászólás írásához be kell jelentkezni: