Az OpenAI bemutatja a GPT-4 Turbót és a GPT-4 finomhangoló programját

Az OpenAI első fejlesztői konferenciáján bemutatta a GPT-4 Turbo-t, amely az OpenAI zászlóshajó szöveggeneráló AI modelljének, a GPT-4-nek az új és javított változata. Az OpenAI szerint a GPT-4 Turbo mind “erősebb”, mind pedig “olcsóbb” a korábbi változatnál. A GPT-4 Turbo két verzióban érhető el: az egyik csak a szövegelemzésre korlátozódik, míg a másik a szöveg és a képek kontextusát is képes értelmezni. Az előbbi verzió már elérhető előzetes verzióban az API-n keresztül, míg mindkét verzió általánosan elérhetővé válik “a következő hetekben” – ígéri az OpenAI.

Az árak $0,01-től indulnak, és 1000 bemeneti tokenre (~750 szó) vonatkoznak, ahol a “tokenek” a nyers szöveg darabjait jelentik – például a “fantasztikus” szó felosztva “fan”, “tas” és “tic” részekre. Az árak a kimeneti tokenekre is vonatkoznak, amelyeket a modell a bemeneti tokenek alapján generál. Az árak a képfeldolgozó GPT-4 Turbo esetében a képmérettől függenek. Például egy 1080×1080 kép átadása a GPT-4 Turbo-nak $0,00765-be kerül – állítja az OpenAI.

“A teljesítmény optimalizálása érdekében a GPT-4 Turbo-t 3-szor olcsóbban kínáljuk az input tokenekre és 2-szer olcsóbban az output tokenekre vonatkozóan, mint a GPT-4 esetében” – írja az OpenAI a TechCrunch-nal megosztott blogbejegyzésében.

A GPT-4 Turbo több javulást is felvonultat a GPT-4-hez képest – egyikük a kérésre adott válaszokhoz használt tudásbázis frissítése.

Mint minden nyelvi modell, a GPT-4 Turbo is lényegében egy statisztikai eszköz a szavak előrejelzéséhez. Az interneten található példák hatalmas számát felhasználva a GPT-4 Turbo megtanulta, hogy milyen valószínűséggel fordulnak elő a szavak a környező szöveg mintázatai alapján, beleértve a szemantikai kontextust is. Például egy tipikus e-mail végén a “Várom a válaszát…” szövegrészlettel a GPT-4 Turbo “…hogy visszahalljam” -mal egészítheti ki.

A GPT-4-t az interneten található adatokkal 2021 szeptemberéig tanították, de a GPT-4 Turbo tudása csak 2023 áprilisáig terjed. Ez azt jelenti, hogy a legutóbbi eseményekkel kapcsolatos kérdések – legalábbis az új vágási időpont előtti események – pontosabb válaszokat eredményeznek.

Az OpenAI GPT-4 Turbo-nek hatalmas kontextusablaka van, ami 128 000 tokenből áll – ez négyszerese a GPT-4-nek és a legnagyobb kontextusablak bármely kereskedelmi modellnek. Ez körülbelül 100 000 szó vagy 300 oldalnyi szövegnek felel meg, ami például a “Wuthering Heights”, a “Gulliver’s Travels” és a “Harry Potter és az Azkabani fogoly” hosszával vetekszik. És az OpenAI azt is mondja, hogy az új “JSON mód” hasznos a webalkalmazásokban, amelyek adatokat továbbítanak, például azokban, amelyek adatokat küldenek a szerverről a kliensnek, hogy megjeleníthessék azokat egy weboldalon. A GPT-4 Turbo más új paraméterei lehetővé teszik a fejlesztők számára, hogy a modell “következetes” befejezéseket adjon vissza több időt, és – a szűkebb alkalmazásokhoz – naplózza a GPT-4 Turbo által generált legvalószínűbb kimeneti tokenek valószínűségeit.

Similar Posts

Vélemény, hozzászólás?

Az e-mail címet nem tesszük közzé. A kötelező mezőket * karakterrel jelöltük