OpenAIs neue künstliche Intelligenz „GPT-4o“: Kann Emotionen aus Gesichtsausdrücken lesen und führt eine Simultanübersetzung durch

0 49

OpenAI, der Entwickler von ChatGPT, kündigte sein neues künstliches Intelligenzmodell „GPT-4o“ an, das Echtzeit-Schlussfolgerungen über Sprache, Bild und Text durchführen kann.

OpenAI, der Entwickler des künstlichen Intelligenz-Chatbots ChatGPT, bringt sein neues Modell „GPT-4o“ auf den Markt.

In der Stellungnahme von OpenAI heißt es, dass GPT-4o ein Schritt hin zu einer natürlicheren Mensch-Computer-Interaktion sei; Es wurde berichtet, dass das Modell aus Eingaben eine Ausgabe erzeugt, die aus einer zufälligen Kombination von Text, Ton und Szenerie besteht.

In der Erklärung wurde darauf hingewiesen, dass die Reaktionszeit des Modells auf Spracheingaben der menschlichen Reaktionszeit in einem zufälligen Gespräch ähnelt, und es wurde betont, dass GPT-4o insbesondere in Bezug auf Szenerie und Klangbedeutung ausreichender ist , im Vergleich zu bestehenden Modellen.

Es wurde angegeben, dass ein einzelnes neues Modell mit GPT-4o durchgängig über Text, Szenerie und Ton hinweg trainiert wurde und dass das neue Modell das erste Modell war, bei dem alle Ein- und Ausgaben vom selben Grenznetzwerk verarbeitet wurden.

Es wurde auch berichtet, dass eine neue ChatGPT-Desktopanwendung für das Mac-Betriebssystem, die für die Integration in Computerprozesse konzipiert ist, sowohl für kostenlose als auch für kostenpflichtige Benutzer verfügbar gemacht wurde.

Andererseits wurde bei der heutigen Werbeveranstaltung von OpenAI darauf hingewiesen, dass das Modell kostenlos angeboten wird, da es im Vergleich zu Vorgängermodellen kostengünstiger ist und preislich GPT-4o-Nutzern mehr Kapazität zur Verfügung steht.

Es wurde angegeben, dass das neue Modell in einigen Wochen auf ChatGPT verfügbar sein wird.

Das Unternehmen veröffentlichte außerdem eine Reihe von Bildern, die die Funktionen von GPT-4o vorstellen.

T24

Hinterlasse eine Antwort

Deine Email-Adresse wird nicht veröffentlicht.