GPT4o: Ein Chatbot, der Informationen multimodal verarbeitet

22.05.2024, Text: Gunter Schüßler, Redaktion/CONEDU
Das neue Sprachmodell von OpenAI kann nicht nur auf Text-Prompts reagieren und mit Nutzer*innen sprechen, sondern das Live-Geschehen auch visuell erfassen. Im Video verraten die Digitalen Profis mehr zu den neuen Funktionen.

Bitte akzeptieren Sie Marketing Cookies um diesen externen Inhalt zu laden.

Cookie-Einstellungen anpassenYouTube
Video: GPT4o: Ein Chatbot, der Informationen multimodal verarbeitet
Video: Alle Rechte vorbehalten, Digitale Profis, auf https://www.youtube.com/@DigitaleProfis

GPT-4o ist deutlich schneller als die Vorgängerversion. Das neue Modell enthält zudem Verbesserungen der Sprachfunktion. Mit Blick auf die Barrierefreiheit kann es ein Vorteil sein, mit dem KI-Chatbot verbal zu kommunizieren. Ebenso ist es möglich, die KI zum Dolmetschen zu nutzen.

Über die Smartphone-Kamera kann GPT-4o die Umgebung live erfassen und darauf Bezug nehmen. Open AI hat diese Funktion mit verschiedenen Beispielen demonstriert, die weiter unten verlinkt sind.

In der kostenlosen Version steht Nutzer*innen GPT-4o in einem beschränkten Umfang zur Verfügung, ebenso die Möglichkeit, Dateien hochzuladen oder etwa Custom GPTs zu nutzen.

Weitere Informationen:
Creative Commons License Dieser Text ist unter CC BY 4.0 International lizenziert.

Verwandte Artikel