ChatGPT wird immer vielfältiger und funktionaler. Seit einiger Zeit kann der KI-Bot von OpenAI Textantworten vorlesen, User können das Tool jetzt auch ohne Login nutzen und die Bildbearbeitung per Prompt via DALL-E wurde ebenfalls ermöglicht. Jetzt rollt das AI-Unternehmen den Support von ChatGPT mit dem verbesserten Modell GPT-4 Turbo aus. GPT-4 Turbo ist beispielsweise auch bei Microsofts AI Assistant Copilot als Modell integriert. Die jüngste Version des Modells liefert aber noch mehr Möglichkeiten, die Entwickler:innen in der API schon umfassend nutzen können. Dabei geht es um sogenannte Vision Requests, die ganz neue Multimodalitätsfunktionen ermöglichen.

Majorly improved GPT-4 Turbo model available now in the API and rolling out in ChatGPT. https://t.co/HMihypFusV

— OpenAI (@OpenAI) April 9, 2024

OpenAIs Modell-Update für GPT-4 Turbo

Auf X schreibt OpenAI von einem außerordentlich optimierten Modell, das für ChatGPT und die API bereitgestellt wird. Im Website-Bereich zu den Modell-Updates ist zu lesen, dass GPT-4 Turbo jetzt visuelle Fähigkeiten mitbringt, die über JSON und das sogenannte Function Calling als Vision Request integriert werden können. Was das in der Praxis bedeutet, zeigen verschiedene Entwickler:innen. So hat beispielsweise Healthify eine Applikation namens Snap mit GPT-4 Turbo samt Vision-Modus erstellt, die Nutzer:innen Ernährungs-Insights auf Basis von Food Visuals liefert.

The @healthifyme team built Snap using GPT-4 Turbo with Vision to give users nutrition insights through photo recognition of foods from around the world. pic.twitter.com/jWFLuBgEoA

— OpenAI Developers (@OpenAIDevs) April 9, 2024

Das ist aber nur eine Einsatzoption und OpenAI liefert auf X weitere Beispiele. Das Kontextfenster für GPT-4 Turbo liegt im Bereich von 128.000 Token. Die Nutzung des Modells mit seinen optimierten Fähigkeiten bei ChatGPT dürfte dazu beitragen, dass zahlende User fortan noch besser multimodale Anforderungen mithilfe des Tools stellen und entsprechende Ergebnisse erwarten können.

Derweil muss sich OpenAI jedoch Kritik an der eigenen KI-Modellentwicklung stellen. Es ist nicht ganz klar, welche Grundlagendaten dafür verwendet wurden und das Unternehmen soll etwa für Sora auch öffentliche YouTube-Videos genutzt haben. Das würde allerdings gegen YouTube-Richtlinien verstoßen. Für mehr Klarheit könnte in solchen Fällen künftig der AI Act sorgen – in der EU.

OpenAI lässt mehr Finetuning zu und erweitert das Custom Model Program

© Mariia Shalabaieva – Unsplash

Neuigkeiten

Leave a Reply

Your email address will not be published. Required fields are marked *