Genug von deutscher Politik? 🌍😤 Dann bist du hier richtig! Die heißesten Krypto-News mit einer Prise Spaß und Sarkasmus. 🚀😎

👉Klick "Beitreten" und sei dabei!


Als erfahrener Krypto-Investor und Technologie-Enthusiast muss ich zugeben, dass mich die jüngste Ankündigung von OpenAI zu ihrem neuesten KI-Modell, GPT-4o, völlig fasziniert hat. Die Fähigkeit eines KI-Modells, Text-, Audio- und Bildeingaben in Echtzeit zu verarbeiten, ist wirklich bahnbrechend.


OpenAI, die Entwickler von ChatGPT, haben ihr neuestes Modell für künstliche Intelligenz (KI) mit dem Namen GPT-4o vorgestellt. Diese fortschrittliche KI ist darauf ausgelegt, mehr Gespräche zu führen und menschliche Interaktionen genauer nachzuahmen. Darüber hinaus ist es mit der Fähigkeit ausgestattet, Audio- und Videoeingaben der Benutzer in Echtzeit zu verarbeiten und darauf zu reagieren.

GPT-4 Omni, das durch eine Reihe von Veröffentlichungen des Unternehmens demonstriert wird, unterstützt potenzielle Benutzer auf verschiedene Weise. Es hilft beispielsweise bei der Vorbereitung auf Vorstellungsgespräche, indem es sicherstellt, dass die Benutzer elegant und bereit für ihre Vorstellungsgespräche wirken. Darüber hinaus erleichtert es die Kontaktaufnahme mit dem Kundensupport, um sich einen neuen iPhone-Ersatz zu sichern.

In verschiedenen Demonstrationen wurde gezeigt, dass ChatGPT in der Lage ist, väterfreundliche Wortspiele auszutauschen, zweisprachige Dialoge in realen Situationen sofort zu übersetzen, als unparteiischer Schiedsrichter für Stein-Schere-Papier-Spiele zwischen zwei Benutzern zu fungieren und bei Provokation Sarkasmus einzusetzen. Darüber hinaus wurde in einer Ausstellung erstmals die Interaktion zwischen ChatGPT und dem neuen Welpen eines Benutzers präsentiert.

„Hallo, Bowser! Bist du nicht einfach das bezauberndste kleine Ding?“ rief der Chatbot.

Hallo, ich freue mich, Ihnen GPT-40 vorzustellen, unser neuestes fortschrittliches Modell. Als Analyst freue ich mich, Ihnen mitteilen zu können, dass unser neues Flaggschiff in der Lage ist, Informationen aus Audio, Bild und Text gleichzeitig in Echtzeit zu verarbeiten. Ab heute sind Text- und Bildeingaben über unsere API und ChatGPT verfügbar. In naher Zukunft werden auch Sprach- und Videofunktionen für ein umfassenderes Benutzererlebnis integriert.

– OpenAI (@OpenAI) 13. Mai 2024

Als Krypto-Investor bin ich beeindruckt, wenn ich fortschrittliche KI-Technologie verwende. Es ist, als wäre ich in einen Science-Fiction-Film eingetreten – die Fähigkeiten dieser Technologie sind immer noch kaum zu glauben, obwohl sie greifbare Realität ist. Dies brachte Sam Altman, der CEO, in seinem Blogbeitrag vom 13. Mai eloquent zum Ausdruck.

„Es stellt sich als große Veränderung heraus, Reaktionszeiten und Ausdruckskraft auf menschlicher Ebene zu erreichen.“

Am 13. Mai führte OpenAI eine reine Text- und Bildvariante ein. Die Veröffentlichung der vollständigen Ausgabe sei in naher Zukunft geplant, fügten sie kürzlich in einem Beitrag auf X hinzu.

Als Forscher, der fortgeschrittene Modelle der künstlichen Intelligenz untersucht, kann ich Ihnen sagen, dass GPT-40 voraussichtlich für alle ChatGPT-Benutzer zugänglich sein wird, auch für diejenigen mit kostenlosen Konten. Diese Zugänglichkeit wird durch die Anwendungsprogrammierschnittstelle (API) von ChatGPT erleichtert.

Ich habe von OpenAI erfahren, dass das „o“ in GPT-4o für den Begriff „Omni“ steht und einen Fortschritt hin zu organischeren und naturgetreueren Mensch-Computer-Schnittstellen bedeutet.

Lernen Sie GPT-40 kennen, unsere neueste Innovation, die in der Lage ist, Text-, Audio- und Videoeingaben in Echtzeit für erweitertes Denken zu verarbeiten. Seine Vielseitigkeit macht es spannend, es zu erkunden, und stellt einen Fortschritt hin zu lebensechteren Mensch-KI- und sogar KI-KI-Interaktionen dar.

– Greg Brockman (@gdb), 13. Mai 2024

Die Fähigkeit von GPT-4, Text-, Audio- und Bildeingaben gleichzeitig zu verarbeiten, stellt einen erheblichen Fortschritt im Vergleich zu den früheren OpenAI-Tools wie ChatGPT-4 dar. Vereinfacht ausgedrückt: Während ChatGPT-4 möglicherweise Probleme mit der Bewältigung mehrerer Aufgaben hat und dabei wertvolle Informationen verliert, ist GPT-4 in der Lage, alle drei Arten von Eingaben gleichzeitig zu verwalten.

Als Forscher, der sich mit fortgeschrittenen Sprachmodellen befasst, kann ich mitteilen, dass OpenAI angeblich die Überlegenheit von GPT-4 im Bereich des Bild- und Audioverständnisses im Vergleich zu Vorgängermodellen behauptet. Diese Verbesserung geht über die reine Texteingabe hinaus und ermöglicht die Identifizierung von Benutzeremotionen und sogar subtiler Hinweise wie Atemmuster.

Es ist außerdem „viel schneller“ und „50 % günstiger“ als GPT-4 Turbo in der OpenAI-API.

Laut OpenAI ist die neueste KI-Technologie in der Lage, Audiobefehle im Durchschnitt in nur 2,3 Sekunden zu verarbeiten, und diese Reaktionszeit beträgt typischerweise etwa 3,2 Sekunden – eine Geschwindigkeit, die mit normaler menschlicher Konversation vergleichbar ist.

Weiterlesen

2024-05-14 03:40