Genug von deutscher Politik? 🌍😤 Dann bist du hier richtig! Die heißesten Krypto-News mit einer Prise Spaß und Sarkasmus. 🚀😎

👉Klick "Beitreten" und sei dabei!


Als erfahrener Forscher mit einer tiefen Faszination für künstliche Intelligenz bin ich von Nvidias neuester Kreation, Llama-3.1-Nemotron-70B-Instruct, fasziniert. Nachdem ich unzählige Stunden damit verbracht habe, über KI-Modelle und ihre Fähigkeiten zu grübeln, kann ich getrost sagen, dass diese Ankündigung meine Neugier geweckt hat.

Am 15. Oktober stellte Nvidia beiläufig ein innovatives Modell der künstlichen Intelligenz vor; Es wird behauptet, dass dieses neue Modell aktuelle Spitzen-KI-Systeme wie GPT-4o und Claude-3 in der Leistung übertrifft.

Basierend auf einem Beitrag, den das Nvidia AI Developer-Team auf seiner Social-Media-Plattform X.com geteilt hat, heißt es, dass das Modell Llama-3.1-Nemotron-70B-Instruct derzeit eines der Top-Modelle in der Chatbot-Arena von lmarena.AI ist.

Nvidias neues Open-Source-KI-Modell übertrifft GPT-4o bei Benchmarks

Nemotron

Im Wesentlichen ist Llama-3.1-Nemotron-70B-Instruct eine überarbeitete Adaption des Open-Source-Llama-3.1-70B-Instruct. Das „Nemotron“ im Namen weist auf Nvidias Beteiligung am Endprodukt hin.

Metas Sammlung von „Lama-Gruppen“ dient Programmierern als kostenloser Ausgangspunkt und ermöglicht es ihnen, die Modelle zu konstruieren und zu erweitern.

Wenn es um Nemotron geht, hat Nvidia beschlossen, einen Schritt weiter zu gehen und ein System zu entwickeln, das bekannte Modelle wie ChatGPT von OpenAI und Claude-3 von Anthropic in seiner Leistung übertreffen soll.

Nvidia verwandelte Metas Standard-KI-Modell in eines der „hilfreichsten“ Modelle weltweit, indem es benutzerdefinierte Datensätze, verfeinerte Feinabstimmungstechniken und seine hochmoderne KI-Hardware einsetzte.

Nvidias neues Open-Source-KI-Modell übertrifft GPT-4o bei Benchmarks

„Ich habe ihm ein paar Programmierfragen gestellt, die ich normalerweise stelle, um LLMs zu vergleichen, und habe hier einige der besten Antworten erhalten. lol, heilige Scheiße.“

Benchmarking

Wenn es darum geht, zu bestimmen, welches KI-Modell „das beste“ ist, gibt es keine eindeutige Methodik. Anders als beispielsweise bei der Messung der Umgebungstemperatur mit einem Quecksilberthermometer gibt es keine einzige „Wahrheit“, wenn es um die Leistung von KI-Modellen geht. 

Als Analyst halte ich es für entscheidend, die Leistung von KI-Modellen auf eine Weise zu bewerten, die mit der menschlichen Bewertung vergleichbar ist. Um dies zu erreichen, wende ich vergleichende Testmethoden an.

Als Forscher auf dem Gebiet der künstlichen Intelligenz beschäftige ich mich mit dem Benchmarking von KI-Modellen. Bei diesem Prozess werden mehreren KI-Modellen identische Abfragen, Aufgaben oder Probleme präsentiert und anschließend die Wirksamkeit ihrer Antworten durch Vergleich bewertet. Da die Bestimmung, was ein nützliches Ergebnis darstellt, subjektiv sein kann, werden in der Regel menschliche Gutachter eingesetzt, um die Leistung jeder Maschine blind zu beurteilen.

Es scheint, dass Nvidia andeutet, dass die Leistung ihres neuen Modells Modelle wie GPT-4o und Claude-3, die derzeit in diesem Bereich führend sind, deutlich übertrifft.

Nvidias neues Open-Source-KI-Modell übertrifft GPT-4o bei Benchmarks

Das Bild zeigt Ranglisten für den „Schwierigen“ Test innerhalb der Chatbot Arena Leaderboards, in denen Nvidias Llama-3.1-Nemotron-70B-Instruct nicht explizit angezeigt wird. Wenn jedoch die Behauptung der Entwickler zutrifft, dass es bei diesem Test eine Punktzahl von 85 erreicht hat, dann wäre es standardmäßig das führende Modell in dieser speziellen Kategorie.

Die Faszination dieser Leistung könnte durch die Tatsache verstärkt werden, dass es sich bei Llama-3.1-70B um ein von Meta entwickeltes Open-Source-KI-Modell der Mittelklasse handelt. Es gibt eine deutlich größere Variante von Llama-3.1, die 405B-Version, die mithilfe einer größeren Anzahl von Parametern (insbesondere etwa 405 Milliarden) verfeinert wurde.

Im Vergleich dazu wurde GPT-4o schätzungsweise mit über einer Billion Parametern entwickelt.

Weiterlesen

2024-10-17 20:21