10.11.2024
Technologie

NEAR startet ehrgeiziges Projekt für das größte Open-Source-KI-Modell der Welt

Das NEAR Protocol plant den Bau eines Open-Source-KI-Modells mit 1,4 Billionen Parametern, dem größten seiner Art. Dieses Projekt soll die KI-Entwicklung demokratisieren und durch freie Zugänglichkeit die Forschung beschleunigen, ähnlich wie Metas Llama-Modell. Die Herausforderungen liegen in der benötigten Rechenleistung und der Qualität der Trainingsdaten.

NEAR plant den Bau des weltweit größten Open-Source-KI-Modells mit 1,4 Billionen Parametern

Die Blockchain-Plattform NEAR Protocol hat ambitionierte Pläne angekündigt: den Bau eines riesigen, quelloffenen KI-Modells mit 1,4 Billionen Parametern. Dieses Vorhaben würde das Modell zum größten seiner Art machen und die Landschaft der künstlichen Intelligenz grundlegend verändern. Das Projekt zielt darauf ab, die Entwicklung und Anwendung von KI zu demokratisieren, indem es Forschern, Entwicklern und Unternehmen weltweit freien Zugang zu dieser leistungsstarken Technologie ermöglicht.

Die Initiative von NEAR steht im Kontext einer rasanten Entwicklung im Bereich der großen Sprachmodelle. Wie im Artikel "Breaking Down Meta’s Llama 3 Herd of Models" von Arize beschrieben, werden stetig größere und leistungsfähigere Modelle entwickelt, die "State-of-the-Art" Fähigkeiten in Bereichen wie allgemeinem Wissen, Steuerbarkeit, Mathematik, Werkzeugnutzung und multilingualer Übersetzung bieten. Auch Meta setzt auf Open-Source-Modelle wie Llama 3.1 405B und sieht darin das Potenzial, neue Anwendungen und Modellierungsparadigmen wie die synthetische Datengenerierung zu ermöglichen.

Der Fokus auf Open Source ist ein entscheidender Aspekt des NEAR-Projekts. Ähnlich wie bei Metas Llama, das laut einem Artikel von Salvatore Raieli auf Medium "kleinere Sprachmodelle in den Schatten stellt", soll die offene Verfügbarkeit des 1,4T-Parameter-Modells die Forschung und Entwicklung im KI-Bereich beschleunigen. Die Offenlegung des Modells ermöglicht es der Community, die Funktionsweise, die Stärken und die Schwächen des Modells zu untersuchen und zu verbessern. Dies steht im Gegensatz zu Closed-Source-Modellen wie GPT-3 und GPT-4, die, wie im Wikipedia-Artikel zu "Large Language Models" erläutert, nur über APIs verfügbar sind und somit der Community nur eingeschränkt zugänglich sind.

Die Größe des geplanten Modells ist beeindruckend. Mit 1,4 Billionen Parametern übertrifft es die Größe vieler bekannter Modelle deutlich. Die Entwicklung und das Training eines solchen Modells erfordern enorme Rechenleistung und große Datenmengen. Wie im Artikel "Large Language Models: A Survey" auf arXiv beschrieben, ist die Skalierung von Daten, Rechenleistung und die Bewältigung der Komplexität entscheidend für die Entwicklung hochqualitativer Basismodelle. Colossal-AI, ein Framework für paralleles Training großer KI-Modelle, könnte hier eine wichtige Rolle spielen, wie auf der GitHub-Seite des Projekts beschrieben wird.

Die Herausforderungen bei der Entwicklung solch großer Modelle sind vielfältig. Neben der Rechenleistung und den Datenmengen spielt auch die Qualität der Daten eine entscheidende Rolle. Wie bei Llama 3.1 wird auch bei NEAR großer Wert auf die Vorverarbeitung, Kuratierung und Qualitätssicherung der Trainingsdaten gelegt. Die Auswahl der Datenquellen und die Sicherstellung der Datenqualität sind entscheidend für die Leistung und die Zuverlässigkeit des Modells.

Das NEAR-Projekt ist ein ambitioniertes Unterfangen mit dem Potenzial, die KI-Landschaft nachhaltig zu prägen. Die offene Verfügbarkeit des Modells könnte die Entwicklung neuer Anwendungen und die Demokratisierung der KI-Technologie vorantreiben. Es bleibt abzuwarten, wie sich das Projekt entwickelt und welche Auswirkungen es auf die Zukunft der künstlichen Intelligenz haben wird.

Quellen:

  • cointelegraph.com: Near plans to create world’s largest 1.4T parameter open-source AI model
  • arize.com: Breaking Down Meta’s Llama 3 Herd of Models
  • Medium: META’s LLaMA: A small language model beating giants
  • Wikipedia: Large language model
  • arXiv: Large Language Models: A Survey
  • GitHub: hpcaitech/ColossalAI
  • arXiv: Infini-gram: Scaling Unbounded n-gram Language Models to a Trillion Tokens
  • AllenAI Blog
  • Reddit: Stability AI announce their open-source language
Im Fokus
MANTRA Chain erreicht Sicherheitsmeilenstein durch erfolgreiches Hacken-Audit
Die MANTRA Chain hat erfolgreich ein umfassendes Sicherheitsaudit durch das Cybersicherheitsunternehmen Hacken abgeschlossen, um ihre Sicherheitsprotokolle zu bewerten und potenzielle Schwachstellen zu identifizieren. Dieses Audit stärkt das Vertrauen in die Plattform und unterstreicht das Engagement der MANTRA Chain für Sicherheit und regulatorische Compliance im Bereich der Tokenisierung von Real-World-Assets. Durch die Einhaltung hoher Standards positioniert sich die MANTRA Chain als vertrauenswürdiger Akteur im Blockchain-Sektor, was die institutionelle Akzeptanz fördern könnte.
14/11/2024
Technologie
Integration von Real-World Assets in die Welt der dezentralen Finanzen
Die Integration von Real-World Assets (RWAs) in dezentrale Finanzstrategien (DeFi) ist ein bedeutender Schritt zur Schaffung neuer Investitionsmöglichkeiten und zur Verbindung traditioneller Anlageklassen mit der digitalen Finanzwelt. Die Tokenisierung dieser Vermögenswerte erhöht die Liquidität und Transparenz, bringt jedoch auch rechtliche und datenschutzbezogene Herausforderungen mit sich. Trotz dieser Hindernisse hat die Integration von RWAs das Potenzial, die Finanzlandschaft zu revolutionieren und Investoren neue Chancen zu bieten.
14/11/2024
Technologie
Weitere Posts zum Thema