21.11.2024
Technologie

Verbindliche Sicherheitstests für KI-Modelle gefordert

Dario Amodei, CEO von Anthropic, plädiert für verbindliche Sicherheitstests von KI-Modellen vor deren Veröffentlichung, um die öffentliche Sicherheit zu gewährleisten, wie er auf einem KI-Sicherheitsgipfel in San Francisco betonte. Er argumentiert, dass freiwillige Richtlinien nicht ausreichen und erwartet bereits 2026 deutlich leistungsfähigere KI-Systeme. Amodei befürchtet, dass die derzeitigen Sicherheitsmaßnahmen den zukünftigen Risiken nicht gerecht werden und fordert flexible, aber verbindliche Testverfahren.

Dario Amodei, CEO von Anthropic, hat sich auf einem KI-Sicherheitsgipfel in San Francisco für verbindliche Sicherheitstests von KI-Modellen ausgesprochen, bevor diese öffentlich zugänglich gemacht werden. Wie Cryptopolitan berichtet, betonte Amodei die Notwendigkeit solcher Tests, um die Sicherheit der Technologien für die Öffentlichkeit zu gewährleisten. Der Gipfel wurde von den US-Handels- und Außenministerium ausgerichtet. Amodeis Äußerungen erfolgten nach der Veröffentlichung von Testergebnissen des Claude 3.5 Sonnet-Modells von Anthropic durch die KI-Sicherheitsinstitute der USA und Großbritanniens. Diese Tests umfassten verschiedene Kategorien, darunter Cybersicherheit und biologische Fähigkeiten. Sowohl Anthropic als auch OpenAI hatten zuvor zugestimmt, ihre KI-Modelle den Regierungsbehörden zur Überprüfung vorzulegen.

Amodei räumte ein, dass bereits verschiedene freiwillige Sicherheitsrichtlinien existieren, denen sich große Unternehmen verpflichtet haben, wie beispielsweise Anthropics „Responsible Scaling Policy“ und OpenAIs „Preparedness Framework“. Er betonte jedoch, dass explizitere Vorgaben notwendig seien. Wie Cryptopolitan weiter ausführt, befürchtet Amodei, dass die bloße öffentliche Aufmerksamkeit und das Engagement der Mitarbeiter nicht ausreichen werden, um die Einhaltung dieser Pläne sicherzustellen. Er argumentierte, dass es derzeit keine Mechanismen gebe, um zu überprüfen, ob Unternehmen die Richtlinien tatsächlich einhalten. Daher plädiert er für verbindliche Tests.

Amodeis Forderung nach verbindlichen Tests wird durch seine Einschätzung befeuert, dass bereits 2026 leistungsfähigere KI-Systeme entstehen könnten, die selbst die intelligentesten Menschen übertreffen. Während KI-Unternehmen derzeit auf biologische Bedrohungen und andere hypothetische Katastrophen testen, betonte er, dass diese Risiken sehr schnell real werden könnten. Gleichzeitig mahnte Amodei, dass die Testanforderungen „flexibel“ bleiben sollten, um der rasanten Entwicklung der Technologie Rechnung zu tragen. Wie er auf dem Gipfel ausführte, stehe man vor einem komplexen soziopolitischen Problem.

In einem Interview mit Lex Fridman, skizzierte Amodei den rasanten Fortschritt der KI und prognostizierte die Ankunft von Künstlicher Allgemeiner Intelligenz (AGI) bis 2026 oder 2027 (felloai.com). Er betonte die Notwendigkeit, KI-Systeme zu entwickeln, die sowohl sicher als auch nützlich sind. Anthropic verfolgt dazu den Ansatz der „Constitutional AI“, bei dem KI-Modelle darauf trainiert werden, Hilfsbereitschaft und Unbedenklichkeit zu priorisieren. Dieser Ansatz soll Risiken wie Voreingenommenheit, schädliches Verhalten oder Manipulation minimieren und gleichzeitig die effiziente Ausführung komplexer Aufgaben ermöglichen.

Wie 80000hours.org berichtet, hat Anthropic eine "Responsible Scaling Policy" (RSP) entwickelt, die verschiedene Sicherheitsstufen für KI-Modelle definiert und Tests vorsieht, um das Risikoniveau eines Modells zu bestimmen. Für jede Stufe werden "Red-Line Capabilities" festgelegt, also Fähigkeiten, die als gefährlich eingestuft werden und für deren Training entsprechende Sicherheitsvorkehrungen getroffen werden müssen. Die RSP sieht auch die Entwicklung von Standards vor, um die Sicherheit von Modellen zu gewährleisten. Nick Joseph, Head of Training bei Anthropic, hebt hervor, dass die RSP die Frage, ob eine KI gefährlich sein kann, von der Frage trennt, was dagegen zu tun ist.

TIME Magazine berichtete über die Einberufung des "International Network of AI Safety Institutes" in San Francisco, an dem Vertreter aus neun Nationen und der Europäischen Kommission teilnahmen (time.com). Das Netzwerk soll den internationalen Austausch technischer Expertise zu KI-Sicherheitsrisiken fördern. Auf der Veranstaltung wurden drei Prioritätsthemen für die internationale Zusammenarbeit festgelegt: Risiken durch synthetische Inhalte, Testen von Basismodellen und Risikobewertungen für fortgeschrittene KI-Systeme.

Quellen:

  • www.cryptopolitan.com/anthropic-ceo-cautions-safety-ai-models/
  • www.bnnbloomberg.ca/business/technology/2024/11/20/anthropic-ceo-says-mandatory-safety-tests-needed-for-ai-models/
  • felloai.com/de/2024/11/dario-amodei-ceo-of-anthropic-artificial-general-intelligence-is-coming-in-2027/
  • lexfridman.com/dario-amodei-transcript/
  • 80000hours.org/podcast/episodes/nick-joseph-anthropic-safety-approach-responsible-scaling/
  • www.shortform.com/podcast/episode/lex-fridman-podcast-2024-11-11-episode-summary-452-dario-amodei-anthropic-ceo-on-claude-agi-the-future-of-ai-humanity
  • time.com/7178133/international-network-ai-safety-institutes-convening-gina-raimondo-national-security/
  • sherwood.news/tech/anthropic-ai-manifesto-dario-amodei-machines-of-loving-grace/
Im Fokus
GRC-20 Standard: Ein Meilenstein für die Datenstrukturierung im Web3
Die dezentrale Plattform The Graph hat den GRC-20-Standard eingeführt, der die Strukturierung von Web3-Daten erleichtert und die Interoperabilität zwischen Anwendungen verbessert. Dieser neue Standard ermöglicht eine konsistente Organisation von Daten, was die Entwicklung von dezentralen Anwendungen vereinfacht und effizientere Datenabfragen ermöglicht. Die Einführung von GRC-20 unterstützt die Entwicklung eines interoperablen und benutzerfreundlicheren Web3-Ökosystems.
21/11/2024
Technologie
Revolutionierung der Datenstruktur im Web3 durch den GRC-20-Standard von The Graph
Der neue GRC-20-Standard von The Graph revolutioniert die Datenstruktur im Web3, indem er Entwicklern verbesserte Suchoptionen durch dezentrale Indizierung von Blockchain-Daten bietet. Dieser Standard ermöglicht eine effizientere Organisation und Bereitstellung von Daten über offene APIs, wodurch Nutzer die Kontrolle über ihre Daten behalten können. Zudem sorgt ein ausgeklügeltes Anreizsystem mit dem Utility-Token GRT für die Qualität und Sicherheit der Daten im Netzwerk.
21/11/2024
Technologie
Weitere Posts zum Thema