Eliza Labs, Entwickler des KI-Handelsbot "Marc AIndreessen", kooperiert mit der Stanford University an einem Forschungsprojekt zu KI-Agenten. Die Partnerschaft, finanziert durch Eliza Labs mit einem "größeren Zuschuss", konzentriert sich auf die Entwicklung von Vertrauensmechanismen und die Koordination von KI-Agenten, insbesondere im Kontext von Kryptowährungen und DAOs. Ziel ist die Schaffung eines "Marktplatzes des Vertrauens" für KI-basierte Finanzberatung.
Eliza Labs, das Unternehmen hinter dem Open-Source-Framework „Eliza“ und dem darauf basierenden KI-Handelsbot „Marc AIndreessen“ des ai16z DAO, kooperiert mit der Stanford University in einem Forschungsprojekt, wie blockworks.co berichtet. Der Bot, humorvoll nach dem Mitbegründer von Andreessen Horowitz (a16z) benannt, ist Teil des aktuellen Hypes um KI-Agenten, die mit Memecoins verknüpft sind und in den letzten Monaten Marktkapitalisierungen von hunderten Millionen Dollar erreicht haben. Die Finanzierung eines Forschungslabors in Stanford dient laut blockworks.co dazu, diesen Hype aufrechtzuerhalten. Eliza Labs-Gründer Shaw kommentierte die Partnerschaft mit den Worten: "Das ist die witzigste Sache, die wir tun könnten".
Das „Eliza“-Framework ermöglicht Agenten, online zu agieren – in sozialen Medien zu interagieren, im Internet zu surfen und mit Token zu handeln. Das GitHub-Repository von ai16z verzeichnet bereits rund 1.400 Forks, was die Popularität der Technologie unterstreicht. Nach dem öffentlichen Launch der Plattform soll „KI Marc“ einen „Marktplatz des Vertrauens“ etablieren, auf dem DAO-Mitglieder basierend auf der Qualität ihrer Ratschläge bewertet werden.
Die "Future of Digital Currency Initiative" (FDCI) der Stanford University, ein Zusammenschluss mehrerer Professoren zur Erforschung kryptobezogener Themen, wird das Labor beherbergen. Die FDCI fördert die Entwicklung und Anwendung digitaler Währungen. Finanziert wird die Initiative durch Mitglieder der Kryptoindustrie, darunter Eliza Labs, die laut Jonathan Padilla, CEO von Snickerdoodle und Berater der FDCI, einen "größeren Zuschuss" von über 250.000 US-Dollar bereitgestellt haben. Die genaue Summe wurde nicht genannt, doch mit einer Marktkapitalisierung des ai16z-Tokens von über 800 Millionen US-Dollar scheint Eliza Labs die Finanzierung stemmen zu können.
Die Stanford-Forscher unter der Leitung der Professoren David Mazières und Dan Boneh, unterstützt von Doktoranden, werden sich auf die Entwicklung von Vertrauensmechanismen für KI-Agenten konzentrieren, die bekanntermaßen zu Halluzinationen neigen. Darüber hinaus wird die Koordination und Steuerung von Agenten untereinander untersucht. Trotz der Kosten für die Partnerschaft erachtet Shaw diese Investition angesichts des Wettbewerbs im Bereich der KI-Agenten als notwendig und hofft auf wegweisende wissenschaftliche Erkenntnisse. "Wir suchen nach Doktoranden, die uns umhauen und den Bereich des Möglichen mit der Technologie, die wir freisetzen, erweitern", so Shaw.
Stanford betreibt auch ein "Virtuelles Labor", in dem KI-Agenten mit menschlichen Wissenschaftlern zusammenarbeiten, um komplexe Forschungsfragen zu bearbeiten, wie David Borish auf LinkedIn berichtet. Dieses System hat bereits Erfolge erzielt, beispielsweise bei der Entwicklung neuer Behandlungen für COVID-19-Varianten. Das virtuelle Labor funktioniert wie ein Forschungsteam mit spezialisierten KI-Agenten, die verschiedene Rollen übernehmen, darunter Projektleiter, Wissenschaftler und ein Kritiker zur Sicherstellung der wissenschaftlichen Genauigkeit.
In einem Interview mit ChainCatcher skizzierte Shaw seine Vision einer vollständig autonomen und vertrauenswürdigen Investment-KI, die der gesamten Community dient. Er betonte die Bedeutung eines "Marktplatzes des Vertrauens", auf dem die Glaubwürdigkeit von Händlern durch simulierte Handelserfolge bewertet wird.
Die Interaktion von KI-Agenten ist ebenfalls Gegenstand der Forschung an der Stanford University. Katharine Miller berichtet im Stanford HAI News über die Entwicklung von "generativen Agenten", die durch große Sprachmodelle gesteuert werden und menschenähnliches Verhalten in einer simulierten Umgebung zeigen. Diese Agenten können sich erinnern, reflektieren und planen, was sowohl für die Spieleentwicklung als auch für die Sozialwissenschaften relevant sein könnte.
Quellen: