[ad_1]
Meta schlägt neue Industrieprinzipien für KI-Entwicklung vor
Die zunehmenden Risiken der KI-Entwicklung
Mit dem raschen Fortschritt von KI-Modellen und dem wachsenden Interesse von Entwicklern, in das KI-Feld einzusteigen, nehmen auch die Risiken der KI-Entwicklung zu. Es besteht die Gefahr von Missbrauch, Fehlinformationen und sogar von KI-Systemen, die das menschliche Verständnis übersteigen und weiter gehen könnten als erwartet.
Die Sorge in diesem Zusammenhang kann erheblich variieren, und Meta’s Präsident für globale Angelegenheiten, Nick Clegg, hat in einem Meinungsartikel, veröffentlicht in der Financial Times, eine größere Zusammenarbeit und Transparenz in der KI-Entwicklung gefordert, um diese potenziellen Probleme besser zu bewältigen.
Cleggs Argument für breitere Richtlinien in der KI-Entwicklung
Laut Clegg ist es erforderlich, bereits in den frühen Stadien der KI-Entwicklung umfassendere Regeln festzulegen, um potenzielle Schäden später zu vermeiden. Zu diesem Zweck hat Clegg einen neuen Satz von vereinbarten Prinzipien für die KI-Entwicklung vorgeschlagen, die auf einer größeren Transparenz und Zusammenarbeit aller KI-Projekte basieren.
Transparenz und Einblicke in die Funktionsweise von KI-Projekten
Einer der Schwerpunkte liegt auf der Transparenz und einem besseren Einblick in die Arbeitsweise von KI-Projekten. Als Beispiel führt Clegg die kürzlich von Meta veröffentlichten „Systemkarten“ für Facebook und Instagram an, die den Menschen Einblicke in die KI geben, die hinter der Rangliste und Empfehlung von Inhalten steht. Dies könne ermöglicht werden, ohne dass tiefgehendes technisches Wissen erforderlich ist.
Clegg schlägt vor, dass alle KI-Projekte ähnliche Einblicke geben sollten, was gegen die branchenübliche Geheimhaltung bei derartiger Entwicklung verstößt.
Zusammenarbeit durch die Teilnahme an Projekten wie der „Partnership on AI“
Meta ruft auch Entwickler dazu auf, am Projekt „Partnership on AI“ teilzunehmen, bei dem Meta zusammen mit Amazon, Google, Microsoft und IBM zu den Gründungsmitgliedern gehört.
„Wir nehmen am Rahmenwerk für gemeinsames Handeln im Bereich synthetischer Medien teil, was ein wichtiger Schritt zur Festlegung von Schutzmaßnahmen im Umgang mit AI-generierten Inhalten ist“, so Clegg.
Die Idee dahinter ist, dass diese Führungsfiguren der KI-Entwicklung durch Zusammenarbeit und gemeinsamen Einblick bessere Regeln und Ansätze zur Weiterentwicklung der KI etablieren können, um potenzielle Schäden zu mindern, bevor sie der Öffentlichkeit zugänglich werden.
Weitere Vorschläge von Clegg zur Verbesserung der KI-Entwicklung
Clegg schlägt zusätzliches Stresstesten aller KI-Systeme vor, um potenzielle Bedenken besser zu erkennen. Er empfiehlt auch das Open Source-Veröffentlichen aller KI-Entwicklungsarbeiten, damit andere mögliche Schwachstellen aufzeigen können.
Es besteht die Annahme, dass die Veröffentlichung des Quellcodes oder der Modellgewichte eines KI-Systems diese anfälliger macht. Tatsächlich können externe Entwickler und Forscher jedoch Probleme identifizieren, für deren Behebung interne Teams in Unternehmen viel länger bräuchten. Das Testen von Meta’s großem Sprachmodell, BlenderBot 2, durch Forscher ergab beispielsweise, dass es dazu gebracht werden konnte, Fehlinformationen zu behalten. Als Ergebnis wurde BlenderBot 3 widerstandsfähiger dagegen gemacht“, erklärt Clegg.
Diskussion über die Umsetzbarkeit von branchenweiten Partnerschaften
Dieser Fokus ist wichtig, da wir in die nächsten Phasen der KI-Tools eintreten, aber es ist fraglich, ob eine branchenweite Partnerschaft zur vollständigen Transparenz über KI-Projekte aufgebaut werden kann. Projekte werden in vielen Ländern durchgeführt werden, wobei viele von ihnen wenig offen für Zusammenarbeit oder Informationsaustausch sein werden. Gleichzeitig werden konkurrierende KI-Entwickler bestrebt sein, ihre Geheimnisse geheim zu halten, um einen Wettbewerbsvorteil zu erlangen. In diesem Zusammenhang ergibt es Sinn, dass Meta ein breiteres Verständnis etablieren möchte, um mit ähnlichen Projekten mithalten zu können. Dies mag jedoch für kleinere Projekte möglicherweise nicht von so großem Wert sein, insbesondere angesichts der Geschichte von Meta im Bereich der Nachahmungsentwicklung.
Selbst Elon Musk, der in letzter Zeit zum Erzfeind von Zuckerberg geworden ist, entwickelt seine eigenen KI-Modelle, die angeblich frei von politischer Voreingenommenheit sein sollen. Es ist fraglich, ob er daran interessiert wäre, diese Entwicklung mit den vorgeschlagenen Prinzipien abzugleichen.
Dennoch ist der Ausgangspunkt wichtig – die KI-Entwicklung birgt große Risiken, die durch eine breitere Zusammenarbeit reduziert werden können. Mehr Experten könnten potenzielle Schwachstellen und Probleme erkennen, bevor sie zu ernsten Gefahren werden.
Für eine logische Umsetzung wird dies allerdings in praktischer Hinsicht auf mehreren Ebenen eine Herausforderung sein.
Sie können den Meinungsartikel von Nick Clegg zur KI-Regulierung hier lesen.