[ad_1]

Meta und Microsoft schließen sich neuem Framework zur verantwortungsvollen Nutzung von KI an

Immer mehr Fragen werden aufgeworfen bezüglich der Risiken von generativen KI-Werkzeugen und welche regulatorischen Maßnahmen ergriffen werden können, um Menschen vor Urheberrechtsverletzungen, Fehlinformationen, Verleumdungen und mehr zu schützen.

Während eine breitere staatliche Regulierung ein idealer Schritt wäre, erfordert dies auch eine globale Zusammenarbeit, die, wie wir in der Vergangenheit bei digitalen Medienanwendungen gesehen haben, aufgrund der unterschiedlichen Ansätze und Meinungen zu Verantwortlichkeiten und erforderlichen Maßnahmen schwierig herzustellen ist.

Es wird daher höchstwahrscheinlich an kleineren Branchengruppen und einzelnen Unternehmen liegen, Kontrollmaßnahmen und Regeln zu implementieren, um die mit generativen KI-Werkzeugen verbundenen Risiken zu mindern.

Die Partnerschaft zwischen Meta und Microsoft

Dies könnte ein bedeutender Schritt sein – heute haben sowohl Meta als auch Microsoft, das nun ein wichtiger Investor von OpenAI ist, der Initiative „Partnership on AI (PAI) Responsible Practices for Synthetic Media“ zugestimmt. Diese Initiative zielt darauf ab, eine branchenweite Vereinbarung über verantwortungsvolle Praktiken bei der Entwicklung, Erstellung und Weitergabe von Medien zu schaffen, die mithilfe von generativer KI erstellt wurden.

Laut PAI:

„Das Rahmenwerk, das erstmalig im Februar von PAI ins Leben gerufen wurde und von einem Gründungskonsortium von Partnern wie Adobe, BBC, CBC/Radio-Canada, Bumble, OpenAI, TikTok, WITNESS und den Start-ups Synthesia, D-ID und Respeecher unterstützt wird, soll den Rahmen für den verantwortungsvollen Umgang mit generativer KI in den Bereichen Entwicklung, Medienkreation und -weitergabe setzen. Die Rahmenwerk-Partner werden später in diesem Monat beim PAI 2023 Partnerforum zusammenkommen, um die Umsetzung des Rahmenwerks anhand von Fallstudien zu diskutieren und zusätzliche praktische Empfehlungen für das Feld der KI und Medienintegrität zu erarbeiten.“

PAI sagt, dass die Gruppe auch daran arbeiten wird, ihre Richtlinien für die verantwortungsvolle Offenlegung von synthetischen Medien zu präzisieren und dabei auch die technischen, rechtlichen und sozialen Auswirkungen von Empfehlungen zur Transparenz zu berücksichtigen.

Wie bereits erwähnt, handelt es sich hier um einen rapide wachsenden Bereich, dem sich nun auch US-Senatoren zuwenden wollen, bevor er zu groß wird, um reguliert zu werden. Heute haben der republikanische Senator Josh Hawley und der demokratische Senator Richard Blumenthal einen Gesetzesvorschlag eingebracht, der den Abschnitt 230-Schutz für soziale Medienunternehmen aufheben würde, die die Verbreitung von AI-generierten Inhalten ermöglichen. Das bedeutet, dass die Plattformen selbst haftbar gemacht werden könnten für die Verbreitung von schädlichem Material, das durch KI-Tools erstellt wurde.

AI-Richtlinien und der Schutz vor Missbrauch

In diesem Gesetzesentwurf gibt es noch viel zu klären und es wird schwierig sein, eine Genehmigung zu erhalten. Aber die Tatsache, dass er überhaupt vorgeschlagen wird, unterstreicht die wachsenden Bedenken der Regulierungsbehörden, insbesondere hinsichtlich der Eignung bestehender Gesetze für den Schutz vor generativen KI-Ergebnissen.

PAI ist nicht die einzige Gruppe, die Richtlinien für KI aufstellen will. Google hat bereits seine eigenen „Verantwortungsvollen KI-Prinzipien“ veröffentlicht, während LinkedIn und Meta auch ihre Leitlinien für die Nutzung von KI geteilt haben. Letztere zwei werden wahrscheinlich weitgehend mit dem neuen Rahmenwerk konform gehen, da sie (effektiv) Unterzeichner des Rahmenwerks sind.

Es handelt sich um einen wichtigen Bereich, der, ähnlich wie Fehlinformationen in sozialen Apps, nicht von einem einzelnen Unternehmen oder einer einzelnen Führungskraft allein bestimmt werden sollte. Industriegruppen wie diese bieten daher Hoffnung auf einen weiterreichenden Konsens und eine Umsetzung.

Aber selbst dann wird es einige Zeit dauern – und wir kennen noch nicht einmal alle Risiken, die mit generativer KI verbunden sind. Je häufiger sie genutzt wird, desto mehr Herausforderungen werden auftreten, und im Laufe der Zeit werden wir adaptive Regeln benötigen, um möglichen Missbrauch einzudämmen und dem Anstieg von Spam und Unsinn durch den Missbrauch solcher Systeme entgegenzuwirken.

Quelle