[ad_1]



Meta und Microsoft schließen sich neuem Rahmenwerk zur verantwortungsvollen KI-Nutzung an

Meta und Microsoft schließen sich dem Rahmenwerk zur verantwortungsvollen KI-Nutzung an

Immer mehr Fragen werden aufgeworfen, während generative KI-Tools weiterhin verbreitet werden. Es stellt sich die Frage, welche Risiken diese Prozesse mit sich bringen und welche regulativen Maßnahmen implementiert werden können, um Menschen vor Urheberrechtsverletzungen, Fehlinformationen, Verleumdungen und mehr zu schützen.

Eine umfassende staatliche Regulierung wäre ideal, erfordert jedoch auch globale Zusammenarbeit, die sich aufgrund unterschiedlicher Ansätze und Meinungen zu den Verantwortlichkeiten und erforderlichen Maßnahmen bei früheren digitalen Medienanwendungen als schwierig erwiesen hat.

Daher werden wahrscheinlich kleinere Branchengruppen und einzelne Unternehmen Maßnahmen zur Kontrolle und Regulierung von generativen KI-Tools ergreifen müssen, um die mit ihnen verbundenen Risiken zu begrenzen.

Ein wichtiger Schritt zur verantwortungsvollen KI-Nutzung

Deshalb könnte dies ein bedeutender Schritt sein – Meta und Microsoft, das nun ein wichtiger Investor bei OpenAI ist, haben sich beide dem Partnership on AI (PAI) Responsible Practices for Synthetic Media-Initiative angeschlossen. Diese Initiative zielt darauf ab, eine branchenweite Vereinbarung über verantwortungsvolle Praktiken bei der Entwicklung, Erstellung und Weitergabe von Medien, die mit generativer KI erstellt wurden, zu schaffen.

Laut PAI wurde das Framework im Februar von der PAI ins Leben gerufen und von einer ersten Gruppe von Startpartnern unterstützt, darunter Adobe, BBC, CBC/Radio-Canada, Bumble, OpenAI, TikTok, WITNESS und die synthetischen Medienunternehmen Synthesia, D-ID und Respeecher. Die Partner des Frameworks werden noch in diesem Monat im Rahmen des 2023 Partner Forums der PAI zusammenkommen, um die Umsetzung des Frameworks anhand von Fallstudien zu diskutieren und weitere praktische Empfehlungen für den Bereich KI und Medienintegrität zu erstellen.

PAI gibt an, dass die Gruppe auch daran arbeiten wird, ihre Leitlinien zur verantwortungsvollen Offenlegung von synthetischen Medien zu klären und dabei auch die technischen, rechtlichen und sozialen Auswirkungen von Empfehlungen zur Transparenz zu berücksichtigen.

Wie bereits erwähnt, handelt es sich hierbei um einen schnell wachsenden Bereich, dem sich nun auch US-Senatoren widmen, um ihn zu regulieren, bevor er zu groß wird. Der Republikaner Josh Hawley und der Demokrat Richard Blumenthal haben heute einen neuen Gesetzentwurf vorgelegt, der den Social-Media-Unternehmen den Schutz von Abschnitt 230 entziehen würde, wenn sie den Austausch von KI-generierten Inhalten ermöglichen. Dies würde bedeuten, dass die Plattformen selbst für die Verbreitung schädlicher Materialien, die mit KI-Tools erstellt wurden, haftbar gemacht werden könnten.

Die Bedeutung von Leitlinien zur KI-Nutzung

PAI ist nicht die einzige Gruppe, die an der Entwicklung von KI-Richtlinien arbeitet. Google hat bereits seine eigenen ‚Leitprinzipien für verantwortungsvolle KI‘ veröffentlicht, während LinkedIn und Meta auch ihre eigenen Richtlinien für die Nutzung von KI geteilt haben. Letztere beiden werden wahrscheinlich in hohem Maße mit dieser neuen Gruppe übereinstimmen, da sie beide sozusagen Unterzeichner des Frameworks sind.

Es handelt sich um einen wichtigen Bereich, der ebenso wie Fehlinformationen in sozialen Apps nicht von einem einzigen Unternehmen und einem einzigen Geschäftsführer abhängen sollte, der darüber entscheidet, was akzeptabel ist und was nicht. Daher bieten Branchengruppen wie diese Hoffnung auf eine umfassendere Konsensfindung und Implementierung.

Selbst dann wird es jedoch einige Zeit dauern – und wir wissen noch nicht einmal, welche Risiken mit generativer KI genau verbunden sind. Je häufiger sie verwendet wird, desto mehr Herausforderungen werden auftreten. Im Laufe der Zeit benötigen wir anpassungsfähige Regeln, um möglichen Missbrauch zu bekämpfen und dem Anstieg von Spam und Schrott entgegenzuwirken, der durch den Missbrauch solcher Systeme entsteht.


Quelle