banner

Blog

May 18, 2024

Die gefährliche Kunst der künstlichen Intelligenz

Es ist 10 Jahre her, dass Theodore, ein Autor in den Dreißigern mit einem Job in einer Sackgasse, sich im Spike-Jonze-Film „Her“ in seine KI-Assistentin Samantha verliebte. Die ausgefallene Liebesgeschichte und ihre Stars, die Schauspieler Joaquin Phoenix und Scarlett Johansson, verzauberten die Kritiker und ließen eine nicht allzu ferne, hypervernetzte Zukunft, in der extreme Einsamkeit Menschen dazu bringt, Zuneigung bei ihrer Technologie zu suchen, glaubhaft erscheinen. (Eigentlich ist das gar nicht so fiktiv. Das passiert bereits.)

Wo die Prämisse des Films scheiterte, war die Technik. Samantha war in der Lage, Wärme, Empathie und Kreativität auszudrücken oder zumindest nachzuahmen. Es war übertrieben zu glauben, dass künstliche Intelligenz in absehbarer Zeit so gut werden könnte.

Was für einen Unterschied ein Jahrzehnt macht.

Bedenken Sie, dass bei der Eröffnung von „Her“ im Jahr 2013 Apples Siri gerade einmal zwei Jahre alt war und Amazons Alexa und Google Assistant noch nicht einmal angekommen waren. Doch schon bald würden die wichtigsten Berührungspunkte der Öffentlichkeit mit KI über unvollkommene Sprachassistenten und Kundendienst-Chatbots erfolgen, die nicht viel leisten konnten, leicht irritierten und mehr unbeabsichtigte Komik oder Frustration hervorriefen als den guten Willen der Kunden.

Die direkte Erfahrung zeigt, dass Verbraucher eher nach Möglichkeiten suchen würden, Bots zu meiden, als sie zu engagieren. Dann stellte OpenAI im Oktober stillschweigend ChatGPT vor und erlaubte der Öffentlichkeit, es kostenlos auszuprobieren. Als sich die Nachricht herumsprach, wurde die Technologie zu einem viralen Hit.

Der Unterschied zwischen diesem und früheren Bots besteht in einem Generationswechsel, insbesondere bei der generativen KI, einer Version der Technologie, die zu beeindruckender Sprachkompetenz, umfassender Auffassungsgabe und den kreativen Fähigkeiten zur Generierung von Kunst, Musik und schriftlichen Werken fähig ist. Bots wie ChatGPT wurden mit großen Lernmodellen entwickelt, die riesige Datenmengen durchpumpen, um das Training zu fördern und alle Ecken und Kanten zu beseitigen. Sie scheinen die Kluft zwischen maschineller und menschlicher Anstrengung erheblich zu verringern.

Obwohl es den Anschein hat, dass ein solcher Durchbruch lange auf sich warten ließ, hätte er zu keinem anderen Zeitpunkt passieren können.

Fortschritte in der Modellierung, bessere Hardware und leistungsfähigere Verarbeitungskapazitäten sowie die Verfügbarkeit riesiger, qualitativ hochwertiger Datensätze haben dazu beigetragen, die Möglichkeiten zu erweitern und zu beschleunigen. Sie sind nicht perfekt – als neue Technologien kann diese neue Klasse von Bots seltsame oder fehlerhafte Schlussfolgerungen ziehen, ins Straucheln geraten oder Ausrutscher produzieren. Aber im Vergleich zu früheren Generationen ist der Unterschied so groß wie ein 2040er Ferrari neben einem gebrauchten 2001er Kia.

Es ist verlockend, es als eine weitere technische Modeerscheinung zu betrachten, aber Experten waren sich darüber im Klaren: KI wird bleiben, und Unternehmen, die jetzt nicht mitmachen, laufen Gefahr, ins Hintertreffen zu geraten. Analysten, Wissenschaftler, Wirtschaftsführer, gewählte Amtsträger und viele andere erwarten, dass es praktisch keinen Aspekt des modernen Lebens geben wird, den diese Technologie nicht berührt, vom Gesundheitswesen, der Pharmaindustrie, der Fertigung, der Landwirtschaft, dem Einkaufen, persönlichen Beziehungen, der Produktivität am Arbeitsplatz und mehr . Dies sei eine transformative Technologie, sagen sie, und sie sei bereit, einen tektonischen Wandel auf Augenhöhe mit der industriellen Revolution voranzutreiben.

Doch genau deshalb schrillen bei Kritikern die Alarmglocken. Die Technologie wurde so schnell so weit fortgeschritten, dass es, wenn überhaupt, nur wenige Leitplanken gibt. Das ist erschreckend, wenn man bedenkt, dass KI bereit ist, überall Einzug zu halten. Wenn es Verzerrungen in den Trainingsdaten gibt – oder in den Leuten, die für menschliche Verstärkung sorgen, ein notwendiger Teil des Entwicklungsprozesses –, wenn private Daten und Eigentumsrechte nicht geschützt sind, wenn Tools ohne Überprüfung frei verteilt werden, könnte eine spätere Korrektur fast ausreichen unmöglich.

Die Gefahren sind bereits absehbar. Nehmen wir zum Beispiel Deep Fakes. Diese von der KI erstellten Fotos, Videos und Audiodateien können das Abbild oder die Stimme einer realen Person mit zunehmendem Realismus digital nachahmen. Es ist eine Sache, den Papst zu bestaunen, der Balenciaga trägt, das jüngere Ich von Robert Downey Jr. in einem Werbespot oder die KI-Stimmen von Drake und The Weeknd in einem viralen Song. Eine andere Sache ist die Erkenntnis, wie einfach es ist, einen Politiker digital zu klonen, um Desinformation oder Gewalt zu schüren. Chatten Sie mit einem Bildgenerator-Tool wie Midjourney oder DALL-E von OpenAI, und es werden realistisch aussehende Bilder von fast allem erstellt – wie die gefälschten Verhaftungsbilder von Donald Trump und Wladimir Putin, die im März viral gingen. Diese Tools sind für jedermann öffentlich zugänglich, auch für Kriminelle.

Jennifer DeStefano, Mutter aus Arizona, fand das heraus, als Betrüger die Stimme ihres Teenagers fälschten, um Lösegeld zu fordern. „Es ist die Stimme meiner Tochter, die weint und schluchzt, ähm, ‚Mama‘ sagt“, erzählte DeStefano gegenüber ABC News. „Und ich frage mich: ‚Okay, was ist passiert?‘ Sie sagt: „Mama, diese bösen Männer haben mich.“ Hilf mir, hilf mir.'"

Solche Szenarien sind beunruhigend, und dann funktioniert die Technik wie vorgesehen. Natürlich haben auch Fehler Konsequenzen. KI, die aufgrund von Voreingenommenheit oder veralteten Daten falsche Schlussfolgerungen zieht, kann Einzelpersonen, bestimmten Gruppen und ganzen Regionen echten Schaden zufügen. (Eine frühere Version von ChatGPT enthielt keine Informationen zu Ereignissen nach 2021.)

Im Mai traf sich die Biden-Regierung mit den Vorstandsvorsitzenden von Google, Microsoft, dem ChatGPT-Erfinder OpenAI und Anthropic, um die Frage der Ethik und Verantwortung voranzutreiben, und das Vereinigte Königreich plant Berichten zufolge für diesen Herbst einen KI-Gipfel. Doch solange es keine Vorschriften gibt, ist die rasante KI-Entwicklung so etwas wie ein Wilder Westen.

Marken müssen potenzielle Partner sorgfältig abwägen und erfahren, wie ihre Modelle trainiert wurden, woher die Daten stammen und welche Qualität sie haben, welchen Ansatz die Plattform zur Vermeidung von Voreingenommenheit verfolgt und ob die Technologie auf bewusste und ethisch einwandfreie Weise entwickelt wird. Eine gewisse Sorgfaltspflicht könnte Unternehmen jetzt vor künftigen Gerichtsentscheidungen, Gesetzen und Vorschriften schützen, die spätere Änderungen erzwingen könnten.

Auch Geschäftsentscheidungen rund um KI-bezogene Projekte müssen sorgfältig abgewogen werden. Die Gegenreaktion gegen Levi Strauss & Co. in diesem Frühjahr ist ein perfektes Beispiel. Im März gab die legendäre Denim-Marke eine Partnerschaft mit Lalaland.ai bekannt, um KI-generierte Models zu testen und so ihren Marketingkampagnen mehr Vielfalt zu verleihen.

„Obwohl KI bei uns menschliche Modelle wahrscheinlich nie vollständig ersetzen wird, freuen wir uns über die potenziellen Möglichkeiten, die uns dies für das Verbrauchererlebnis bieten könnte“, erklärte Dr. Amy Gershkoff Bolles, Leiterin für neue Technologien bei Levi's, in einer Erklärung. Auf dem Papier macht es Sinn, wenn man bedenkt, dass die Marke sich auf neue Technologien konzentriert, Grenzen überschreitet und eine ursachenorientierte Kultur verfolgt. Aber nicht für jeden.

Models, Künstler, Befürworter der Vielfalt und andere kritisierten die Marke schnell dafür, dass sie auf „falsche Vielfalt“ setzt, anstatt reale, vielfältige menschliche Models einzustellen. Die Datenanalystin Tulsa Rice, die auf Twitter unter @FlyIngenuity bekannt ist, hielt sich in einem Tweet nicht zurück und nannte es „digitales Blackface“.

Neue Technologien bringen oft auch unvorhergesehene Fallstricke mit sich. Nehmen Sie zum Beispiel das Metaversum. Die Mode stellte Anfang des Jahres die Grenzen des geistigen Eigentumsrechts auf die Probe, als Hermés den Web 3.0-Designer Mason Rothschild wegen seiner MetaBirkins-NFTs verklagte. Die Jury schloss sich der Argumentation der Verteidigung nicht an, die die digitalen Güter als Kunstwerke betrachtete und daher zu einer geschützten Kategorie der Rede gehörte. Als sich die Luxusmarke im Februar durchsetzte, weitete sie schließlich den IP-Schutz der realen Welt auf die virtuelle Welt aus.

Mit generativer KI und ihrem Talent für kreatives Arbeiten sieht es noch chaotischer aus. Es löst bereits branchenübergreifend Ängste und Debatten aus.

Der Weckruf der Musikindustrie erfolgte im April, als der Fake-Song „Heart on My Sleeve“ featuring Drake und The Weeknd viral ging. Es erschütterte die Musikindustrie, vor allem weil keiner der Künstler bei diesem Song tatsächlich mitwirkte. Die Stimmen waren gefälscht, aber die Panik war real und veranlasste Universal Music Group, das Label der Sänger, sich darum zu bemühen, den Song von jeder Social-Media-Plattform zu entfernen, die er finden konnte.

Generative KI spielt auch in Hollywood eine große Rolle, selbst wenn man den im Mai begonnenen Autorenstreik berücksichtigt.

Die Writers Guild of America betrachtet die Technologie als hilfreiches Werkzeug für Mitglieder, möchte jedoch Richtlinien, wie Studios sie nutzen können, sowie die Zusicherung, dass der Einsatz von KI die Rechte oder das Eigentum der Autoren an ihrer Arbeit nicht beeinträchtigt. Die Allianz der Film- und Fernsehproduzenten, die die Studios vertritt, möchte ein potenziell wirksames Mittel zur Kostensenkung nicht behindern.

Wie die Gruppe gegenüber der Schwesterpublikation von WWD, The Hollywood Reporter, sagte: „Autoren möchten diese Technologie als Teil ihres kreativen Prozesses nutzen können, ohne die Art und Weise zu ändern, wie Credits bestimmt werden, was kompliziert ist, da KI-Material nicht urheberrechtlich geschützt werden kann.“

Aber die Realität ist nicht so endgültig. Laut Harvard Business Review ist das rechtmäßige Eigentum an KI-generierten Werken noch nicht entschieden, und es ist keine einfache oder unkomplizierte Angelegenheit.

Die Zeitschrift zitierte Andersen gegen Stability AI et al. ab Ende 2022, als Künstler „mehrere generative KI-Plattformen auf der Grundlage der KI verklagten, die ihre Originalwerke ohne Lizenz nutzte, um ihre KI in ihren Stilen zu trainieren, was es Benutzern ermöglichte, Werke zu generieren, die ihre bestehenden, geschützten Werke möglicherweise nicht ausreichend transformieren, und.“ Daher handele es sich um unautorisierte abgeleitete Werke.“

Mit anderen Worten: In dem Fall wird argumentiert, dass die Verwendung der Daten oder Bilder einer anderen Person zum Trainieren eines KI-Modells diesem im Wesentlichen beibringt, den Stil einer anderen Person nachzuahmen, und dass dies zu Fälschungen führen kann. Das könnte passieren, auch wenn das Kopieren nicht beabsichtigt ist. KI-Plattformen, die Trainingsdaten aus dem Internet sammeln – und das tun viele von ihnen – könnten leicht urheberrechtlich geschütztes Material einsammeln, das sich auf das Endprodukt auswirkt.

Wer haftet in diesem Fall? Ist es die Technologieplattform, die das KI-Modell erstellt und trainiert hat? Die Marke, die den Verstoß ermöglicht hat? Möglicherweise hat ein Käufer ein generatives KI-Tool verwendet, um ein problematisches Kleidungsstück zu personalisieren. Hängt der Kunde am Haken?

Wenn Sie tiefer gehen, werden die Fragen komplexer. Nehmen Sie zum Beispiel das Anpassungstool: Wem gehört das endgültige Design, dem Käufer, der die KI veranlasst hat, oder der Marke? Was ist mit den Anweisungen, die dem Bot gegeben werden – kann jemand die Rechte, sogar Markenzeichen, KI-Eingabeaufforderungen besitzen? Wenn ein Bot am Ende ein Design erstellt, das dem charakteristischen Look eines anderen Designers ähnelt, ist dann der Bot oder der Benutzer schuld?

Dies sind heikle Themen, und sie könnten auf eine neue Realität im KI-Zeitalter hinweisen. Wenn es möglich und sogar einfach ist, so ziemlich alles zu erschaffen, dann wird auch so gut wie alles erschaffen. Wie Fälschungen.

Maschinelles Lernen mit seiner beeindruckenden Fähigkeit, Muster zu erkennen und zu identifizieren, erweist sich als wirksame Waffe im Kampf gegen Fälschungen. Aus diesem Grund nutzen E-Commerce-Giganten wie Amazon ML im Kampf gegen Fälschungen. Aber das kann sich in beide Richtungen auswirken: In manchen Fällen werden Nachahmer gezielt angegriffen und in anderen Fällen entstehen solche.

Das alles deutet auf eine einfache Tatsache hin: Alle Technologien sind grundsätzlich Werkzeuge, ohne eigene Seele oder Absicht. Je weiter sich die generative KI weiterentwickelt, desto schwieriger wird es, sich daran zu erinnern, da sie sich in vielen Bereichen ihrer Sprache und Kreativität bereits beeindruckend menschlich verhalten kann. Aber der wahre Wert oder Nachteil von Bots wie ChatGPT hängt vom Willen der Menschen ab, die sie herstellen oder einsetzen. Zumindest für jetzt.

So wie Scarlett Johanssons Samantha in „Her“ ihr Selbstbewusstsein erlangt, könnte eines Tages maschinelles Empfindungsvermögen im wirklichen Leben auf der Speisekarte stehen. Zumindest Demis Hassabis, CEO des KI-Forschungslabors DeepMind Technologies, schließt dies nicht aus.

„Philosophen haben sich noch nicht wirklich auf eine Definition von Bewusstsein geeinigt, aber wenn wir Selbstbewusstsein meinen … Ich denke, es besteht die Möglichkeit, dass KI es eines Tages sein könnte“, sagte er in einem Interview mit „60 Minutes“. Im Jahr 2014 erwarb Google DeepMind im Rahmen seiner jahrelangen Forschung und Investition in KI. Der Technologieriese brachte sogar einmal einen Google-Bot hervor, der die überraschende Fähigkeit hatte, Emotionen zu vermitteln – oder besser gesagt: nachzuahmen. Es war gut genug, um einen Google-Ingenieur zu täuschen. Seitdem ChatGPT explodiert und den Raum beschleunigt hat, befindet es sich in einem KI-Wettrüsten mit Microsoft, einem wichtigen Unterstützer von OpenAI.

Einer dieser Giganten könnte sogar der erste sein, der die Singularität erreicht, die kritische Schwelle, an der die maschinelle Intelligenz die menschliche Intelligenz übertrifft. Johansson kam schließlich im Film dorthin. Einige Datenwissenschaftler und Experten sagen, dass dies auch im wirklichen Leben passieren kann, und glauben, dass dies angesichts der rasanten Geschwindigkeit der Entwicklung innerhalb der nächsten sieben Jahre der Fall sein könnte.

Übersetzung: Es gibt viel zu tun und nicht viel Zeit.

Melden Sie sich täglich für WWD-News direkt in Ihrem Posteingang an

AKTIE