Während das Wachstums- und Innovationspotenzial enorm ist, bestehen auch Risiken und ethische Implikationen.
Generative KI produziert Inhalte, bei denen die Grenze zwischen real und künstlich verschwimmt, wodurch die Frage nach der ethischen Verantwortung der Ersteller und Nutzer aufgeworfen wird. Ein wachsendes Geflecht ethischer Erwägungen entsteht, wenn die Technologie allgegenwärtig wird und die Menschen sich immer mehr auf KI-generierte Inhalte verlassen.
Der Umgang mit diesen Fragen erfordert ein gründliches Verständnis der der generativen KI zugrunde liegenden Prinzipien und Prozesse, denn hier werden die ethischen Erwägungen in die Rahmenwerke integriert.
Ohne ein tiefes Verständnis und eine sorgfältige Regulierung der KI sind wir Risiken ausgesetzt, wie z. B. Genauigkeit und Fehlinformationen, Voreingenommenheit, Risiken für das geistige Eigentum und Halluzinationen. Darüber hinaus ist eine solide ethische Grundlage für generative KI unerlässlich, um gesellschaftliches Vertrauen zu schaffen und künftige Fortschritte zu fördern.
Gehen wir näher auf einige dieser Risiken ein:
Laut einem aktuellen McKinsey-Bericht ist eines der grössten Risiken für Unternehmen, die generative KI einsetzen, mangelnde Genauigkeit (56 %).
Dies kann von der Übermittlung falscher Informationen an einen Kunden bis hin zu falschen Daten in Compliance-Dokumenten reichen, was weitaus kostspieligere und rechtliche Konsequenzen haben kann.
Generative KI-Modelle wie ChatGPT werden auf Datensätzen mit Hunderten von Milliarden von Parametern trainiert. Die Antworten auf Fragen und Aufforderungen können jedoch Ungenauigkeiten enthalten, wenn z. B. die verwendeten Eingaben veraltet, unvollständig oder ungenau sind.
Viele generative KI-Modelle, insbesondere solche für grosse Sprachen, hängen von älteren Eingaben ab und arbeiten ab einem bestimmten «Wissensstichtag» – dem Datum, an dem das KI-Modell zuletzt aktualisiert wurde. Alle Informationen, die nach diesem Datum verfügbar sind, würden nicht in den Ergebnissen erscheinen. Daher ist die Transparenz des Stichtags und die Sensibilisierung der Nutzer von entscheidender Bedeutung, um derartige Risiken zu minimieren.
Informationsungenauigkeiten können auch durch die Beschränkungen der Trainingsdaten entstehen. Generative KI arbeitet nur innerhalb der Grenzen der ihr zur Verfügung stehenden Daten. Es kann schwierig sein, ein umfassendes kontextuelles Bewusstsein zu schaffen, wenn die benötigten Informationen ausserhalb der Trainingsdaten liegen. Dies kann zu Antworten führen, denen es an Nuancen und kontextuellem Verständnis fehlt.
-
Risiken der Voreingenommenheit
In den Algorithmen und Datensätzen generativer KI-Modelle können gesellschaftliche Vorurteile eingebettet sein, die zu einer voreingenommenen Inhaltserstellung oder Entscheidungsfindung führen und Vorurteile und diskriminierende Narrative gegenüber bestimmten Gruppen aufrechterhalten.
Der Umgang mit Voreingenommenheit ist eine grosse Herausforderung, da generative KI immer mehr Verbreitung findet. Zu den Minderungsstrategien gehören eine vielfältigere Datenauswahl und menschliche Wachsamkeit mit kontinuierlicher Überwachung der Ergebnisse.
-
Risiken im Bereich des geistigen Eigentums
Die Verletzung von Urheberrechten steht im McKinsey-Risikobericht mit 46 % ebenfalls hoch im Kurs. Es gibt mehrere öffentlichkeitswirksame Fälle, in denen KI-Tools urheberrechtlich geschütztes Material ohne die Zustimmung des Urhebers integriert haben. Kürzlich verklagte die New York Times OpenAI und Mircosoft wegen Urheberrechtsverletzungen im Zusammenhang mit Millionen von Zeitungsartikeln, die zum Training von Chatbots verwendet wurden.
Aufgrund ihres komplexen Charakters stellt generative KI die traditionellen Normen und Vorschriften zum Schutz des geistigen Eigentums vor zahlreiche Herausforderungen. Die Gerichte erwägen nun, die bestehenden Gesetze auf generative KI-Inhalte anzuwenden.
Abgesehen von Urheberrechtsverletzungen stellen sich Fragen der Lizenzierung, der Nutzungsrechte, des Plagiats und des Eigentums an KI-generierten Werken.
KI-Modelle verwenden Hunderte von Milliarden von Datensätzen zum Training und lernen, Vorhersagen zu treffen, indem sie Muster finden. Nehmen wir jedoch an, wir füttern sie mit falschen oder unvollständigen Annahmen. In diesem Fall kann das Modell falsche Muster lernen und eklatant falsche Informationen als Fakten präsentieren, was als Halluzinationen bezeichnet wird. Den Modellen fehlt das logische Denken oder die Fähigkeit, die von ihnen gelieferten widersprüchlichen Daten zu berücksichtigen.
Halluzinationen können Menschen in die Irre führen, Voreingenommenheit und Fehlinformationen verbreiten und in einem geschäftlichen Umfeld den Ruf schädigen und das Vertrauen untergraben.
Das Auftauchen von generativen Modellen wie ChatGPT und DALL-E von OpenAI hat die Debatte über die ethischen Aspekte der KI in den Vordergrund gerückt.
Zu diesen Überlegungen gehören Transparenz und Verantwortlichkeit – KI-Systeme arbeiten oft in einer «Black Box», in der die Nutzer nicht sehen können, wie Deep-Learning-Systeme zu ihren Entscheidungen kommen. Dies kann sich beispielsweise im Gesundheitswesen auswirken, wo es von entscheidender Bedeutung ist zu verstehen, wie Entscheidungen getroffen werden. Ebenso ist es notwendig, die Verantwortlichkeit zu klären und Korrekturmassnahmen zu ergreifen, wenn etwas schief läuft.
Es bestehen Risiken in Bezug auf den Datenschutz und die Datensicherheit. Da generative KI grosse Mengen personenbezogener und sensibler Daten verarbeitet, können Unternehmen, die dem keine Priorität einräumen, gegen gesetzliche Vorschriften wie die europäische Datenschutz-Grundverordnung verstossen und mit ernsthaften Konsequenzen rechnen. Um dies zu vermeiden, müssen sie robuste Sicherheitsvorkehrungen wie Datenverschlüsselung und Zugangskontrollen implementieren und regelmässige Sicherheitsüberprüfungen durchführen.
Auch die Nachhaltigkeit ist Teil der ethischen Diskussion – die Ausbildung grosser Sprachmodelle (LLM) verbraucht enorme Mengen an Wasser und Strom und hat einen grossen ökologischen Fuaaabdruck. Bevor ein solches System eingeführt wird, müssen die Unternehmen die Umweltauswirkungen ihres Handelns abwägen.
Die wirtschaftlichen und betrieblichen Auswirkungen
Wir haben gesehen, dass generative KI ein enormes Potenzial zur Steigerung von Produktivität und Effizienz in allen Sektoren bietet. Welche wirtschaftlichen Auswirkungen hat dies?
In einem Bericht aus dem Jahr 2023 schätzt McKinsey, dass sich der wirtschaftliche Gesamtnutzen der generativen KI auf 6,1 bis 7,9 Billionen Dollar jährlich belaufen könnte. 75 % des Wertes werden aus den Bereichen Kundenservice, Marketing und Vertrieb, Softwaretechnik sowie Forschung und Entwicklung stammen.
Ein erheblicher Nutzen ergibt sich aus der Produktivitätssteigerung, insbesondere bei internen Prozessen, wo generative KI die Fähigkeiten der Arbeitnehmer durch die Automatisierung einiger ihrer Tätigkeiten erweitern könnte. Dies kann die Art der Arbeit verändern und sich auf die Gesellschaft auswirken, wenn Wissensarbeiter sich anderen Aufgaben zuwenden und sich auf neue Rollen einstellen.
Auch wenn es verlockend ist, inmitten des Hypes und der Aufregung generative KI vollständig in Ihrem Unternehmen zu implementieren, sollten Sie zunächst einige Faktoren berücksichtigen.
Vergewissern Sie sich, dass der Nutzen der Implementierung des Systems die Kosten rechtfertigt. Das Training eines grossen generativen KI-Modells ist teuer. Es kann auch zusätzliche Infrastruktur und Wartung erfordern, was die Kosten weiter in die Höhe treibt. Darüber hinaus können sich diese Aktivitäten negativ auf die Nachhaltigkeitsziele Ihres Unternehmens auswirken.
Daher ist es wichtig, im Vorfeld eine Kosten-Nutzen-Analyse durchzuführen. Sie könnten zum Beispiel feststellen, dass ein kleineres LLM Ihren Bedarf zu einem Bruchteil der Kosten und mit geringeren Umweltauswirkungen decken kann.
Jedes Unternehmen hat andere Bedürfnisse und Ziele. Es ist ratsam, generative KI als ein strategisches Werkzeug in Ihrem Werkzeugkasten zu sehen und die beste Lösung für Ihre Unternehmensziele zu finden.