Categories: BlogKI im Geschäft

6 größte Geschäftsfehler, die durch KI verursacht wurden | KI im Geschäft #58

Wie vermeidet man geschäftliche Missgeschicke bei der Implementierung von KI?

Geschäftliche Missgeschicke in der KI können ernsthafte Konsequenzen für Unternehmen haben, daher müssen maschinelle Lernsysteme sehr sorgfältig getestet werden, bevor sie auf den Markt gebracht werden. Andernfalls können große Investitionen in neue Technologien in einer erheblichen finanziellen und reputativen Katastrophe enden.

Wie vermeidet man also geschäftliche Missgeschicke bei der Implementierung von künstlicher Intelligenz? Während der erste Ratschlag zu einfach erscheinen mag, um zu funktionieren, lautet er: “Achten Sie auf die Datenqualität!”

Der zweite Ratschlag betrifft umfangreiche Tests in einer geschlossenen Umgebung, bevor das Tool der Öffentlichkeit zugänglich gemacht wird. Sie sollten nicht nur die technische Leistung des Tools testen, sondern auch dessen:

  • ethische Konformität — das Ziel der Tests ist es, die Vorurteile und Stereotypen, die von KI reproduziert werden, zu reduzieren,
  • rechtliche Konformität — Überprüfung, dass die von KI-Tools verwendeten Daten sowie die von ihnen generierten Inhalte den Gesetzen des Landes entsprechen.

Sogar die Giganten im Bereich der künstlichen Intelligenz befolgen diesen Rat heute nicht und bringen Chatbots auf den Markt, die als “frühe Experimente” oder “Forschungsprojekte” gekennzeichnet sind. Doch mit der Reifung der Technologie und dem Inkrafttreten von Gesetzen zur Nutzung künstlicher Intelligenz werden diese Probleme drängender.

Google Fotos

Die Liste der geschäftlichen Missgeschicke im Zusammenhang mit der Nutzung künstlicher Intelligenz beginnt mit einem Fall aus dem Jahr 2015. Damals wurde die Google Fotos-App, die eine frühe Version von künstlicher Intelligenz zur Bilderkennung (Computer Vision) verwendete, fälschlicherweise Fotos von schwarzen Menschen als Fotos von Gorillas gekennzeichnet. Dieses geschäftliche Missgeschick geschah, weil der Trainingsdatensatz, der verwendet wurde, um den Algorithmus zu schulen, zu wenige Fotos von schwarzen Menschen enthielt.

Darüber hinaus hatte Google ein ähnliches Problem mit einer Nest-Smart-Home-Kamera, die einige dunkelhäutige Personen fälschlicherweise als Tiere identifizierte. Diese Vorfälle zeigen, dass Systeme zur Computer Vision immer noch Schwierigkeiten haben, die Merkmale verschiedener Rassen zu erkennen.

Geschäftliche Missgeschicke: Altersdiskriminierung

Im Jahr 2023 stimmte die iTutor Group zu, 365.000 Dollar zu zahlen, um eine Klage über die Verwendung diskriminierender Rekrutierungssoftware zu begleichen. Es wurde festgestellt, dass die Software automatisch weibliche Kandidaten über 55 Jahre und Kandidaten über 60 Jahre ablehnte, ohne deren Erfahrung oder Qualifikationen zu berücksichtigen.

Amazon erlitt ähnliche geschäftliche Missgeschicke. Bereits 2014 arbeitete das Unternehmen an KI, um den Einstellungsprozess zu unterstützen. Das System hatte Schwierigkeiten, die Lebensläufe weiblicher Kandidaten zu bewerten, da es aus Daten lernte, die hauptsächlich Dokumente von Männern enthielten. Infolgedessen gab Amazon das Projekt zur Implementierung künstlicher Intelligenz im Prozess auf.

Diese Fälle zeigen, dass die Automatisierung des Rekrutierungsprozesses das Risiko birgt, Vorurteile zu perpetuieren und Kandidaten unfair zu behandeln.

Quelle: DALL·E 3, Eingabeaufforderung: Marta M. Kania (https://www.linkedin.com/in/martamatyldakania/)

ChatGPT erfindet falsche Gerichtsurteile

Ein weiterer Fall ist sehr aktuell. Im Jahr 2023 verwendete der Anwalt Steven A. Schwartz ChatGPT, um frühere Rechtsfälle für eine Klage gegen die Fluggesellschaft Avianca zu finden. Es stellte sich jedoch heraus, dass mindestens sechs der von der KI bereitgestellten Fälle falsch waren – sie enthielten falsche Namen, Fallnummern und Zitationen.

Dies geschah, weil große Sprachmodelle (LLM) halluzinieren, d.h. sie erstellen wahrscheinliche Antworten, wenn sie die richtigen Fakten nicht finden können. Daher ist es notwendig, ihre Antworten jedes Mal zu überprüfen. Und Schwartz übersprang diesen Schritt. Deshalb wurde er von dem Richter mit 5.000 Dollar wegen “grober Fahrlässigkeit” bestraft.

Geschäftliche Missgeschicke: Apple Watch, die bei Menschen mit dunklerer Haut nicht richtig funktioniert

Laut einer Sammelklage aus dem Jahr 2021 funktioniert die Blutsauerstoff-App auf der Apple Watch bei Menschen mit dunkleren Hauttönen nicht richtig. Apple behauptet, die App an einer “breiten Palette von Hauttypen und -tönen” getestet zu haben, aber Kritiker sagen, dass die Technologiegeräte immer noch nicht mit dunkelhäutigen Menschen im Hinterkopf entwickelt wurden.

Quelle: DALL·E 3, Eingabeaufforderung: Marta M. Kania (https://www.linkedin.com/in/martamatyldakania/)

Zillow im Immobilienbereich

Zillow, ein Immobilienunternehmen, startete 2018 Zillow Offers, ein Programm zum Kauf von Häusern und deren schnellem Wiederverkauf. CNN berichtete, dass Zillow seit seiner Einführung im April 2018 27.000 Häuser gekauft, aber bis Ende September 2021 nur 17.000 verkauft hatte. Zillow gab an, dass das geschäftliche Missgeschick durch die Nutzung künstlicher Intelligenz verursacht wurde. Der Algorithmus sagte die Hauspreise falsch voraus, was dazu führte, dass Zillow zu viel für Käufe bezahlte. Obwohl das Unternehmen das Programm sofort einstellte, musste es 25 Prozent seiner Mitarbeiter entlassen. Durch den unbeabsichtigten Kauf von Häusern zu Preisen, die höher waren als die aktuellen Schätzungen zukünftiger Verkaufspreise, verzeichnete das Unternehmen einen Verlust von 304 Millionen Dollar.

Microsofts rassistischer Chatbot

Im Jahr 2016 veröffentlichte Microsoft einen experimentellen KI-Chatbot namens Tay. Er sollte durch Interaktion mit Twitter (jetzt X) Nutzern lernen. Innerhalb von 16 Stunden “lernte” Tay, beleidigende, rassistische und sexistische Tweets zu posten. Twitter-Nutzer provozierten den Bot absichtlich, der nicht über die richtigen Sicherheitsmechanismen verfügte, die heute in Chatbots wie ChatGPT, Microsoft Copilot und Google Bard verwendet werden. Microsoft deaktivierte den Bot schnell und entschuldigte sich für den Vorfall, aber Tay ist eines von Microsofts größeren geschäftlichen Missgeschicken.

Ein Chatbot-Missgeschick ereignete sich auch bei Google, das 2020 einen Bot namens Meena veröffentlichte. Meta (ehemals Facebook) konnte ebenfalls einen ähnlichen Fehler nicht vermeiden. Im August 2022 startete es einen neuen KI-Chatbot namens BlenderBot 3, der dazu gedacht war, mit Menschen zu chatten und aus diesen Interaktionen zu lernen.

Innerhalb weniger Tage nach seiner Veröffentlichung gab es Berichte darüber, dass der Chatbot beleidigende, rassistische und faktisch falsche Aussagen in Gesprächen machte. Zum Beispiel behauptete er, dass Donald Trump die US-Wahlen 2020 gewonnen habe, verbreitete antisemitische Verschwörungstheorien und kritisierte Facebook.

Wenn Ihnen unsere Inhalte gefallen, treten Sie unserer aktiven Community auf Facebook, Twitter, LinkedIn, Instagram, YouTube, Pinterest, TikTok.

Robert Whitney

JavaScript-Experte und Dozent, der IT-Abteilungen schult. Sein Hauptziel ist es, die Produktivität des Teams zu steigern, indem er anderen beibringt, wie man effektiv beim Programmieren zusammenarbeitet.

View all posts →

Robert Whitney

JavaScript-Experte und Dozent, der IT-Abteilungen schult. Sein Hauptziel ist es, die Produktivität des Teams zu steigern, indem er anderen beibringt, wie man effektiv beim Programmieren zusammenarbeitet.

Share
Published by
Robert Whitney

Recent Posts

Die Rolle von KI in der Inhaltsmoderation | KI im Geschäft #129

Unternehmen haben Schwierigkeiten, eine große Menge an Inhalten zu verwalten, die online veröffentlicht werden, von…

4 days ago

Sentiment-Analyse mit KI. Wie hilft sie, Veränderungen im Geschäft voranzutreiben? | KI im Geschäft #128

In der Ära der digitalen Transformation haben Unternehmen Zugang zu einer beispiellosen Menge an Daten…

4 days ago

Beste KI-Transkriptionstools. Wie verwandelt man lange Aufnahmen in prägnante Zusammenfassungen? | KI im Geschäft #127

Wussten Sie, dass Sie die Essenz einer mehrstündigen Aufnahme aus einem Meeting oder einem Gespräch…

4 days ago

KI-Videoerstellung. Neue Horizonte in der Videoinhaltsproduktion für Unternehmen | KI im Geschäft #126

Stellen Sie sich eine Welt vor, in der Ihr Unternehmen ansprechende, personalisierte Videos für jeden…

4 days ago

LLMOps, oder wie man Sprachmodelle effektiv in einer Organisation verwaltet | KI im Geschäft #125

Um das Potenzial von großen Sprachmodellen (LLMs) vollständig auszuschöpfen, müssen Unternehmen einen effektiven Ansatz zur…

4 days ago

Automatisierung oder Augmentierung? Zwei Ansätze zur KI in einem Unternehmen | KI im Geschäft #124

Im Jahr 2018 hatte Unilever bereits eine bewusste Reise begonnen, um Automatisierungs- und Erweiterungsfähigkeiten in…

4 days ago