Consulting

Chancen und Risiken durch Künstliche Intelligenz

0
Chancen und Risiken von KI / © Micromata GmbH
Die Anwendung von KI-Tools bietet viele Chancen zur Automatisierung und zur Beschleunigung von Arbeitsschritten. Jedoch sollte man nicht blind auf die Antworten einer KI vertrauen und unerwartete Antworten ggf. prüfen. Eine Einschätzung der Spezialisten der Micromata GmbH.

Die rasante Entwicklung im Bereich der Künstlichen Intelligenz (KI oder AI) hat zu faszinierenden Innovationen geführt und quasi jeden Tag werden neue Anwendungen vorgestellt. Besonders der Fortschritt bei generativen KI-Modellen hat eine Vielzahl an Tools hervorgebracht, die unsere Arbeit nachhaltig beeinflussen. Mit Modellen wie Midjourney (1) oder DALL·E 2 (2) sind wir heute in der Lage, Bilder zu generieren, die von menschlicher Kunst kaum zu unterscheiden sind. Gleichzeitig haben wir mit ChatGPT (3), einen interaktiven Chatbot mit einer gigantischen Wissensbasis, der uns wie nie zuvor eine natürliche Konversation ermöglicht.

Dieser Zuwachs an generativen KI-Modellen eröffnet uns einige Chancen. Zum einen haben wir nun die Möglichkeit, Bilder durch eine KI generieren zu lassen, was die Grenzen der menschlichen Kreativität erweitert. Zum anderen können diese Modelle auch bei der Lösung komplexer Probleme helfen, beispielsweise bei der Softwareentwicklung, wo sie uns beim Debugging oder bei der Implementierung unterstützt. Gleichwohl gehen mit diesen Möglichkeiten, wie bei jeder Innovation, auch gewisse Gefahren einher, denen wir uns stellen müssen.

Chancen von KI
Die Chancen, die sich durch die rasante Entwicklung im Bereich KI entstehen, sind quasi grenzenlos. Allein in unserem alltäglichen Leben finden sich zahlreiche Anwendungszwecke. Hierzu zählen unter anderem das Verfassen von Texten, die Gelegenheit auf fachliche Fragen sofort Antwort zu bekommen, Grafiken zu erstellen, Dokumente zu übersetzen oder Softwareteile zu programmieren. Dadurch erweitern wir unsere eigenen Fähigkeiten, können unsere Produktivität steigern bzw. komplexe Aufgaben schneller und potentiell besser erledigen.

Mustererkennung mit KI
Ein möglicher Einsatzbereich von KI ist die Erkennung von Mustern in Daten, z. B. das Auffinden von Anomalien (Werte, die nicht zu den restlichen Daten passen). Hierbei kann eine automatisierte Suche die menschlichen Experten wirksam unterstützen und bisher unbekannte Zusammenhänge in den Daten finden.

Ein Beispiel hierfür ist die Auswertung und die Plausibilisierung von Daten verschiedener Sensoren (Temperatur, Druck, Strom usw.). Die Möglichkeiten zur Auswertung sind dabei vielfältig. Hierzu zählen unter anderem die Bestimmung von Korrelationen, Maxima bzw. Minima oder fehlenden Datenpunkte. Auf der einen Seite gewinnt man dadurch ein besseres Verständnis der Sensorwerte. Auf der anderen Seite kann man diese Erkenntnisse nutzen, um automatisierte Entscheidungen anhand der gefundenen Muster zu treffen.

Automatisierung mit KI
Ferner lässt sich die Automatisierung unterschiedlichster Aufgaben vorantreiben. Ein Beispiel dafür sind Chatbots. Sie können eingesetzt werden, um die Interaktion mit Nutzern zu automatisieren. Dabei können häufig gestellt Fragen zunächst durch den Chatbot beantwortet werden, ein menschliches Zutun ist erst bei komplexeren Fragen oder, falls persönliche Daten genutzt werden, erforderlich. Zusätzlich können Chatbots Prozesse einfacher und effizienter machen – wie bspw. das Onboarding neuer Mitarbeitender. Dafür können z. B. die unternehmensinternen Webseiten und Wikis als Datenquellen genutzt werden. Die Betreffenden können dann Fragen an den Chatbot stellen, welcher die passenden Antworten aus diesen Datenquellen erstellt.

Zusätzlich können Sprachmodelle genutzt werden, um das Erstellen von Dokumentationen zu großen Teilen zu automatisieren. Ein Nutzer liefert dazu eine Stichpunktsammlung und die KI vervollständigt diese Stichpunkte zu einem kompletten Beitrag, einer Beschreibung oder auch einer Dokumentation von Quellcode.

Barrierefreiheit mit KI
Darüber hinaus kann KI die Barrierefreiheit im Unternehmen erhöhen. Durch die Verwendung eines Large Language Models wie GPT können Texte übersetzt werden, Bilder für Screenreader beschrieben oder offene Fragen interaktiv beantwortet werden.

Medizinische Diagnostik mit KI
Ein weiteres vielversprechendes Anwendungsfeld ist die Unterstützung medizinischer Diagnosen. Beispiele sind die Erkennung von Krebszellen (4) oder die Simulation realer Patient:innen, an denen verschiedenste Szenarien durchexerziert werden und die Wirksamkeit von Therapien evaluiert werden können. (5)

Maschinelles Lernen mit KI
Als letztes Beispiel haben KI und Methoden des Maschinellen Lernens einen großen Einfluss auf die produzierenden Branchen. Die Anwendung von Predictive Maintenance (6) ermöglicht hier etwa eine Vorhersage von Ausfällen einzelner Maschinen, reduziert so das Risiko von Ausfallzeiten, ermöglicht eine rechtzeitige und verhindert eine unnötige Wartung.

Mehr noch kann KI zur Erhöhung der Sicherheit beim autonomen Fahren beitragen, beispielsweise durch die Echtzeiterkennung von Fußgänger:innen oder Radfahrenden im Straßenverkehr.

Die Chancen der KI-Anwendung sind also enorm. So groß, dass wir hier schwerlich alle möglichen Anwendungsfälle listen können. Damit indes KI für uns alle zur Erfolgsgeschichte wird, ist es hilfreich, sich auch die Risiken bewusst zu machen. Um uns selbst vor deren Missbrauch zu schützen und um unserer Verantwortung im Umgang mit dieser bahnbrechenden Technologie gerecht zu werden. (7)

Risiken von KI
Einige Risiken betrachten wir nun am Beispiel von ChatGPT (8), welches von OpenAi entwickelt wird. Ein reales Risiko sind Halluzinationen (9). Modelle wie GPT-3.5, GPT-4 oder ChatGPT neigen dazu, sich Fakten auszudenken bzw. Behauptungen aufzustellen. Der Grund dafür liegt im Large Language Model, welches die Grundlage für ChatGPT bildet. Hierbei handelt es sich um ein riesiges Neuronales Netz, das menschliche Sprache über Wahrscheinlichkeiten abbildet. Dieses Modell versteht folglich nicht den Inhalt der Anfragen, sondern bestimmt die wahrscheinlichste Antwort, die also nicht zwangsläufig auf Fakten beruhen muss. Die ausgegebenen Antworten klingen dabei häufig sehr überzeugend, wodurch die Gefahr besteht, dass sie als wahr angenommen werden und sich so Falschinformationen verbreiten.

Mögliche Ansätze zur Reduktion dieses Risikos ist das Prüfen der Aussagen durch Expert:innen oder durch Nutzende. Beide Gruppen melden potenzielle Fehlinformationen, die anschließend ein weiteres Mal geprüft werden. Dadurch wird in GPT ein Trainingsset erstellt, das in zukünftigen Trainingszyklen zur Vermeidung von Halluzinationen genutzt werden kann und somit die Qualität und die Zuverlässigkeit der Aussagen erhöht.

Neben Halluzinationen ist auch der einfache Zugang zu Harmful Content (potenziell schädlichen Inhalten) eine Herausforderung. Dies umfasst etwa Ratschläge oder Ermutigungen zu selbst verletzendem Verhalten, Anleitungen für gewalttätige Angriffe sowie Informationen zur Beschaffung oder Herstellung illegaler Substanzen. Um dieses Risiko zu minimieren, setzt OpenAi unter anderem auf Red Teaming.  Damit gemeint ist ein Vorgang, bei dem Experten versuchen, durch geschickt formulierte Eingaben an schädliche Inhalte zu gelangen und so Sicherheitslücken aufzudecken. Dabei kommen Expert:innen aus den unterschiedlichsten Bereichen zum Einsatz. Dazu zählen unter anderem solche aus Chemie, Biologie, Cybersecurity oder Nuklearkraft.

Ein weiteres potenzielles Risiko ist mangelnder Datenschutz. ChatGPT wurde mit öffentlich verfügbaren Informationen aus dem Internet trainiert. Daher enthält es auch persönliche Daten und ist sogar teilweise in der Lage, Telefonnummern mit Orten zu verknüpfen. OpenAi versucht, diese Art von Anfragen zu unterbinden und persönliche Daten aus dem Trainingsset zu entfernen. Wenn wir ChatGPT also mit unseren Systemen verknüpfen, sollten wir uns immer fragen: Welche Nutzer haben potenziell Zugriff auf die Daten? Welche Nutzer dürfen welche Informationen sehen? Ist das Übertragen der Daten DSGVO-konform? Wo werden die Daten gespeichert? Wie können Daten aus dem System entfernt werden?

KI-Tools bzw. Maschinelle Lernverfahren neigen dazu, Abkürzungen zu suchen, wenn der zugrunde liegende Datensatz es zulässt. Ein populäres Beispiel dafür ist die automatische Erkennung von Hautkrebs (10+11). Üblicherweise werden vom Arzt Fotos von potenziell bösartigen Muttermalen gemacht, deren Größe mit einem Lineal angezeigt wird. Da dies bei gutartigen Malen selten geschieht, kann das Neuronale Netz lernen, dass das Vorhandensein von Linealen auf ein bösartiges Muttermal hindeutet – und umgekehrt. Um darauf folgende Fehlentscheidungen zu vermeiden, sollte nur ein umfangreicher und ausgewogener Datensatz verwendet werden, der vorher von menschlichen Expert:innen gesichtet wurde. Wenn potenzielle Abkürzungen erkannt werden, können diese im späteren Training explizit verboten oder sogar als eigenständiges Trainingsfeature genutzt werden (dieses Feature sollte jedoch nicht das einzige Entscheidungskriterium sein).

Fazit
Die Anwendung von KI-Tools bietet viele Chancen zur Automatisierung und zur Beschleunigung von Arbeitsschritten. Jedoch sollte man nicht blind auf die Antworten einer KI vertrauen und unerwartete Antworten ggf. prüfen. (12) Zusätzlich sollten wir bedenken, welche Daten wir an KI-Tools weitergeben. Persönliche oder unternehmenskritische Daten sollten dabei besonders sensibel behandelt werden. Um die Kontrolle über die eigenen Daten zu behalten, empfiehlt sich das Hosten einer eigenen Instanz (z. B. GPT-3.5 in Microsoft Azure). Diese erlaubt die Nutzung eine Chatbots mit unternehmensrelevanten Daten und Informationen, ohne damit die KI zu füttern. Wir empfehlen diese Art der Integration, weil damit eine eigene Benutzerverwaltung, selbst definierte Zugriffsrechte und die sichere Nutzung von Unternehmensdaten ermöglicht werden.

Quellen

1: https://www.midjourney.com/

2: https://openai.com/blog/dall-e-2-extending-creativity

3: https://openai.com/chatgpt

4: https://www.nature.com/articles/s43856-022-00199-0

5: https://arxiv.org/abs/2305.13614

6: https://www.sciencedirect.com/science/article/pii/S0951832021003835

7: https://www.sciencedirect.com/science/article/abs/pii/S2213665722000537

8: https://arxiv.org/pdf/2303.08774.pdf

9: https://en.wikipedia.org/wiki/Hallucination_(artificial_intelligence)

10: https://menloml.com/2020/01/11/recognizing-a-ruler-instead-of-a-cancer/

11: https://pubmed.ncbi.nlm.nih.gov/31411641/

12: https://www.forbes.com/sites/mollybohannon/2023/06/08/lawyer-used-chatgpt-in-court-and-cited-fake-cases-a-judge-is-considering-sanctions/?sh=132750b57c7f

Verbraucher nutzen Technologien zum Sparen

Previous article

Fünf Tipps, um Kunden für E-Commerce zu gewinnen

Next article

You may also like

Kommentare

Kommentare sind geschlossen.

More in Consulting