KI-Systeme: Fortschritt oder Bedrohung? Unser SPARKS-Experte im Interview.

04.07.2023 13:13 Von Lukas

Philipp Burk

In unserem letzten Blogartikel haben wir über die möglichen Gefahren und den aktuellen Diskurs zu KI-Systemen berichtet. Um Licht ins Dunkel zu bringen, beantwortet Daniel Prokhorov die wichtigsten Fragen rund um das spannende Thema. Im Folgenden werden wir uns mit Themen wie dem aktuellen Stand der KI-Entwicklung, den Anwendungsbereichen, möglichen Gefahren, ethischen Fragen und der Zukunft von künstlicher Intelligenz auseinandersetzen.
Über Daniel Prokhorov:
Daniel Prokhorov ist als Software Experte im Bereich des Natural Languange Processing der Abteilung Forschung & Entwicklung bei der SPARKS Solutions GmbH tätig.
In seiner bisherigen Laufbahn entwickelte Herr Prokhorov verschiedene Software Module und Simulationen u.a. für Testautomatisierungssysteme,
Ansteuerungen unterschiedlicher Prüfsystemhardware sowie das Konzipieren modular aufgebauten HILs.

Wie schätzt du heute den Stand der KI-Entwicklung ein? Wo befinden wir uns wie schnell wird es jetzt gehen?

Wir befinden uns aktuell in einer „Large Language Model“ Hype-Phase, die im Wesentlichen durch die Einführung von ChatGPT ausgelöst wurde. Insbesondere weil das Sprachmodell für die breite Öffentlichkeit zugänglich ist. Mit dieser Entwicklung hat OpenAI bzw. Microsoft einen Coup gelandet. Seitdem gibt es im fast wöchentlich neue Sprachmodelle, wie z.B. BloombergGPT, welche die Idee von ChatGPT aufgreifen und sich in der jeweiligen spezifischen Domäne (hier Finanzen) versuchen zu etablieren.

Zudem erkennen wir den Trend, dass verschiedene KI-Modelle miteinander verbunden werden, um z.B. mit Bildern und Text (Multimodalität) umgehen zu können. Auch hier ist OpenAI mit der multimodalen GPT4 Vorreiter.
Die Open-Source-Community ist sehr aktiv in diesem Bereich und veröffentlicht täglich neue interessante Modelle. Besondere Aufmerksamkeit hat in letzter Zeit AutoGPT erlangt. Dieser „KI-Agent“ kann, wenn ihm ein Ziel in natürlicher Sprache vorgegeben wird, versuchen, dieses zu erreichen, indem er es in Teilaufgaben zerlegt und das Internet und andere Tools in einer automatischen Schleife nutzt. Er verwendet dabei die GPT4 oder GPT-3.5 APIs von OpenAI und ist eines der ersten Beispiele für eine Anwendung, die GPT4 zur Ausführung autonomer Aufgaben verwendet.

In welchen Bereichen könnte künstliche Intelligenz dazu beitragen, unser tägliches Leben zu verbessern und welche konkreten Anwendungen gibt es bereits?

Grundsätzlich kann ChatGPT und CoPilot dort eingesetzt werden, wo Text entweder extrahiert oder generiert werden soll. Als Softwareentwickler profitieren wir bereits von diesen Technologien, da sie uns helfen, Code zu schreiben oder Korrektur zu lesen. Microsoft plant, basierend auf GPT4, die Integration dieser Technologie in ihre Office-Produkte. Dadurch ergeben sich zahlreiche Möglichkeiten, vor allem in kaufmännischen Berufen, die Produktivität signifikant zu steigern. Einige der Funktionen umfassen die Generierung von Text in Dokumenten, die Erstellung von PowerPoint-Präsentationen aus Word-Dokumenten sowie die Nutzung von Excel-Funktionen, die vielen Nutzern nicht bekannt sind, wie zum Beispiel Pivot-Tabellen.

Welche Gefahren bestehen deiner Meinung nach im Zusammenhang mit der Nutzung von künstlicher Intelligenz?

Es gibt sicherlich einige Herausforderungen und Risiken im Zusammenhang mit der Anwendung von künstlicher Intelligenz. Eine der größten Herausforderungen ist die fehlende Transparenz von KI-Systemen. Durch ihre komplexe Struktur und ihren Lernprozess können KI-Systeme oft nicht nachvollziehbar sein, was zu unerwarteten und unerwünschten Ergebnissen führen kann. 

Ein weiteres Problem sind mögliche Verzerrungen in KI-Systemen, die aufgrund ihrer Programmierung oder der Daten, auf denen sie basieren, reproduziert und verstärkt werden können. Ein Beispiel hierfür ist der Algorithmus zur Vorhersage der Rückfallwahrscheinlichkeit von Straftätern, der aufgrund von Verzerrungen in den zugrunde liegenden Daten rassistische Ergebnisse produziert hat. Schließlich birgt die Fähigkeit von KI, realistische Bilder, Videos und Audioaufnahmen zu erstellen, das Risiko von Manipulationen und Fälschungen. Insbesondere können Deepfakes verwendet werden, um gefälschte Nachrichten, Desinformationen, politische Manipulationen und Propaganda zu verbreiten. 

Die Fähigkeit von KI, realistische Bilder, Videos und Audioaufnahmen zu erstellen, birgt das Risiko von Manipulationen und Fälschungen. Insbesondere können Deepfakes verwendet werden, um gefälschte Nachrichten, Desinformationen, politische Manipulationen und Propaganda zu verbreiten.

In einem offenen Brief haben Tech-Größen den vollständigen Entwicklungsstopp von mächtigen KI-Systemen gefordert. Wie stehst du dazu?

Meiner Meinung nach wäre ein vollständiger Entwicklungsstopp von mächtigen KI-Systemen zu drastisch. Es gibt viele legitime Anwendungsfälle für KI-Systeme, die Probleme in verschiedenen Bereichen lösen können. Dennoch sollten wir uns der möglichen Risiken und Auswirkungen auf die Gesellschaft bewusst sein. Der offene Brief zeichnet jedoch vor allem ein pessimistisches, spekulatives und dystopisches Bild von den Risiken von KI-Anwendungen, während reale Probleme meiner Meinung nach nicht ausreichend angesprochen werden.

Wie können wir sicherstellen, dass KI-Systeme ethisch und verantwortungsvoll eingesetzt werden?

Ich habe mich bisher wenig mit dieser Thematik auseinandergesetzt, da es ein sehr komplexes Thema mit vielen unterschiedlichen Perspektiven und Ansätzen ist. Dennoch gibt es eine wachsende Anzahl von Forschungsarbeiten und Initiativen, die sich damit beschäftigen und Wege aufzeigen, wie wir sicherstellen können, dass KI-Systeme ethisch und verantwortungsvoll eingesetzt werden.

Teilst du die Sorge, dass KI-Systeme für die Erstellung und Verbreitung von Propaganda oder Fake News missbraucht werden könnten und gibt es Maßnahmen die abzuwenden?

Die Verbreitung von Propaganda und Falschinformationen ist ein ernstes Problem. Wir können die Effektivität von KI-Systemen verbessern, indem wir sie trainieren, gefälschte Informationen und Propaganda zu erkennen und zu entfernen. Eine Erhöhung der Medienkompetenz bei den Nutzern ist ebenfalls von Bedeutung, um das Risiko von Desinformation und Propaganda zu reduzieren.

Wie stehst du zur stärkeren Regulierung und der Aufsicht von KI-Systemen durch Regierungen und andere Institutionen?

Grundsätzlich sind Regulierungen sinnvoll, vorausgesetzt sie sind flexibel genug, um den Fortschritt und die Bedürfnisse der Gesellschaft zu berücksichtigen, ohne dabei Innovationen zu hemmen. Allerdings sollten sie nicht in Form von Verboten auftreten, wie es jüngst Italien mit ChatGPT gemacht hat. Deutschland sollte diesem Beispiel nicht folgen, da man ansonsten weiterhin „Faxrepublik“ bleibt.

Wie können wir sicherstellen, dass KI-Systeme keine Diskriminierung oder Ungleichheit lernen und entwickeln?

Es gibt mehrere Möglichkeiten, um sicherzustellen, dass KI-Systeme keine Diskriminierung oder Ungleichheit lernen und entwickeln. Eine besteht darin, die Ausgangs- und Verarbeitungsqualität der genutzten Daten sicherzustellen und das daraus resultierende KI-Ergebnis transparent nachvollziehbar und effektiv kontrollierbar zu gestalten. Eine weitere Möglichkeit besteht darin, die KI-Ausbildung und -Entwicklung gezielt diversitäts- und geschlechtersensitiv auszugestalten, um sicherzustellen, dass die entstehenden Modelle und Anwendungen die Vielfalt und Komplexität unserer Gesellschaft widerspiegeln und nicht unbewusst Stereotypen oder Vorurteile reproduzieren.

Die UNESCO KI-Ethik-Empfehlung von 2021 adressiert beide Herausforderungen und schlägt Mechanismen vor, die eine Diskriminierung durch KI-Systeme verhindern sollen.

Abschließend, wie siehst du das Thema in 10 Jahren? Wo werden wir dann stehen und wie haben sich KI-Systeme bis dahin entwickelt?

Die Entwicklungen in diesem Bereich sind von einem sehr hohen Tempo geprägt, und ihre Auswirkungen, sowohl auf gesellschaftlicher als auch auf technischer Ebene, sind daher nur schwer abzuschätzen, insbesondere im Hinblick auf einen Zeitraum von einer ganzen Dekade. Für mich steht jedoch sicher fest, dass sich der Schwerpunkt in einigen Berufen von der ursprünglichen Tätigkeit stark verlagern wird und neue Fähigkeiten erlernt werden müssen. 

Es ist zudem sehr wahrscheinlich, dass KI-Systeme immer besser darin werden, menschliche Fähigkeiten wie Sprachverarbeitung, Bilderkennung und Entscheidungsfindung zu imitieren. Dies könnte dazu führen, dass KI in vielen Bereichen eingesetzt wird, um menschliche Arbeit zu ergänzen, indem Routineaufgaben automatisiert werden und die Produktivität generell gesteigert wird. Es ist auch möglich, dass sich die Forschung auf die Entwicklung von KI-Systemen konzentriert, die in der Lage sind, selbstständig zu lernen und sich weiterzuentwickeln.  In jedem Fall ist es wichtig, dass wir uns mit den ethischen Fragen und Gefahren auseinandersetzen, die sich aus dem Einsatz von KI ergeben.
Vielen Dank für das spannende Interview!

Lukas