Advanced AI: Was kommt auf uns zu und wie können wir uns vorbereiten?
Veröffentlicht am
18.06.2024
Ob die Kunst das Leben imitiert, oder ob es am Ende doch die Kunst ist, die uns zu unserem Handeln inspiriert? Darüber lässt sich streiten. Und es lässt sich eine wunderbare Analogie zur aktuellen Entwicklung Künstlicher Intelligenz herstellen. Wer weiß schon, ob die Ergebnisse, die uns gegenwärtig in Form von verschiedenen LLMs präsentiert werden, lediglich die maschinelle Interpretation der Essenz unseres Daseins ist – oder ob sich da eine Generative Künstliche Intelligenz entwickelt, die sich unserer Errungenschaften annimmt, sie sogar erweitert und uns – wie aktuell so oft prognostiziert – überholen wird?
Sind unsere Erwartungshaltungen angemessen?
Wie kann man die schier unendlichen Möglichkeiten der KI-Tools, die scheinbar wöchentlich aufpoppen, auf das Wesentliche und notwendige Herunterbrechen und in unsere Gesellschaft und Firmen integrieren? Ich habe es in meiner täglichen Arbeit als selbständiger Berater gesehen: Schon jetzt sind die meisten Unternehmen heillos überfordert, allein wenn es um die Wahl des richtigen Tools geht. Selbst jene, die noch vor einem Jahr selbst eine KI entwickeln wollten, sind angesichts der notwendigen Datenfülle und des Aufwands wieder davon abgekommen.
Was in der Natur der Sache ist: Nach ca. 50 Jahren intensiver Arbeit an künstlicher Intelligenz, wurde mit ChatGPT keine Wunderlampe entdeckt, viel mehr demonstriert ChatGPT eindrucksvoll, wie Ressourcenintensiv die Entwicklung von Systemen mit KI ist. Und es zeigt, wohin man nach Jahrzehntelanger Forschungs- und Entwicklungsarbeit gelangen kann. Besonders seitdem 2017 ein erheblicher Sprung durch die Einführung der Transformer model gemacht wurde und zeitgleich die Chips schneller geworden sind. Diese Kombination aus verbessertem Model und schnellerer Rechenleistung haben die Fähigkeiten der LLM von Open AI zu dem gemacht, was heute als Ursprung des aktuellen AI-Booms (der eigentlich ein Boom der LLMs ist) bezeichnet werden kann. Doch was, wenn nun in den kommenden Jahren die GenAIs sich ebenso rasant entwickeln (wovon auszugehen ist)? OpenAI und Google haben erst kürzlich mit ihren Updates (etwa auf ChatGPT4o) demonstriert, wozu ihre Modelle in der Lage sind. Sie werden zum Alltagsassistenten. Und damit stellt sich sofort die Frage: Wie vertrauenswürdig ist so eine KI?
Was in der Natur der Sache ist: Nach ca. 50 Jahren intensiver Arbeit an künstlicher Intelligenz, wurde mit ChatGPT keine Wunderlampe entdeckt, viel mehr demonstriert ChatGPT eindrucksvoll, wie Ressourcenintensiv die Entwicklung von Systemen mit KI ist. Und es zeigt, wohin man nach Jahrzehntelanger Forschungs- und Entwicklungsarbeit gelangen kann. Besonders seitdem 2017 ein erheblicher Sprung durch die Einführung der Transformer model gemacht wurde und zeitgleich die Chips schneller geworden sind. Diese Kombination aus verbessertem Model und schnellerer Rechenleistung haben die Fähigkeiten der LLM von Open AI zu dem gemacht, was heute als Ursprung des aktuellen AI-Booms (der eigentlich ein Boom der LLMs ist) bezeichnet werden kann. Doch was, wenn nun in den kommenden Jahren die GenAIs sich ebenso rasant entwickeln (wovon auszugehen ist)? OpenAI und Google haben erst kürzlich mit ihren Updates (etwa auf ChatGPT4o) demonstriert, wozu ihre Modelle in der Lage sind. Sie werden zum Alltagsassistenten. Und damit stellt sich sofort die Frage: Wie vertrauenswürdig ist so eine KI?
Mensch vs. Maschine: Eine Symbiose wird fällig
Wenn wir uns künftig blind auf diese Systeme und Tools verlassen wollen, braucht es klare Regeln und transparentere Kommunikation. Ein Beispiel: Die so genannten „Halluzinationen“ von KI-Modellen sind immer noch ein großes Problem. Während Chat GPT 2023 sich damit entschuldigt hat, dass die falschen Antworten durch die abrupt steigende Anzahl der User (und Inputs) zu tun habe, fragt man sich als Außenseiter ein Jahr später: Wann wird es besser? Und hier kann man als „Insider“ behaupten: Jeden Tag ein bisschen. Meiner Meinung nach erwarten sich die meisten Menschen allerdings nach wie vor zu viel bzw. das Falsche von Künstlichen Intelligenzen.
Das wurde mir spätestens in einem unserer Workshops zum Thema Prompt Engineering klar. Die vielen Enttäuschungen rühren oft von sehr ungenauen Inputs der Anwender. Wie immer bestätigt sich die alte IT-Weisheit aka Akronym „PEBKAC“: Problem exists between keyboard and chair. Zu wissen, wie KI-Systeme arbeiten, wie Tokens erzeugt und verwendet werden half mir dabei, meine eigenen Prompts zu verbessern und zu verstehen, worauf es – zumindest bei LLMs – ankommt.
Das wurde mir spätestens in einem unserer Workshops zum Thema Prompt Engineering klar. Die vielen Enttäuschungen rühren oft von sehr ungenauen Inputs der Anwender. Wie immer bestätigt sich die alte IT-Weisheit aka Akronym „PEBKAC“: Problem exists between keyboard and chair. Zu wissen, wie KI-Systeme arbeiten, wie Tokens erzeugt und verwendet werden half mir dabei, meine eigenen Prompts zu verbessern und zu verstehen, worauf es – zumindest bei LLMs – ankommt.
Menschliche Kommunikations-Skills sind wieder gefragt
Beispiel: Auch wenn etwa CO-Pilot verspricht, aus E-Mails zwischen Kollegen eine PowerPoint kreieren zu können: Wenn die Inputs nicht klar strukturiert sind, kann sich auch die beste KI nichts aus den virtuellen Fingern saugen. Um beim Beispiel der Co-Pilot Präsentation basierend auf Mails zu bleiben: Die menschlichen Kollegen haben eine Fähigkeit, die sich – aktuell noch – von der KI unterscheidet. Sie können sich auch auf Basis weniger Fakten vorstellen, wie die Präsentation bereits fertig aussehen kann, was darin enthalten sein soll und wie sie gestaltet sein soll. Co-Pilot kann das nicht. Es ist auf die Inhalte angewiesen, die er in den Mails findet. Wenn diese nur unzureichend strukturiert sind und beispielsweise aus unzusammenhängenden Satzkonstruktionen bestehen, kann er nur eine Präsentation auf Basis dieser Inhalte liefern.
Die menschlichen Kollegen wiederum können ihre Vorstellung von der Präsentation auch mit dem Kontext ihrer Berufserfahrungen anreichern. Für mich bedeutet das: Wir müssen nicht nur eine bessere Kommunikation mit AI lernen, sondern eine bessere und klarere Kommunikation allgemein. Insofern könnte uns die AI-Revolution möglicherweise eine große Hilfe im Umgang miteinander werden. Auch wird Prompt Engineering meiner Meinung nach eine der bedeuteten Skills der Zukunft – egal wie generativ eine AI auch wird. Und damit sind wir bei alten Dogma der Kommunikationswelt: „Kommunikation entscheidet immer der Empfänger.“ Hier sehe ich aktuell ein allzu menschliches Problem als Ursache für viele schlechte Ergebnisse durch KI: Zu viele sprechen den AI-Models ein allzu übermenschliches Denken zu.
Die menschlichen Kollegen wiederum können ihre Vorstellung von der Präsentation auch mit dem Kontext ihrer Berufserfahrungen anreichern. Für mich bedeutet das: Wir müssen nicht nur eine bessere Kommunikation mit AI lernen, sondern eine bessere und klarere Kommunikation allgemein. Insofern könnte uns die AI-Revolution möglicherweise eine große Hilfe im Umgang miteinander werden. Auch wird Prompt Engineering meiner Meinung nach eine der bedeuteten Skills der Zukunft – egal wie generativ eine AI auch wird. Und damit sind wir bei alten Dogma der Kommunikationswelt: „Kommunikation entscheidet immer der Empfänger.“ Hier sehe ich aktuell ein allzu menschliches Problem als Ursache für viele schlechte Ergebnisse durch KI: Zu viele sprechen den AI-Models ein allzu übermenschliches Denken zu.
Auch wenn es uns noch komisch erscheint eine KI als vollwertigen Gesprächspartner anzuerkennen, ist aktuell, was es aus meiner Sicht bräuchte. Besonders hinsichtlich der teils nach wie vor schleppenden digitalen Transformation, in der viele Unternehmen stecken. Während sich also die KI nahezu monatlich selbst überholt, haben viele Organisationen selbst 2024 große Probleme den Anforderungen der digitalen B2C Welt gerecht zu werden. Das ist besonders in Europa zu beobachten. Insbesondere in Österreich und Deutschland. Ich bin in beiden Ländern als Consultant aktiv und berate Banken, Retail- und IT-Unternehmen in Kommunikationsangelegenheiten und bei der digitalen Transformation. Was alle eint: Eine enorme Skepsis allen Neuerungen gegenüber und eine Konzern-Security, die jegliche Neuerungen zuerst monate-, oder gar jahrelang prüft. Es gibt nahezu kein Meeting in meinem Segment, indem nicht irgendjemand seine Bedenken gegenüber neuer Technologien äußerst. Hier gilt es ein besonders großes Vertrauen aufzubauen. Und gerade hier spielt das Narrativ eine bedeutende Rolle. Meine Rolle als „Purple People“ ist es also nahezu täglich den Spagat zu schaffen zwischen den früher erwähnten positiven Impacts und den drohenden Gefahren, bei einer falschen Anwendung.
Besonders beschäftigt mich die Frage, ob AI die ethischen Grenzen verschieben wird. Anlass war jener taiwanesische Entertainer, der seine verstorbene Tochter mittels AI-generierten Avatar wieder virtuell zum Leben erweckte. Wie ich darüber hinaus feststellen musste, gibt es hierzu bereits viele Unternehmen, die hier ein neues Geschäftsmodell wittern.
Besonders beschäftigt mich die Frage, ob AI die ethischen Grenzen verschieben wird. Anlass war jener taiwanesische Entertainer, der seine verstorbene Tochter mittels AI-generierten Avatar wieder virtuell zum Leben erweckte. Wie ich darüber hinaus feststellen musste, gibt es hierzu bereits viele Unternehmen, die hier ein neues Geschäftsmodell wittern.
Wie werden wir damit umgehen?
Insbesondere im Hinblick auf Privatsphäre, Einwilligung und die emotionalen Auswirkungen auf die Hinterbliebenen. Auch in einer Diskussion über die Nutzung von Replika-Avataren zeigte eine Umfrage in unserem Kurs, dass 70 % der Teilnehmer diese Entwicklung negativ bewerteten, da sie potenziell zu einer Entfremdung und emotionalen Verwirrung führen könnte.
Zudem stellen sich regulatorische Herausforderungen, da bestehende Gesetze oft nicht ausreichen. Zwar wurde erst im März der EU AI Act beschlossen, mit dem Ziel: „To ensure that Al systems are transparent, traceable, and guarantee fundamental human rights.“ Ende 2023 wurde dann auch der erste ISO-Standard 42001 entwickelt, an den ich mit bereits seit Anfang des Jahres selbst halte, wenn ich neue KI-Konzepte für meine Kunden entwickle. „ISO 42001:2023 is the world’s first AI management system standard, providing valuable guidance for this rapidly changing field of technology. It addresses the unique challenges AI poses, such as ethical considerations, transparency, and continuous learning. For organizations, it sets out a structured way to manage risks and opportunities associated with AI, balancing innovation with governance.
Zudem stellen sich regulatorische Herausforderungen, da bestehende Gesetze oft nicht ausreichen. Zwar wurde erst im März der EU AI Act beschlossen, mit dem Ziel: „To ensure that Al systems are transparent, traceable, and guarantee fundamental human rights.“ Ende 2023 wurde dann auch der erste ISO-Standard 42001 entwickelt, an den ich mit bereits seit Anfang des Jahres selbst halte, wenn ich neue KI-Konzepte für meine Kunden entwickle. „ISO 42001:2023 is the world’s first AI management system standard, providing valuable guidance for this rapidly changing field of technology. It addresses the unique challenges AI poses, such as ethical considerations, transparency, and continuous learning. For organizations, it sets out a structured way to manage risks and opportunities associated with AI, balancing innovation with governance.
Wie sehr wollen wir den Fortschritt regulieren?
Auch wenn das in der Theorie alles Hand und Fuß hat: wie schnell kann eine große (politische) Organisation auf die Probleme und Neuerungen des Tech-Alltags reagieren? Und es stellt sich die Frage, wie sehr wollen wir technischen Fortschritt durch Regelungen einschränken? Setzt man hier zu früh die Daumenschrauben an, kann das neue Errungenschaften womöglich verhindern. Reagiert man zu spät oder zu ungenau, öffnet das auch Tür und Tor für Missbrauch. Wie immer in der menschlichen Kommunikation werden auch hier aktuell die negativen Entwicklungen zum Standard erhoben.
Egal ob Scarlett Johannson für das Recht auf „ihre Stimme“ gegen ChatGPT vor Gericht zieht, ob Betrüger durch Deep Fake Videos Unternehmen um Millionen Dollar bringen oder LLMs wie Co-Pilot oder ChatGPT, Mistral und Co. Probleme mit Datenschutz haben und CVs oder vertrauliche Meeting-Transkripte im Netz landen. Wir sehen zuerst immer die Dont’s.
Doch dagegen stehen die vielen positiven Möglichkeiten, mit denen wir viele unserer gegenwärtigen Probleme lösen könnten. Da wäre etwa KI im Gesundheitswesen: Einschließlich medizinischer Bildgebung, verbesserte Genauigkeit und Geschwindigkeit der Diagnostik, prädiktive Analysen und Patientenversorgung. AI kann verwendet werden, um Behandlungspläne zu personalisieren. Zum Beispiel kann sie im Bereich der Onkologie helfen, die effektivste Behandlung für den Krebs eines bestimmten Patienten anhand seiner genetischen Zusammensetzung zu identifizieren. Mit der Weiterentwicklung könnte AI die Roboterchirurgiesysteme verbessern, um mehr Präzision zu schaffen und das Risiko von Komplikationen während der Operation zu reduzieren.
Aber auch im Bereich der Finanzen und Banken kann AI helfen etwa Betrugsrisiken erheblich zu minimieren, den Kundenservice zu verbessern oder selbst Investmentstrategien etwas risikoärmer und jedem zugänglich zu machen. Bessere Diagnosemöglichkeiten, genauere Analysen für Wettervorhersagen, Börsenverhalten, Unfallsvermeidung oder etwa eine erhebliche Reduktion der Treibhausgase durch eine breitflächige Umstellung auf KI-gesteuerte Heiz- und Kühlsysteme oder selbstfahrende Mobile, die den Individualverkehr wesentlich einschränken können. Auch in allen anderen Bereichen, etwa der Baubranche, der Maschinenherstellung oder selbst der Gastronomie kann AI künftig helfen Ressourcen zu schonen und Arbeitsprozesse zu beschleunigen.
Egal ob Scarlett Johannson für das Recht auf „ihre Stimme“ gegen ChatGPT vor Gericht zieht, ob Betrüger durch Deep Fake Videos Unternehmen um Millionen Dollar bringen oder LLMs wie Co-Pilot oder ChatGPT, Mistral und Co. Probleme mit Datenschutz haben und CVs oder vertrauliche Meeting-Transkripte im Netz landen. Wir sehen zuerst immer die Dont’s.
Doch dagegen stehen die vielen positiven Möglichkeiten, mit denen wir viele unserer gegenwärtigen Probleme lösen könnten. Da wäre etwa KI im Gesundheitswesen: Einschließlich medizinischer Bildgebung, verbesserte Genauigkeit und Geschwindigkeit der Diagnostik, prädiktive Analysen und Patientenversorgung. AI kann verwendet werden, um Behandlungspläne zu personalisieren. Zum Beispiel kann sie im Bereich der Onkologie helfen, die effektivste Behandlung für den Krebs eines bestimmten Patienten anhand seiner genetischen Zusammensetzung zu identifizieren. Mit der Weiterentwicklung könnte AI die Roboterchirurgiesysteme verbessern, um mehr Präzision zu schaffen und das Risiko von Komplikationen während der Operation zu reduzieren.
Aber auch im Bereich der Finanzen und Banken kann AI helfen etwa Betrugsrisiken erheblich zu minimieren, den Kundenservice zu verbessern oder selbst Investmentstrategien etwas risikoärmer und jedem zugänglich zu machen. Bessere Diagnosemöglichkeiten, genauere Analysen für Wettervorhersagen, Börsenverhalten, Unfallsvermeidung oder etwa eine erhebliche Reduktion der Treibhausgase durch eine breitflächige Umstellung auf KI-gesteuerte Heiz- und Kühlsysteme oder selbstfahrende Mobile, die den Individualverkehr wesentlich einschränken können. Auch in allen anderen Bereichen, etwa der Baubranche, der Maschinenherstellung oder selbst der Gastronomie kann AI künftig helfen Ressourcen zu schonen und Arbeitsprozesse zu beschleunigen.
Latest News