Cookie Hinweis

Tendenz

Das Magazin der Bayerischen Landeszentrale für neue Medien

Das Dilemma des Zauberlehrlings
zur Übersicht aller ArtikelAlle Artikel zur Übersicht aller AusgabenAlle Ausgaben

Das Dilemma des Zauberlehrlings

Künstliche Intelligenz (KI) durchdringt immer mehr den (Medien-)Alltag. Auf der Basis großer Datenmengen nehmen uns Algorithmen Entscheidungen ab, geben Empfehlungen oder ersetzen menschliche Kommunikation. Was bedeutet das für Menschen und Medien, Maschinen und Moral?

TEXT Matthias Kurp

Es gibt Frauennamen, die Tag für Tag millionenfach zum Bestandteil menschlicher Kommunikation werden, ohne dass sie bereits auf einer der Hitlisten der beliebtesten Vornamen für Neugeborene zu finden sind. „Hey, Cortana, wie wird das Wetter heute?“, beginnen wir den Tag im Austausch mit dem virtuellen Microsoft-Assistenten. „Alexa, spiel den neuen Hit von Justin Bieber“, heißt es während des Frühstücks, bevor uns Amazon in Schwung bringt. Und wenig später, mit dem iPhone in der Hand: „Siri, wie komme ich zum Bahnhof?“ Menschen duzen Maschinen und verlassen sich auf deren Informationen und Entscheidungen. Das Smartphone wird zum integralen Bestandteil unseres Sinnes-, Informations- und Denkapparates, fast so, als sei es ein menschliches Organ. Smartphone und Smart Speaker, also mit dem Internet verbundene Lautsprecher, kommunizieren mit uns, als ob sie Menschen seien. Im Alltag fällt der Unterschied zwischen Künstlicher Intelligenz und menschlicher Intelligenz oft kaum noch auf. Die sogenannte kinästhetische Distanz, also die Differenz zwischen einem menschlichen Wesen und seinem maschinellen Gegenüber, scheint sich aufzulösen.

Cortana, Alexa und Siri aber sind nicht die ersten maschinengesteuerten Agenten, die menschliche Kommunikation vortäuschen. Der aus Deutschland stammende Informatiker Joseph Weizenbaum präsentierte bereits 1966 in den USA ein Computerprogramm namens Eliza, das auf der Basis eines kleinen Thesaurus mit Floskeln wie „Erzählen Sie mir mehr“ oder „Davon verstehe ich nichts“ einfache Konversation imitierte. Doch was als eine Art Parodie oberflächlicher psychotherapeutischer Gespräche konzipiert war, entpuppte sich plötzlich als wirkmächtige Computer-Intelligenz: Kollegen, Studenten und selbst Weizenbaums Sekretärin vertrauten der Maschine persönliche Probleme an. Entsetzt wandte sich der Schöpfer des Programms anschließend von der von ihm geschaffenen Künstlichen Intelligenz ab und wurde zu einem entschiedenen Gegner, der sich selbst als Dissident oder Ketzer der Informatik bezeichnete. Das Eliza-Experiment zeigte schon früh, dass Maschinen, die in ihrer Kommunikation menschlich erscheinen, von Menschen auch wie Menschen behandelt werden. Auf dieser Basis arbeiten auch heute noch alle Text- oder Chatbots.

Wie Maschinen sprechen und lernen

Die aktuelle Generation von Sprachmaschinen kann mehr als nur das Formulieren von Floskeln mit Hilfe von Datenbanken, aus denen Erkennungsmuster und Antworten gewonnen werden. Moderne Algorithmen ermöglichen es Computern zu debattieren und zu diskutieren. So kann die IBM-Software namens Project Debater nicht nur Argumentationsverläufen folgen und diese zusammenfassen, sondern präsentiert auch selbst Argumente. Dahinter steckt eine Künstliche Intelligenz, die in Millionen von Dokumenten Fakten sammelt, organisiert, Muster von Argumenten analysiert und als selbstlernendes System schließlich daraus pointierte logische Schlüsse zieht. Google hat ein ähnliches Sprachwerkzeug entwickelt, das Duplex heißt und als Teil des Programms Google Assistant per Telefon selbständig mit Menschen Termine vereinbaren kann. Die Software beherrscht sogar Dialekte. Kommunikationsalgorithmen werden dem Homo sapiens immer ähnlicher. In Neuseeland hat das Start-up-Unternehmen Soul Machines seinem Sprachroboter nicht nur eine menschliche Stimme, sondern auch ein menschliches Aussehen verliehen: Auf dem Bildschirm erscheint ein Avatar, der bereits Kunden für Firmen wie Daimler Financial betreut.

Künstliche Intelligenz, die intuitiv genutzt werden kann, ist längst mitten im Alltag angekommen und wird als solche oft gar nicht mehr wahrgenommen. Algorithmen helfen uns bei der Online-Suche, organisieren unsere Urlaubsreise, aber sie erstellen auch Nutzerprofile oder bewerten unsere Kreditfähigkeit. Was früher ein Spielfeld für Visionäre und Stoff für Utopien war, ist längst Wirklichkeit – und manchmal auch Futter für Dystopien. Doch der Reihe nach: Algorithmen und Mikroelektronik, große Datenmengen und -speicher sowie schnelle Rechner und Informationsübertragung bilden die Grundlage für digitale Systeme, die nicht nur Informationen selektieren und kuratieren, sondern diese auch bewerten oder selbst erstellen können. Waren für Programme wie Eliza früher noch riesige Rechenzentren im Einsatz, steckt heute in jedem Smartphone mehr Rechenleistung als in dem IBM-Rechner Deep Blue, der 1996 erstmals den damaligen Schach-Weltmeister Garri Kasparow besiegte.

Basis für Künstliche Intelligenz sind große Datensätze, in denen Software bestimmte Muster erkennt, die dann als Regeln oder Handlungsvorschriften zur Lösung von Problemen eingesetzt werden. Während herkömmliche Software regelbasiert konkrete Handlungsschritte immer und immer wieder ausführt, können sich bei der Künstlichen Intelligenz Algorithmen Regeln selbst erschließen. Bei diesem maschinellen Lernen, dem sogenannten Deep Learning (siehe Titelthema im Tendenz-Heft 2/2017), geht es darum, aus einer möglichst großen Zahl von typischen Beispielen bestimmte Zusammenhänge zu verallgemeinern. Letztlich aber sind es Menschen, die darüber entscheiden, mit welchen Daten die Algorithmen „gefüttert“ werden. Und es sind Menschen, von denen die Software stammt, mit der Computer Muster erkennen, Korrelationen finden und daraus Lösungsvorschriften für Probleme ableiten.

Selbstlernende Algorithmen

Computer können dank ihrer enormen Rechenleistung immer dann Probleme besser als der Mensch lösen, wenn es darum geht, in möglichst kurzer Zeit aus komplexen Datenstrukturen die richtigen Schlüsse zu ziehen. Das alles funktioniert mit purer Logik, und zwar nach von Menschen erschaffenen formalen Abläufen. So wird die Basis geschaffen für News-Aggregatoren und Börsen-Analysen, für personalisierte Empfehlungssysteme wie die von Amazon oder Netflix, für die individuelle Adressierung journalistischer Inhalte und kommerzieller Werbebotschaften. Sowohl bei Video on Demand als auch bei vielen Apps spielen automatisierte Empfehlungen eine wachsende Rolle: Entweder werden individuell zu bereits genutzten Inhalten ähnliche empfohlen, oder es werden andere Kunden mit ähnlichen Nutzerprofilen gesucht, um aus deren Präferenzen geeignete Angebote abzuleiten und anzubieten. Mittlerweile scheinen die Möglichkeiten von KI-Anwendungen für den Medienbereich unbegrenzt: Bilderkennung und Sprachanalyse, Foto- und Video-Klassifizierungen, Erstellung von Nutzerprofilen, Roboterjournalismus sowie die automatisierte textbasierte Erstellung von Audio- oder Video-Rohschnitten sind bereits Realität. Vieles davon steigert nicht nur die ökonomische Effizienz bei der medialen Wertschöpfung, sondern verändert auch grundlegend die Kommunikationskultur. Doch das ist nur der Anfang.

Digitale News-Aggregatoren und Sprachsteuerung, Gesichtserkennung und Übersetzerdienste, automatisierte Entscheidungsprozesse und autonomes Fahren sind Beispiele dafür, wie Wirtschaft, Gesellschaft und Kultur immer stärker von KI-Technologie durchdrungen, gesteuert und vielleicht sogar dominiert werden. Ganz gleich, ob es sich bei dieser Entwicklung um einen evolutionären oder revolutionären Prozess handelt, gilt es, das Verhältnis von Menschen und Medien, Maschinen und Moral neu zu ergründen und gegebenenfalls entsprechend zu regulieren. Künstliche Intelligenz ist längst mehr als ein Experiment. Künstliche Intelligenz hat manifeste Folgen. Sie entscheidet darüber, welche Fahrtrouten und Restaurants wir wählen, welche Bücher wir lesen und welche Inhalte im Internet sichtbar und hörbar werden. Umso wichtiger ist es, die Rahmenbedingungen für Künstliche Intelligenz zu überprüfen und transparent zu machen. So geht es etwa bei den Algorithmen von Informationsintermediären wie Facebook nicht in erster Linie um Wahrheit oder publizistische Qualität, sondern darum, Reichweite, Aufmerksamkeit und Verweildauer der Nutzer zu maximieren, um letztlich die Werbeerlöse zu optimieren. Das Beispiel zeigt, dass Künstliche Intelligenz unsere Wahrnehmung der Welt lenkt. Die Algorithmen können dabei immer nur so neutral sein wie ihre von Menschen vorgegebene Zielbestimmung.

In vielen Lebensbereichen gelten die positiven Auswirkungen von Künstlicher Intelligenz als unumstritten: So lassen sich etwa aus anonymisierten Krankenakten und diagnostischen Dokumentationen Ursachen und Anzeichen für drohende Krankheiten herauslesen. Fahrassistenz­systeme erhöhen die Sicherheit beim Autofahren, und autonomes Fahren könnte unsere Mobilität erhöhen. In der Altenpflege wird bereits der Einsatz von Robotern erprobt. So könnte schon bald ein kleiner Roboter namens Pepper in Pflegeheimen zum Einsatz kommen und Bewohner mit Musik und Pantomime unterhalten, an die regelmäßige Medikamenteneinnahme erinnern oder zu Bewegungsübungen anleiten. Auch bestimmte Handreichungen soll die Maschine, die einem kleinen Menschen nachgebildet wurde, übernehmen können. In Japan ist Pepper bereits auf dem Markt und unterhält Senioren mit Ratespielen oder Gymnastik (Tai-Chi).

Der Kampf um die Daten

Mit Hilfe von Künstlicher Intelligenz lässt sich vieles optimieren: Versprochen werden Smart Home und Smart Cities. Mit Smartphone-Apps und Sensoren lassen sich in den eigenen vier Wänden Raumtemperatur, Licht und Rollläden steuern. Für den Autoverkehr ermöglichen uns Apps, Geodaten und intelligente Steuerungssysteme eine leistungsfähige Koordinierung von Verkehrsflüssen, Grüne Welle und Parkplatzmanagement inklusive. Das spart Zeit und Energie, schont Nerven und Umwelt. In modernen Autos befinden sich bereits bis zu 200 Sensoren. Wer aber darf über Positionsdaten, Navigationsziele, Handy-Kontakte, die Dokumentation von Brems- und Beschleunigungsmanövern, Nutzungsprofilen von Bluetooth-Geräten oder -Inhalten etc. verfügen? Noch landen die Daten bei den Autoherstellern. Wenn außer Datenschützern auch ADAC, TÜV und Anbieter von Kfz-Versicherungen neutrale Speicherorte fordern, von denen die Autodaten nur nach Autorisierung durch die Fahrzeughalter abgerufen werden dürfen, gibt das zu denken. Noch viel sensibler ist der Umgang mit Patientendaten. Kein Wunder, dass das Ringen um eine elektronische Gesundheitskarte in Deutschland seit mehr als einem Jahrzehnt eine politische Hängepartie ist.

Wer darauf setzt, dass Künstliche Intelligenz im Rahmen datengestützter algorithmischer Prozesse automatisch Entscheidungen trifft oder als Entscheidungshilfe fungiert, der steht vor dem Dilemma, dass die Qualität solcher Prozesse entscheidend von der Menge der Daten abhängt. Da sind Konflikte mit dem Datenschutz und der Devise der Datensparsamkeit vorprogrammiert. Auf die neue Datenethikkommission des Bundesministeriums der Justiz und für Verbraucherschutz sowie des Bundesministeriums des Innern, für Bau und Heimat kommt also eine Menge Arbeit zu. Die Kommission, die Anfang September 2018 in Berlin ihre Arbeit aufnahm, soll Grundsätze und Grenzen für den Umgang mit Daten, Algorithmen und Künstlicher Intelligenz formulieren.

Die Politik setzt auf Kommissionen

Die Datenethikkommission, deren Ergebnisse für die neue KI-Strategie der Bundesregierung berücksichtigt werden sollen, wird in vielen Bereichen moralisches Neuland betreten müssen. Um ethische Leitlinien und Handlungsempfehlungen zu entwickeln, haben die 16 Expertinnen und Experten aus den Bereichen Medizin, Recht, Informatik, Statistik, Volks- und Betriebswirtschaft, Theologie, Ethik und Journalismus ein Jahr lang Zeit. 2020 soll außerdem die Ende Juni 2018 vom Bundestag eingesetzte Enquete-Kommission „Künstliche Intelligenz – Gesellschaftliche Verant­wortung und wirtschaftliche Potenziale“ ihren Abschlussbericht inklusive Handlungsempfehlungen vorlegen. Der Kommission gehören 19 Mitglieder des Bundestages sowie 19 Sachverständige an.

Der ökonomische Druck ist beim Thema Künstliche Intelligenz angesichts der enormen Marktmacht großer Online-Konzerne in den USA und der staatlichen KI-Offensive in China (siehe Artikel Der Große Bruder wird Realität) gewaltig. Entsprechend straff ist der Zeitplan für Enquete-Kommission und Datenethikkommission. Ob die Zeit reicht? Die Problematik ist komplex, und der Wettbewerb um Patente verhindert in vielen Fragen intersubjektive Offenheit und Transparenz. Wie soll zum Beispiel ein Orientierungsrahmen für Deep Learning entstehen, wenn bei diesem Verfahren oft völlig unklar ist, wie die Algorithmen zu den konkreten Ergebnissen kommen?

Eigentlich, so gebietet es gesellschaftliche Verantwortungsethik, müsste immer klar sein, warum KI-Algorithmen eine bestimmte Entscheidung vorschlagen oder treffen. Das aber können sogar Experten und die Schöpfer von selbstlernenden Algorithmen oft nicht genau erklären. Je größer und unübersichtlicher Datenmenge und Software sind, desto größer ist die Gefahr, dass Algorithmen falsche Schlüsse ziehen. „Die Technologie wird zur Blackbox“, warnte Armin Grunwald, der das Büro für Technikfolgenabschätzung beim Deutschen Bundestag leitet, unlängst in einem Handelsblatt-Interview. Tesla-Gründer Elon Musk orakelte gar, Künstliche Intelligenz sei wie ein böser Geist, der besser in der Flasche bleiben solle.

Gefährliche Nebenwirkungen

Wie schnell Algorithmen Falsches lernen können, zeigte sich vor zwei Jahren, als sich Microsofts selbstlernender KI-Chatbot Tay durch den Dialog mit Nutzern in weniger als 16 Stunden zum rassistischen Meinungsapparat entwickelte und dann schnell wieder abgeschaltet werden musste. Der drohende KI-Kontrollverlust erinnert an Goethes Ballade „Der Zauberlehrling“. Mutiert Künstliche Intelligenz am Ende selbst zum Zauberlehrling, die den Besen falsch programmiert und nicht mehr stoppen kann? Auf dieses mahnende Beispiel jedenfalls verwies der amerikanische KI-Forscher Eliezer Shlomo Yudkowsky in New York bei einer Konferenz über KI-Ethik. Der Besen des Zauberlehrlings arbeitet das ihm auferlegte Programm ab. Um die Folgen abschätzen zu können, müsste er über das eigene Handeln reflektieren können. Das aber setzt menschliches Bewusstsein voraus, das weder beim Besen noch bei Software vorhanden ist – also auch nicht bei Tay, Alexa, Siri oder Cortana.

Algorithmen sind nichts anderes als von Menschen programmierte Handlungsvorschriften zur Lösung eines Problems. Und auch die Datenmengen, auf denen selbstlernende Algorithmen der Künstlichen Intelligenz basieren, stammen von Menschen. Werden Computer nun mit Daten versorgt, die – ganz gleich ob mit oder ohne Absicht – nur ein einseitiges Bild oder einen verzerrten Ausschnitt der Wirklichkeit repräsentieren, können Algorithmen Ergebnisse liefern, die zwar logisch hergeleitet wurden, aber mit der tatsächlichen Ausgangslage nichts zu tun haben. Experten verlangen deshalb nach „ausgewogenen“ Datensätzen. Was aber ist ausgewogen und wer bestimmt das? Im Grunde müsste darüber in jedem Fall ein gesellschaftlicher Konsens hergestellt werden. Außerdem gilt es festzuhalten, dass alle Auswirkungen von Algorithmen ethisch gleichzusetzen sind mit direktem, menschlichem Handeln. Es gibt also keinen algorithmischen „Deus ex machina“ im Sinne einer übernatürlichen Vernunft, sondern nur maschinelle Operationen, für die Menschen die Verantwortung tragen.

Ethische Selbstverpflichtungen

Das Meinungsspektrum beim Thema Künstliche Intelligenz reicht vom Hoffen auf Bequemlichkeit bis zur Furcht vor Bevormundung, von zukunftsgläubiger Technologiebegeisterung bis zu apokalyptischen Szenarien. Während die einen davon träumen, dass Maschinen den Menschen neue Freiräume ermöglichen, warnen die anderen vor Arbeitsplatzverlusten. Einige Konzerne spüren angesichts solcher Debatten inzwischen eine Art Rechtfertigungsdruck. Deshalb haben sich etwa Google und die Deutsche Telekom Leitlinien für den Einsatz digitaler Intelligenz gegeben. So verspricht etwa die Telekom blumig eine „gründliche Analyse und Evaluierung als Basis für die Weiterentwicklung und stete Verbesserung unserer KI-Systeme“. Zu den von Google formulierten sieben ethischen Grundsätzen für den Umgang mit Künstlicher Intelligenz gehört, dass die Technologie stets einen sozialen Nutzen haben müsse und keine Vorurteile in Bezug auf Geschlecht, ethnische Herkunft oder Alter abbilden soll. Als sozialverantwortliche KI-Einsatzbereiche werden von Google Gesundheits- und Energieversorgung, Sicherheit und Verkehr, Produktion und Entertainment genannt.

Bei der Implementierung von KI-Lösungen gibt es eine ganze Reihe von Schwachstellen, aus denen tendenziöse Ergebnisse resultieren können. Künstliche Intelligenz ist also nie objektiv oder neutral. Computer können Wissen und empirische Datenmengen neu organisieren, aber selbst kein neues Wissen erschaffen. Künstliche Intelligenz liest aus Daten Korrelationen, schafft also Informationen über Zusammenhänge. Denken aber können Computer und deren Algorithmen nicht. Und echte Intelligenz setzt Reflexion voraus. Wie groß der Unterschied zwischen Mensch und Maschine, zwischen menschlicher und Künstlicher Intelligenz ist, wird klar, wenn das komplexe System des Homo sapiens – was so viel wie „weiser Mensch“ bedeutet – mit dem von KI-Robotern verglichen wird: Während der Mensch als Generalist Sinneswahrnehmungen und Motorik parallel steuern kann, können KI-Systeme jeweils nur die eine Tätigkeit ausführen, für die sie programmiert wurden.

Cyborg-Phantasien: Wollen wir das?

Auch wenn die Vielfalt des menschlichen Denkapparates sehr anfällig für Fehler ist, lässt sich menschliche Intelligenz zurzeit nicht durch Maschinen-Intelligenz ersetzen. Denn das Gehirn ist äußerst adaptiv, kann also (moralische) Fehler korrigieren und sucht nach Lösungen, die sich veränderten Rahmenbedingungen anpassen können. Das ist das Ergebnis eines evolutionären Entwicklungsprozesses. Aber könnten nicht Computer, die uns in ihrer Rechenleistung weit überlegen sind, in Zukunft selbst Computerprogramme schreiben, um sich selbst immer intelligenter zu machen? Von solchen Theorien, die mit Begriffen wie Superintelligenz oder Singularität verbunden werden, ist es nur noch ein kleiner Schritt zu Cyborg-Phantasien über Mischwesen aus lebendigem Organismus und Maschine. Aber wollen wir das? Entspricht das der Menschenwürde? Besteht der Mensch wirklich nur aus Materie und Hirnströmen?

„Die Menschen haben Angst, dass Computer zu schlau werden und unsere Welt übernehmen könnten. Das eigentliche Problem ist aber doch, dass sie dumm sind und die Welt bereits übernommen haben“, lautet ein kulturkritischer Aphorismus des amerikanischen Computerwissenschaftlers Pedro Domingos. Damit wird darauf verwiesen, dass Künstliche Intelligenz längst unser Leben steuert. Sinnvoll eingesetzt, können Algorithmen aber positiv auch Reduktion von Komplexität bewirken, Unwetterwarnungen geben, als Frühwarnsystem für Krankheiten fungieren oder uns Problemlösungen anbieten. Im Medienbereich trägt Künstliche Intelligenz zunehmend dazu bei, Trolle und Fake News zu entlarven. In Zukunft wird es deshalb entscheidend darauf ankommen, wie intelligent Mensch und Gesellschaft die Künstliche Intelligenz mit der menschlichen verbinden. Sich dafür einen Ratschlag von Alexa zu erhoffen, scheint aussichtslos – zum Glück!
 

GLOSSAR

Künst|li|che In|tel|li|genz (KI)

Substantiv [die]

Teilgebiet der Informatik, das sich mit der Automatisierung intelligenter Problemlösungen beschäftigt. Die KI-Forschung versucht, menschliche Wahrnehmung und menschliches Handeln mit Hilfe von Algorithmen nachzubilden, die aus großen Datenmengen Muster herauslesen. Ziel ist die Schaffung einer menschenähnlichen Intelligenz.

Deep Lear|ning

Substantiv [das]

Teilbereich des maschinellen Lernens, wobei in großen Datenmengen Strukturen und Muster durch Algorithmen selbst erschlossen werden. Um Informationen zu generieren, werden selbständig Erkenntnisse überprüft und Ergebnisse entsprechend angepasst.

Big Da|ta

Ohne Artikel

Große, komplexe und sich schnell vergrößernde Datenmenge, die mit Hilfe von Computern auf Korrelationen untersucht werden kann, um Strukturen und Zusammenhänge festzustellen.

Sin|gu|la|ri|tät

Substantiv [die]

In Zukunftstheorien der Zeitpunkt, an dem sich Maschinen mittels Künstlicher Intelligenz so stark selbst verbessert haben, dass sie den Menschen selbst und die Menschheit grundlegend verändern.

Cy|borg

Substantiv [der]

Mischwesen aus lebendigem Organismus und Maschine, bei dem in einen menschlichen Körper technische Geräte als Ersatz oder zur Ergänzung nicht ausreichend leistungsfähiger Gliedmaßen oder Organe integriert sind.
 

Cortana (*2014) Die Microsoft-Software für Computer und Smartphones versteht Sprachbefehle und bietet personalisierte Hilfe.

Joseph Weizenbaum (*1923, †2008) Der deutsch-US-amerikanischer Informatiker entwickelte sich vom KI-Befürworter zum Kritiker. Er gehörte zu den Gründern der Initiative Computer Professionals for Social Responsibility.

Deep Blue (*1996) Der IBM-Rechner besiegte als erster Computer den damals amtierenden Schachweltmeister Garri Kasparow. Die Software berechnete 126 Millionen Stellungen pro Sekunde.

Pepper (*2014) Der humanoide Roboter ist das Ergebnis einer französisch-japanischen Kooperation. Er kann auf menschliche Mimik und Gestik reagieren.

Elon Musk (*1971) Der Gründer des Online-Bezahlsystems PayPal sowie des Elektroautoherstellers Tesla und des Raumfahrtunternehmens SpaceX investierte in KI-Forschung, warnt aber auch vor KI-Gefahren.

Eliezer Shlomo Yudkowsky (*1979) Der US-amerikanische Forscher arbeitet daran, Künstliche Intelligenz mit reflexivem Selbstverständnis zu entwickeln.

Cyborg (*1569) Mischwesen aus einem lebendigen Organismus und Maschinen regen schon seit Jahrhunderten die menschliche Phantasie an.

Pedro Domingos (*1965) Der Professor der University of Washington ist auf maschinelles Lernen spezialisiert und schrieb das Buch The Master Algorithm.


TERMINE

MEDIENTAGE MÜNCHEN 2018

Die Medientage München, die vom 24. bis 26. Oktober unter dem Motto „Engage! Shaping Media Tech Society“ im neuen Conference Center Nord der Messe München stattfinden, bieten gleich mehrere Veranstaltungen zum Thema Mensch & Maschine/Künstliche Intelligenz an:

Mittwoch, 24. Oktober:

  • Keynote von Dr. Miriam Meckel, Wirtschaftswoche, ab 13.30 Uhr, Main Stage:
    Eine Reise durch die schöne neue Welt des Brainhacking.

  • Keynote Jean Remy von Matt, Jung von Matt, ab 14.15 Uhr, Main Stage:
    Technologie und Kreativität. Sie lieben sich. Sie brauchen sich. Und hassen sich dafür.

  • Keynote von Mike Pell, Microsoft Garage, ab 15 Uhr, Main Stage:
    The Age of Smart Information.

  • Panel ab 14.30 Uhr, AI Pavillon:
    Künstliche Intelligenz – Wie der digitale Darwinismus die Branche verändert.

Donnerstag, 25. Oktober:

  • Panel ab 11.15 Uhr, AI Pavillon:
    Demokratisierung von Machine Learning.

  • Panel ab 14.45 Uhr, AI Pavillon:
    Künstliche Intelligenz in der Medienindustrie – perfektes Zusammenspiel zwischen Mensch und Maschine.

  • Außerdem: China-Special mit mehreren Veranstaltungen, ganztags.


Weitere Informationen online: www.medientage.de
 

HAL9000: Wikimedia Commons/Cryteria
Porträt Matthias Kurp: Uwe Völkner/Fox

Autor
Dr. Matthias Kurp ist Professor im Fachbereich Journalismus/Kommunikation der HMKW Hochschule für Medien, Kommunikation und Wirtschaft in Köln. Zuvor arbeitete er freiberuflich als Medienforscher und Journalist.

zur Übersicht aller AusgabenAlle Ausgaben zur Übersicht aller ArtikelAlle Artikel

Print-Ausgabe

TENDENZ als pdf

  • Tendenz 02/18
  • (PDF, 4 MB)

Info

Bildnachweis 2/18