about:web – Der Podcast über das Internet, Dich und mich

about:web – Der Podcast über das Internet, Dich und mich

Höre Dir jetzt den neuen Podcast von Mozilla & ze.tt an: über das Internet, Dich und mich!

about:web #4 – Schafft die Menschheit sich selbst ab?

Audio herunterladen: MP3 | AAC | OGG | OPUS

about:web – der brandneue Podcast von Mozilla und ze.tt

Episode 4 – Schafft die Menschheit sich selbst ab?

Protagonisten:

Prof. Dr. Alexander Filipović – Medienethiker, Arbeitsschwerpunkt Künstliche Intelligenz Prof. Dr. Marcus Kleiner -- Medien- und Kulturwissenschaftler

Skript:

Mae Becker: In Japan führt der 35-jährige Akihiko Kondo seit zehn Jahren eine Beziehung mit Hatsune Miku. Das Besondere daran: Hatsune ist eine Manga-Figur, ein Cartoon-Charakter.

Die Gatebox, ein kapselförmiges Gerät von der Größe einer Kaffeemaschine, projiziert die Figur mit den langen Zöpfen in Akihikos Zimmer. Aber Hatsune ist nicht nur hübsch anzusehen, sie ist auch nicht auf den Mund gefallen. Möglich wird der fortlaufende Austausch mit Akihiko durch eine künstliche Intelligenz. Sie erlaubt es Hatsune, den ganzen Tag über mit Akihiko zu texten. Sie stellt Fragen nach seinem Alltag und erzählt auch, was sie so macht. Manchmal bittet sie ihn auch, schon ein bisschen früher von der Arbeit nach Hause zu kommen. Nur anfassen kann Akihiko seine Freundin nicht. Als Ersatz nimmt er diverse Kuscheltiere der Manga-Figur mit ins Bett.

Das alles erinnert an den Film „Her“, in dem sich der Protagonist in eine künstlichen Intelligenz auf seinem Computer verliebt. Doch das ist hier keine Science Fiction. Das ist Realität.

Sollten wir uns freuen, dass Akihiko für sich eine bedeutsame Beziehung gefunden hat, statt allein zu bleiben? Oder sollte es uns Sorgen machen, dass er eine Person liebt, die eigentlich gar keine ist? Eine künstliche Intelligenz, die Gegenliebe bestenfalls simulieren kann?

Hi, ich bin Mae von ze.tt. Und ich führe euch durch diesen Podcast, präsentiert von Mozilla, den Machern des Browsers Firefox, und Tochter der Non-Profit Organisation Mozilla Foundation. Im Gegensatz zu einigen anderen Tech-Unternehmen, setzt Mozilla euch an erste Stelle und tritt seit 20 Jahren für das Internet ein. Mozilla glaubt an die integrierende Kraft des Internets, so wie es einst intendiert war. Ein weltweites Netzwerk, das alle einschließt und miteinander auf Augenhöhe verbindet.

In dieser Folge geht es nun um Künstliche Intelligenz und die Frage: Sind wir Menschen gerade dabei, uns selbst abzuschaffen?

[Jingle]

Künstliche Intelligenz -- kurz: KI -- ist heute in aller Munde. Was lange Zeit der Science Fiction vorbehalten war, hält jetzt wie selbstverständlich Einzug in unseren Alltag. Aber was ist KI eigentlich?

Um das herauszufinden, habe ich mich an Professor Alexander Filipovic von der Hochschule für Philosophie in München gewandt. Künstliche Intelligenz gehört zu den Arbeitsschwerpunkten des Medienethikers. Wie definiert er KI?

Alexander Filipovic: Ich find' immer ganz hilfreich, dass es 'ne Unterscheidung gibt zwischen starker KI und einer sogenannten schwachen KI. Der starken KI, der wird zugestanden oder definitorisch zugewiesen, dass sie allgemeine menschliche Intelligenz hat oder simulieren kann, also in Problemfällen ähnlich intelligent agieren kann wie ein Mensch. Und die sogenannte schwache künstliche Intelligenz, das ist die Art von Computer-Programm, die in der Lage ist, in manchen Bereichen ähnlich intelligentes Verhalten zu zeigen wie Menschen.

Der Bereich der starken künstlichen Intelligenz – also, dass Maschinen allgemeine menschliche Intelligenz simulieren können oder sogar ein Bewusstsein haben können, Gefühle haben, eine Ich-Identität – das ist tatsächlich eher Science Fiction. Die Experten sprechen davon, vielleicht in 50, in 100, oder in 200 Jahren oder auch nie werden wir solche Systeme haben.

Mae Becker: Starke KI, Maschinen mit Persönlichkeit – das alles hält Alexander Filipovic für Zukunftsmusik. Das ändert allerdings nichts daran, das Akihiko schon seit Jahren eine Beziehung mit einer künstlichen Intelligenz führt. Um die noch intensiver gestalten zu können, hofft er für die Zukunft auf eine rasche Weiterentwicklung der Technik. Er träumt davon, zusammen mit seiner Hatsune auf Reisen zu gehen oder einfach ihre Hand halten zu können.

Vermutlich weiß Akihiko schon, dass Hatsune letztendlich nur eine Simulation ist. Ganz offensichtlich ist es ihm aber egal. Das macht nachdenklich. Was heißt es perspektivisch für die Menschheit, wenn wir uns lieber in eine eigene Realität mit einer hörigen künstlichen Lebensform fliehen, anstatt an unserer realen Welt zu arbeiten? Alexander Filipovic sieht das Ganze gelassen:

Alexander Filipovic: Also, ich glaub, das das tatsächlich in den Bereich der persönlichen Freiheit fällt. Menschen haben, glaub' ich, zu seltsamsten Wesen und Objekten sehr innige Beziehungen. Das mag manchmal pathologisch sein, manchmal total harmlos, und von daher würde ich jetzt auch denken: Wenn's der Person irgendwie gut geht, dann soll sie sich halt in einen Roboter verknallen.

Aber in dem Moment, wo wir bereit sind, solchen Systemen Persönlichkeit zuzuweisen oder einen Personenstatus, da tritt dann natürlich schon eine Beziehungsebene ins Spiel. Das heißt, wir kümmern uns um diese Systeme. Gerade, wenn die Software mit Hardware verbunden wird, also kleine Roboter entstehen, die niedlich gucken oder zwinkern oder so was, dann entsteht plötzlich auch Verantwortungsrelation. Da möchte man sich um dieses Gerät, um diesen Roboter, um dieses Wesen dann auch kümmern.

Das wird, glaube ich, schon eine Herausforderung für die Gesellschaft sein. Nicht, dass wir es durch Menschen verbieten könnten, sich in künstliche Systeme zu verlieben oder mit ihnen zusammen zu leben oder ihren Alltag von Bots strukturieren zu lassen. Das wird, denke ich, alles kommen, und es wird auch ein Teil der Normalität sein. Bloß gesellschaftlich wird es 'nen Umschwung geben. Das heißt, es wird einen Wertewandel geben. Technik wird anders betrachtet werden. Wir müssen dann aufmerksam sein. Wir können vielleicht nicht einfach Maschinen wegschmeißen, die von anderen geliebt werden. Da müssen wir wachsam sein.

Es wird 'ne ganze Reihe von neuen Fragen geben. Ich glaube aber nicht, dass unser Wertesystem fundamental davon erschüttert wird oder dass das Abendland untergeht.

Mae Becker: Künstliche Intelligenz kann also noch lange nicht alles, was sie uns glauben machen will. Trotzdem ist es wichtig, achtsam mit ihr umzugehen – denn KI lebt von dem, was wir ihr offenbaren. Jedes noch so kleine Detail wird erfasst und ausgewertet. So lernt die KI uns immer besser kennen und kann sich auch immer besser an unsere Bedürfnisse anpassen. Dabei dürfen wir nicht vergessen, dass hinter einer KI in aller Regel ein Unternehmen steckt. Und wie diese Unternehmen mit unseren Daten umgehen, ist nicht immer offensichtlich.

Denkbar wäre zum Beispiel eine Auswertung zu Werbezwecken: Was, wenn Hatsune Akihiko plötzlich eine bestimmte Kaffeemarke vorschlagen würde? Wenn sie ihm Komplimente machen würde dafür, wie er in bestimmten Markenklamotten aussieht? Wir alle werden täglich mit Werbebotschaften konfrontiert – aber dürfen sie von Systemen ausgehen, die uns in- und auswendig kennen? Von Maschinen, die wir lieben? Ist das fair?

Mit neuen Technologien gehen immer auch neue Fragen einher. Die zu beantworten, ist nicht immer leicht. Die Mozilla Foundation spricht sich in ihrem Manifest für ein Internet aus, das als globale öffentliche Ressource offen und zugänglich bleiben muss. Menschen sollen das Netz und ihr Erleben darin frei gestalten können – ohne auf Datensätze und Konzerninteressen reduziert zu werden. Angesichts stetig klüger werdender Systeme wird es immer wichtiger, Werte wie Menschlichkeit und Gemeinschaftssinn aktiv hochzuhalten. Ein erster Schritt kann schon darin bestehen, dass du den Firefox Browser nutzt und so die Arbeit von Mozilla unterstützt. Ebenso wichtig ist es aber, sich klar zu machen, mit welchen Technologien wir täglich umgehen.

Was kann so eine KI heute schon und was nicht? Professor Marcus Kleiner leitet den Studiengang Erlebniskommunikation an der SRH Hochschule der populären Künste in Berlin und gilt als Experte für populäre Medienkulturen. Im Gespräch mit meinem Kollegen Victor Redman trennt er für uns Fakten von Fiktion.

Victor Redman: Herr Kleiner, das Thema künstliche Intelligenz ist ja zumindest in unserer Popkultur schon lange ein großes Thema: „Rise of the Machines“. Wir kennen alle die „Terminator“-Filme, die „Matrix“. Neulich gab es sogar einen „Tatort“, der sich mit dem Thema beschäftigt hat, wo eine künstliche Intelligenz ein potentieller Mordzeuge war. Mich würde jetzt interessieren, aus Ihrer Perspektive, was ist jetzt, Stand heute, Science und was ist Fiction? Was kann künstliche Intelligenz heute tatsächlich schon?

Marcus Kleiner: Künstliche Intelligenz kann einerseits relativ viel. Unsere Suchmaschinen funktionieren komplett über KI. Bilderkennung, Spracherkennung, Smart Homes, man redet auch schon über automatisiertes Autofahren. Wir haben also sehr viele Tätigkeiten, die heute schon von KI umgesetzt werden können.

Wir sind eigentlich schon in der Science Fiction von früher. Wenn man in den Siebziger-, in den Sechzigerjahren sich Science-Fiction-Filme angeguckt hat, dann dachte man: Boah, Wahnsinn, was da möglich ist! Wann wird das wohl kommen, 2050? Aber mittlerweile haben wir das Gefühl, weil immer mehr von den Science-Fiction-Ideen in der Gegenwart möglich sind, dass wir eigentlich in der Science Fiction leben und Science Fiction als Genre gar nicht mehr nötig ist.

Victor Redman: Und wie sieht da die Zukunftsmusik aus? Haben Sie da einen Einblick drin, was vielleicht dann nicht 2050, aber vielleicht 2020, 2030 möglich sein wird? Sachen, wo Sie sagen: Das wird kommen, im Bezug auf künstliche Intelligenz?

Marcus Kleiner: Das Thema der Automatisierung, der Mechanisierung menschlichen Denkens, das Erschaffen von künstlichen Wesen – das wird noch zunehmen. Wir haben jetzt alle Roomba als Roboter zum Putzen, der am Boden sauber macht. Wir haben Siri, Alexa, also Spracherkennungs-Computer, die für uns einkaufen können, wenn das Katzenfutter mal leer ist oder das Licht anmachen, wenn der Finger schwach ist. Wir haben also schon sehr viele Hilfen, dass künstliche Intelligenz und Maschinen zu so einer Art Haussklaven werden oder Sklaven des Alltags werden, weil sie für uns Tätigkeiten übernehmen.

In Zukunft wird das so aussehen, dass es immer mehr Souveränität der Maschinen geben wird, der Robotik, aber auch der künstlichen Intelligenz, die genauer entscheiden kann bei Suchanfragen, die präziser vielleicht Auto fahren können. Automatisches Autofahren ist ein Trend, der in den nächsten fünf Jahren kommen wird, so dass nicht nur der öffentliche Nahverkehr, sondern auch der Personennahverkehr von künstlicher Intelligenz übernommen wird.

Wir werden mehr Roboter – Arbeitsroboter, Alltagsroboter – haben, die uns helfen, unseren Alltag zu gestalten. Wir werden einen drastischen Entwicklungsschub bekommen, weil KI heute der wesentliche Motor ist, um digitale Transformation nach vorne zu bringen. Und ohne digitale Transformation können wir ja gar nicht mehr leben oder überleben.

Victor Redman: Jetzt gibt’s ja tatsächlich auch schon viele Experten, oder meinetwegen auch solche, die sich so empfinden, die mittlerweile ganz stark warnen vor der Weiterentwicklung von künstlicher Intelligenz. Auch die Bundesregierung hat jetzt unter anderem Berater für künstliche Intelligenz, die sie dahingehend beraten, wie weit man da gehen sollte, worauf man achten muss. Solange wir uns jetzt auf dieser Ebene von Putzrobotern und „Hallo, Alexa!“ bewegen – wo ist denn da das Problem? Wo kommt diese Angst her?

Marcus Kleiner: Die Angst kommt daher, und das muss man sehr ernst nehmen, dass immer, wenn wir mit dem Internet verbunden sind – und KI bedarf des Internets, Smart Homes bedürfen des Internets – wir Daten abgeben, etwas über uns preisgeben: Wer wir sind, was wir sind, was wir mögen, was wir nicht mögen, unsere dunkelsten Suchgeheimnisse. Auch wenn wir auf Pornoseiten gehen – es kommt alles heraus und wird verwertet und ausgewertet. Das schafft natürlich auch eine Macht für kriminalisierte Anwendung von KI, also für Datenmissbrauch, für Datenraub, fürs Hacken von Konten, für illegale politische Ideen, die durch Social Bots in meinen Kopf kommen.

Man hat die Gefahr: Wir füttern KI mit unseren Daten, denn KI ist immer hungrig. Aber nicht wie 'ne Katze. Sie stirbt nicht, wenn sie keine Daten bekommt; sie wartet nur. Und das ist die große Gefahr: Was passiert mit diesen ganzen Metadaten, mit dem ganzen Big Data, das KI braucht, um Entscheidungen treffen zu können, um sich entwickeln zu können. Und auch die Automatisierung hat natürlich die Gefahr, dass man dann z.B. fragt: Wollen wir diese „Westworld“ haben, wo wir Androiden haben, die immer menschlicher entscheiden, wie Menschen sind, und dann die Menschen herausfordern, sie jagen, sie verfolgen, sie vielleicht töten.

Man muss fragen: Wie mächtig wird das? Wie mächtig wird der Einfluss von Robotik im Bereich der Arbeit? Also, wie viele Arbeitsplätze werden ersetzt durch Maschinen, durch Roboter, durch intelligente Software? Wie viel Datenmissbrauch findet statt, und was mit den ganzen Daten, die wir abgeben und täglich einspeisen?

Da muss man sehr genau analysieren und sich sehr genau überlegen, was verantwortungsvolles, ethisch relevantes Handeln mit Daten oder KI ist.

Victor Redman: Es gab ja in den USA als Alexa noch recht neu war, diesen Fall, dass die Macher der animierten Sitcom „South Park“ in einer Folge Voice Commands für Alexa untergebracht haben. Und das hat funktioniert. Das heißt, da war die künstliche Intelligenz noch nicht so weit zu unterscheiden zwischen Fernsehen und zwischen dem Besitzer, der Stimme des Besitzers. So einige Alexas haben dann wild in der Gegend rumbestellt, weil das eben in „South Park“ gefordert war. Die Macher haben dann natürlich gesagt, das war nicht geplant, das war ein blöder Zufall – ein Schelm, wer Böses dabei denkt.

Die Lösung wäre natürlich, die Dinger noch intelligenter zu machen. Die Möglichkeiten hat man ja. Dann kann man ja dafür sorgen, dass die die Stimme zuverlässiger erkennen und unterscheiden können zwischen einer Fernsehübertragung und einer echten Person. Wo sind denn da vielleicht, ohne uns zu weit in den Bereich der Science Fiction bewegen, die Risiken, wenn wir sagen: Ja, wir wollen, dass die immer intelligenter werden?

Marcus Kleiner: Also, das „South Park“-Beispiel ist natürlich ganz wunderbar. Solange das so ist, ist das mit der Menschheit noch in Ordnung, solange die Menschheit auch die Techniknutzung karikieren und ironisch wenden kann.

Die Frage, die man sich stellen muss für mich ist, warum wollen wir einerseits Intelligenz automatisieren und menschliches Denken mechanisieren? Warum ist das so wichtig? Soll das eine Hilfe sein, soll es eine Unterstützung im Alltag bei Problemfindung, Entscheidungsfindungen sein?

Wofür brauchen wir das? Und diese Grundlagendiskussion wird immer nur zwischen Mahnern und Wahnern aufgeteilt im Moment. Die einen sind dafür, die anderen sind dagegen, und man kommt zu gar nichts.

Und das muss eine Gesellschaft leisten: Warum brauchen wir das? Wie möchten wir damit umgehen? Wohin soll uns das führen, und wo sind auch die Grenzen? Man muss die Grenzen von KI genau bestimmen.

Wenn man keine Grenzen festlegt, wird sich das unendlich weiter entwickeln. Denn im Unterschied zum Menschen, der je älter er wird immer defekter wird, wird die Technologie, je älter sie wird, immer perfekter.

Emotional wird es nie der Fall sein. Auch in der sozialen Kompetenz wird eine Technologie nie weiter sein als der Mensch. Aber das ist die Gefahr, dass man sagt: Alles ist möglich. Fortschritt heißt ja, es immer weiter zu bringen, es immer weiter nach vorn zu bringen, es immer weiter zu verbessern. Da liegen die Gefahren, und damit muss sich eine Gesellschaft konfrontieren – nicht nur Experten.

Victor Redman: Was in der Science Fiction ja immer wieder gern gebraucht wird, ist das Motiv der Maschine, des Computers, des Programms, das neben der Intelligenz auch sowas wie Persönlichkeit entwickelt und Gefühle, und, ja, ein Eigenleben im Sinne von Leben. Jetzt haben Sie gerade schon gesagt, Maschinen werden nie soweit kommen wie der Mensch, emotional, von der Sozialkompetenz her. Heißt das, Sie glauben, das wird immer eine Simulation bleiben. Das heißt, der Punkt, wo wir uns fragen müssen, ist mein Computer jetzt ein Mensch, dem werden wir uns auch in 20 Jahren nicht stellen müssen? Oder ist das was, was durchaus im Bereich des Möglichen ist?

Macus Kleiner: Der Mensch ist sehr leicht verführbar. Ich sage bewusst nicht: manipulierbar. Er möchte sehr gern glauben, was er sieht. Daran ist er durch Erzählungen, durch Filme, durch Musik gewöhnt. Das was man hört, was man sieht, daran glaubt man erstmal. Insofern kann es verführerisch sein, wenn ich jetzt einen Avatar habe, der ein menschliches Gesicht hat, eine weibliche oder männliche Stimme hat, warm oder kalt klingt, der mir Trost gibt – „Mensch, bist du traurig, was ist los?“ – dann bin ich schon verführt zu sagen: Das ist schön, das ist gut so.

Und auch da wieder muss man sich fragen, wie sehr man reale Sozialität durch künstliche Sozialität ersetzen kann – nicht nur simulieren, sondern ersetzen kann. Wie sehr auch die Gespräche – wenn man sagt, „Hey, mir gehascht schlecht, ich fühl' mich gerade nicht so“, als wenn man mit 'nem Freund spricht – glaubhaft sind, wenn das mit einer Maschine passiert.

Entscheidend wird sein, wie sehr wir daran glauben wollen. Und wenn das dann unsere neuen Freunde werden, die ganz auf uns orientiert sind, uns immer Positivität und Unterstützung geben, mehr als das jeder Mensch macht, dann kann das auch eine Herausforderung werden.

Es geht aber immer wieder darum, dass wir eigentlich den Menschen verdoppeln wollen.

Wir verdoppeln den Menschen und wollen ihn besser machen, als er als Mensch sein kann. Das ist das Geheimnis von KI und auch der Reiz von KI

Victor Redman: Jetzt kennen wir ja alle die Dystopie: Die Maschinen, die sich erheben; die verschwimmenden Grenzen zwischen Menschlichkeit und Maschinellem. Aber gerade weil wir sie kennen, könnte die Dystopie ja eigentlich ziemlich leicht verhinderbar sein – oder?

Marcus Kleiner: Der Mensch will immer – das in der Geschichte der Menschheit zu beobachten – mehr. Er lebt von der Logik des Mehr, des Weiter, des Größer, des Schneller. Und ich glaube, solange man noch Möglichkeiten austesten kann, wird man sie austesten und ausreizen.

Stephen Hawking hat ja mal gesagt, kurz vor seinem Tod, dass der Mensch sich selbst abschafft, indem er immer mehr auf KI und Robotik setzt. Der Mensch macht sich unnötig in der Welt. Die Gefahr ist für uns jetzt noch Science Fiction. Das kann man sich nicht vorstellen. Wir haben in Filmen gesehen, was passiert; wir haben aber auch die Post-Apokalypse gesehen, und trotzdem geht die Welt weiter. Für uns ist eine Beendung des Menschlichen als Unterhaltungsidee vorstellbar, die uns vielleicht Angst macht, aber auch Lust macht. Als reales Ende oder als realer Rollenwechsel, dass jetzt die Roboter die Herrscher und die Menschen die Sklaven sind, …

… dass können wir uns nicht vorstellen, und das sehen wir so nicht. Was mir wichtig dabei ist: Man muss immer die Frage der Konsequenz und der Effekte mit bedenken, um diese Fragen sinnvoll und real zu beantworten, außerhalb von fiktionalen Stoffen.

Mae Becker: Der Aufstand der Maschinen wird also noch eine Weile auf sich warten lassen. Und auch eine künstliche Intelligenz als Partnerersatz wird sich so schnell wohl nicht durchsetzen.

Im Gegensatz dazu ist die schwache KI längst Teil unseres Tagesablaufs geworden. Sie begleitet uns, wenn wir im Netz unterwegs sind, beim Einkaufen oder auch im öffentlichen Nahverkehr. Ihr Job ist es, grob gesagt, uns das Leben ein bisschen einfacher zu machen.

Klingt erstmal nicht schlecht. Alexander Filipovic sieht aber genau hier das größte Problempotential. Dort, wo künstliche Intelligenzen für uns entscheiden, gibt es nämlich auch immer eine ganze Reihe ungeklärter Fragen.

Alexander Filipovic: Diese Systeme laufen schon. Und diese Systeme machen uns tatsächlich auch ethische Probleme, die ganz unterschiedlicher Art sind. Zum Beispiel können sie diskriminieren. Sie können unsere Autonomie gefährden, indem sie Dinge entscheiden, von denen wir gar nicht wollen, dass sie entschieden werden von Maschinen. Sie können uns die Arbeit wegnehmen – was gar nicht sicher ist, aber eine Befürchtung – und so weiter.

Das Problem daran ist, dass ist nicht immer ganz transparent ist und sein kann, wie diese Systeme zur Entscheidung kommen. Das, glaube ich, schafft uns Probleme im Bereich der Verantwortung.

Mae Becker: Wer haftet für die Entscheidungen einer künstlichen Intelligenz? Und wer übernimmt die Verantwortung dafür, dass eventuelle Fehlentscheidungen sich nicht wiederholen? Auf diese und ähnliche Fragen gilt es zeitnah Antworten zu finden. Nur so ist ein verantwortungsvoller Umgang mit künstlicher Intelligenz möglich.

Angst vor der Zukunft hat Alexander Filipovic nicht. Allerdings sagt er uns auch keine Utopie voller perfekt funktionierender Roboter voraus. Er meint: Noch ist alles offen.

Alexander Filipovic: Ich glaube, dass die Zukunft in Zusammenhang mit diesen sehr machtvollen Techniken große Gestaltungsaufgaben stellt. Und die müssen wir angehen. Wenn wir das verpennen und jetzt diese Sache nicht gestalten – ich sag' nur, Mobilität, Gesundheit, militärische Systeme – [11:29 Husten entfernen] dann könnte es wirklich schwierig werden. Dann werden vielleicht Dinge passieren, die wir schwer gestalten oder nicht mehr reinholen können. Das heißt, wir müssen sehr aufmerksam sein die Sachen politisch angehen – aber da wird ja einiges schon getan gerade.

Mae Becker: Die Zukunft, die gestern noch Science Fiction war, hat längst begonnen. Aber sie ist nicht in Stein gemeißelt. Wir können sie gemeinsam gestalten. Die Mozilla Foundation ist schon ganz vorn mit dabei, zum Beispiel als Sponsor der Responsible Computer Science Challenge. Im Rahmen dieses Wettbewerbs werden bis zu 3,5 Millionen Dollar ausgeschüttet, um Ethik als Bestandteil eines modernen Informatik-Studiums zu etablieren. Frei nach dem Motto: Aus großem Code folgt große Verantwortung.

Nach diesem Prinzip funktioniert auch der Firefox Browser. Er schützt deine Daten vor neugierigen Dritten und erspart dir so zum Beispiel unerwünschte Werbung. Natürlich kannst dieses Feature, wie auch jedes andere, mit einem Klick abschalten. Wie du das Internet erleben willst, überlässt Mozilla ganz dir.

Darum, wie wir das Internet gestalten können, soll es auch in der nächsten Folge about:web gehen. Dort beschäftigen wir uns mit der Frage, wie wir digitale Technologien verantwortungsvoll entwickeln und nutzen können.


Kommentare

by Galvanic14 on
diese Zeit macht sich bezahlt! danke

Neuer Kommentar

Durch das Abschicken des Formulars stimmst du zu, dass der Wert unter "Name oder Pseudonym" gespeichert wird und öffentlich angezeigt werden kann. Wir speichern keine IP-Adressen oder andere personenbezogene Daten. Die Nutzung deines echten Namens ist freiwillig.

Über diesen Podcast

Willkommen in der Welt des Internets. Voll mit tollen, skurrilen, interessanten und - ja leider auch verstörenden Sachen. Hier findet Du alles, vor allem Katzen Videos und Gifs - nein jiifs - oder Gifs - naja. Hier sprichst Du mit Deinen Freunden, hier hörst du Musik, hier kannst du in Echtzeit verfolgen, was überall auf der Welt passiert. Hier kannst du aber auch ganz ganz andere Sachen sehen: Mobbing, Hass, Fake-News, Hacking und Unternehmen, die jeden Deiner Schritte verfolgen wollen, … Wie irre ist es eigentlich, dass die wenigsten von uns auch nur die leiseste Ahnung haben, womit wir es hier zu tun haben. Dabei nutzen wir das Internet doch ständig, immer und überall.

Dieser Podcast erzählt Geschichten aus der Wildnis des Internets und geht den Online-Themen auf den Grund, die uns alle betreffen. Ob es sich um Datenschutzverletzungen, Monopolismus, Aufmerksamkeitsökonomie, Beziehungen oder Cyber-Mobbing handelt, wir Menschen haben die Macht, das Internet gesund, seltsam und wunderbar für alle zu machen.

von und mit mozilla und ze.tt

Abonnieren

Follow us