Östermanns Blog

Organisation und Unternehmensführung im Wandel, Handeln unter den Bedingungen des Klimawandels, Strategie, Medienwandel, Digitale Transformation, Arbeit der Zukunft, Komplexität, nächste Gesellschaft

Posts Tagged ‘Künstliche Intelligenz

Sensoren (12): Blockchain – und was dahinter steckt

leave a comment »

Blockchain – sehr viel wird mittlerweile darüber geschrieben. Für den Durchschnittsbürger ist jedoch schwer zu verstehen, was sich dahinter verbirgt. Manche sehen darin gar die größte Innovation seit dem World Wide Web. Der Unternehmensberater Pero Micic, Future Management Group, erläutert in diesem Video die neue Technologie und ihre möglichen Auswirkungen auf praktisch alle wertschöpfenden Prozesse, in denen Kontrakte eine Rolle spielen, und er gibt einen Tipp, wie sich Organisationen ganz praktisch damit auseinander setzen können.

Er geht dabei auch auf die DAO ein (s. ab 7’45“), die dezentralisierte autonome Organisation, eine neue Form, wie Unternehmen automatisiert mit Künstlicher Intelligenz geführt und mit Blockchain-Technologie verwaltet werden können. Klingt befremdlich, scheint aber in den Laboren konkret in Arbeit zu sein.

Micic empfiehlt Organisationen, die sich strategisch auf diese Technologie einstellen wollen, eine Disruptionsinventur aller Prozesse vorzunehmen, um zu erkennen, welche Prozesse durch Blockchain-Technologie vollständig automatisiert werden könnten. Und er empfiehlt, es jetzt zu tun.

___

Mehr dazu siehe Unternehmensmodelle im Wandel (17): Digitalisierung, DAOs und die Disruption der systemischen Beratung

Sensoren (11): Demokratie als Hindernis für den Klimaschutz?

leave a comment »

Der Weltklimarat hat kürzlich zum wiederholten Male sehr eindringlich an alle appelliert, jetzt zu handeln, um die schlimmsten Folgen der Erdüberhitzung noch abzuwenden. Jedes Zehntel Grad weniger zählt. Es geht also darum, jetzt kraftvoll und zupackend zu handeln, wenn es gelingen soll, die Emissionen um 35% bis 2030 zu reduzieren. Nur wie? Wie sollen in einer Demokratie die nötigen, von Mehrheiten getragenen Beschlüsse zustande kommen?

I

Das SRF hat kürzlich in ihrer Sternstunde mit Graeme Maxton, dem ehemaligen Generalsekretär des Club of Rome, einen Experten befragt, der sein Lebenswerk dieser Frage widmet. Wie könnte die nötige Wende aussehen? Wie könnte sie gelingen?

Maxton macht klar, dass Maßnahmen notwendig sind, die uns viel abverlangen werden. Aber im Angesicht der Bedrohung erscheint es vernünftig und möglich, die gefahrenen Kilometer oder die geflogenen Meilen jährlich um 3 % zu verringern. Das wäre nach seiner Überzeugung und nach der Empfehlung des Weltklimarats nötig, aber auch ausreichend, um das Schlimmste abzuwenden. Wir müssten aufhören, Kohle, Öl und Gas zu verbrennen.

Wir müssen aufhören, Auto zu fahren, zu fliegen oder Schiffsreisen zu machen. Denn das alles generiert dieses Problem. Natürlich finden das alle verrückt. Und es ist auch verrückt. Denn je länger wir zuwarten, umso radikalere Maßnahmen sind nötig. … Leute, die in der Automobilindustrie tätig sind oder in der Luftfahrtindustrie, müssen unterstützt werden, damit sie nicht persönlich unter den Maßnahmen leiden und überhaupt aufhören können. … Wenn wir jetzt … beginnen, können wir unsere Emissionen jedes Jahr um drei Prozent reduzieren. Das scheint machbar. Aber es sind 35% weniger Autos, 35% weniger Flüge, 35% weniger Schiffahrten in 10 Jahren. Das ist eine gewaltige Veränderung.

Gleichzeitig die notwendige Wende des Denkens, eine „zweite Aufklärung“, einzuleiten. Es brauche aber Jahrzehnte, um das ganze soziale System neu zu denken. Wir können nicht warten, bis die Einsicht gereift und die grundlegende Richtungsänderung auf der Basis demokratischer  Mehrheitsentscheidungen möglich ist, meint Maxon. Was die Leute nicht verstehen und die Konzerne ignorieren, ist die verheerende Langfristwirkung des modernen Lebensstils. Die Investitionen in alte Energie, vor allem Kohlekraftwerke, werden weltweit immer noch erhöht.

Es sind dazu Notstandsmaßnahmen erforderlich, meint Maxton. Es brauche eine Gruppe von Menschen, die sich der Sache annähme und für die nötigen Sofortmaßnahmen sorge. Auch für die Medien schlägt Maxton angesichts dieses Notstands eine Aufsicht vor.

Mit einem Problem waren wir in den letzten Jahren ständig konfrontiert. Ich will es nicht wie Donald Trump Fake News nennen. Aber in vielen Berichten heisst es, der Klimawandel sei nicht wirklich ein Problem, sondern es werde aufgebauscht von den Linken, die nicht wirklich verstehen, wie die Welt funktioniert. Damit haben die Medien das Problem verschärft. Denn viele Leute sind ernsthaft verwirrt und wissen nicht wirklich, was sich ändern muss. Die Medien haben also in diesem Prozess eine negative Rolle gespielt. Doch sie müssen dazu beitragen, dass die Menschen verstehen, wie notwendig diese Veränderung ist.

Der Moderator konfrontiert Maxon mit einem Ausschnitt aus einem Interview mit einem anderen prominenten Kämpfer für den Umwelt- und Klimaschutz, Al Gore. Dieser vertritt darin die Auffassung, die Welt befinde sich gerade im frühen Stadium einer globalen Nachhaltigkeitsrevolution, ermöglicht durch digitale Werkzeuge, wie die künstliche Intelligenz und das Internet der Dinge. Sie habe die Dimension der industriellen Revolution, aber mit der Geschwindigkeit der digitalen Revolution. Das nähre die Hoffnung, die Probleme vor dem „point of no return“ in den Griff zu bekommen. Maxon hat dazu eine klare Sicht.

Das ist die Stimme der Englisch sprechenden Welt. Wir ziehen ja auch nicht in den Krieg und fragen: Wie können wir davon profitieren? Aber genau das tut Al Gore und fragt: Wie können wir daraus Gewinn erzielen? Wenn ich oder meine Kollegen in den USA einen Vortrag halten, hört man uns nur zu, wenn wir ein Businessszenario präsentieren: „Das ist die Antwort und Du kannst davon profitieren.“ Sonst hört keiner zu. … Keiner profitiert davon, wenn man eine Stadt umsiedeln oder höhere Flutmauern bauen muss. Niemand profitiert von Insektenplagen oder der Armut, die Afrika erfassen wird.

Die Begriffe der Aufklärung – Freiheit und Fortschritt – haben ihre ursprüngliche Bedeutung eingebüßt und uns, so Maxon, in eine falsche Richtung geführt.

Unser Wirtschaftssystem, unser Sicht der Natur, unsere Werte bezüglich Besitz und Preisdenken – vieles stammt aus jener Zeit. … Wir müssen unsere Werte überdenken. Was bedeutet Fortschritt? Nicht Wirtschaftswachstum, nicht die Zunahme des Bruttoinlandsprodukts, sicher aber die Verbesserung der Wohlfahrt. Es geht darum, besser zu leben, mehr zu entdecken, eine höhere Lebenserwartung und Lebensqualität zu erreichen, … Es bedeutet langfristig zu denken und im Gleichgewicht mit der Natur zu leben. … Man darf Freiheit nicht gleichsetzen mit extremem Individualismus. Es geht nicht um Egoismus oder Wettbewerb. Wir brauchen eine kooperative Gesellschaft und müssen deshalb viele unserer Grundwerte überprüfen.

Er nimmt die Demokratie, so wie sie heute gelebt wird, von dieser Überprüfung nicht aus.

Es gehört zum heutigen Zeitgeist, dass alle fordern: Wir brauchen Demokratie! … Ich glaube an die Stimme des Volkes. Aber mir ist auch klar, wenn wir für die Lösung des Klimaproblems die Zustimmung aller brauchen, dauert es zulange. Heute ist das demokratische System – und das sage ich ungern – ein Hindernis für diese Veränderung. … Ich schlage keine Diktatur vor. Aber wir brauchen eine Gruppe von Leuten, so etwas wie Technokraten, damit wir die Wende durchsetzen können.

Riskante Gedanken. Diese Notstandsmaßnahmen könnten, so mein Eindruck, schnell von autoritären Bewegungen für die Abschaffung von Freiheitsrechten missbraucht  werden. Er geht jedoch davon aus, dass unsere Demokratie nur noch eine Scheindemokratie ist, eine Plutokratie, in der das Geld regiert.

Wir haben einen Großteil unserer Macht den Konzernen überlassen, und das ist ein Teil des Problems.

Eine Gratwanderung, bei der es, so scheint mir, neben den Sofortmaßnahmen sehr auf die Verständigung in der Gesellschaft, auf eine Rückbesinnung auf demokratische  Tugenden ankommt.

Als Individuen können wir den Leuten helfen zu verstehen, wie dringlich das Problem ist. Und wir können den Politikern helfen zu verstehen, dass sie im Interesse der Menschheit handeln müssen und nicht im Interesse der Großkonzerne, wie das viele heute tun.

II

In der aktuellen Ausgabe von DIE ZEIT äußert sich Michael Sandel, bekannter Philosoph von der Universität in Harvard in einem Interview ganz ähnlich. Auch seine Zeitdiagnose geht von fehlgeleiteten gesellschaftlichen Entwicklungen und verloren gegangener Balance aus.

Der Liberalismus hat sich seit Jahrzehnten moralisch entkernt, weil er alle moralischen Wertungen an den Markt delegiert hat. Es war ihm gleichgültig, dass viele chancenlos und enttäuscht zurückblieben. Mit den Erfahrungen und Erwartungen, Bindungen und Hoffnungen der Bürger wissen entfesselte Marktgesellschaften nichts anzufangen. Die Demokratie verliert so ihre Werte und ihren Bezug auf das Gemeinwohl: bis sie nur noch eine Schwundform ihres Anspruchs ist und bloß ein Aggregat von privaten Interessen.*

*Auszug aus: Zeitverlag Gerd Bucerius GmbH und Co. KG. DIE ZEIT – Nr. 44, 25.10.2018.

Das klingt sehr nach Plutokratie. Haben wir es also mit einer Aushöhlung demokratischer Prinzipien zu tun? Könnte es sein, dass wir auf dem alten Pfad der gescheiterten Moderne verharren, wenn wir die Demokratie, wie sie sich heute zeigt, verteidigen? Brauchen wir eine grundlegende Erneuerung der Demokratie? Eine zweite Aufklärung?

Auch Sanders geht davon aus, dass das Denken, wie auch die Politik, Zeit, Aufmerksamkeit und Anteilnahme brauchen. Demokratie vertrage die Flüchtigkeit der technologisch bestimmten Zerstreuung und permanenten Ablenkung nicht. Das würde bedeuten, dass wir den ersten Schritt, wie ihn Maxon vorschlägt, die schnelle Unterbrechung der unheilvollen Klima- und Umweltzerstörung, eher als Maßnahmenbündel zu verstehen hätten. Wir sollten parallel dazu sofort mit dem zweiten Schritt beginnen, dem langsamen, beharrlichen Nachdenken darüber, wie wir gemeinsam im Einklang mit der Natur auf der Erde leben wollen. Dieser demokratischen Erneuerung die nötige Aufmerksamkeit zu verschaffen, das ist nach Sandel die größte Aufgabe, vor der die Demokratien stehen. Es gehe darum,

… Arenen, Gelegenheiten, Formen für den Streit und die wechselseitige Aufmerksamkeit zu schaffen, die Menschen aus ihren Blasen herauszuholen und einander begegnen zu lassen. Schreierei sollte nicht belohnt werden. Gespräche vertragen auch kein Profitinteresse. Die Kontroverse ist anstrengend. Sie ist Arbeit. Aber vielleicht ist sie die einzige Anstrengung, auf die es wirklich ankommt. Jede Institution einer Demokratie ist aufgerufen, sich ihr zu stellen, Parlamente, Zeitungen, Universitäten, Schulen, Nachbarschaften …**

**Auszug aus: Zeitverlag Gerd Bucerius GmbH und Co. KG. DIE ZEIT – Nr. 44, 25.10.2018.

Hoffnungsvolle Worte, die einen fragen lassen: Was hält uns ab, auf diese Weise mit der Erneuerung der Demokratie zu beginnen. Aber vielleicht sind wir ja schon mittendrin.

 

Manifeste (8): Ethische Leitlinien für die Digitalisierung

leave a comment »

An der Hochschule der Medien in Stuttgart haben Studierende 2017 in einem Masterprojekt 10 ethische Leitlinien für die Digitalisierung von Unternehmen erarbeitet. Die Leitlinien appellieren an die soziale und ökologische Verantwortung der Unternehmen und sind als Teil einer nachhaltigen Unternehmenskultur gedacht. Die Leitsätze sind in ihrer Grundhaltung von dem Anspruch getragen, dass technischer Fortschritt stets den Menschen dienen möge.

Die Leitsätze lesen sich im ersten Anschein schlüssig und nachvollziehbar. Beim zweiten Lesen lassen sie jedoch ahnen, wie hoch der Preis für ethisch verantwortbare Unternehmenskultur unter digitalisierten Verhältnissen ist. Bei den Arbeitsbedingungen unter dem Stichwort „Arbeit 4.0“ erscheint die Nähe zur Praxis am größten. Hier gibt es viele Beispiele, wie Unternehmen versuchen, den Wandel der Arbeitswelt aktiv zu gestalten.

Wie es jedoch um die datenökologische Verantwortung steht, erfahren wir häufig selbst im Alltag. Die großen Internetkonzerne führen uns täglich vor Augen, dass eine „Informationssymmetrie zwischen Kunden und Unternehmen“ in aller Regel noch in weiter Ferne ist. Ein Bewusstsein für diesen wichtigen Grundsatz entsteht erst allmählich.

Besonders kritisch wird es nach meinem Eindruck bei der Künstlichen Intelligenz (KI). Die Leitsätze handeln diese ungewissen Herausforderungen in einem einzigen Abschnitt ab: KI soll werteorientiert gestaltet werden, heisst es in Leitsatz 9 ganz lapidar.

Intelligente Systeme sollen so gestaltet werden, dass die Grundrechte der Menschen gewahrt und ihnen ein gutes und gelingendes Leben ermöglicht werden kann. Bei der Entwicklung und dem Einsatz von künstlicher Intelligenz (KI) sind ethische Grundsätze zu berücksichtigen (wertebasiertes Design). Damit nicht durch automatisierte Entscheidungen paternalistische Effekte eintreten, die die Handlungsfreiheit des Menschen einschränken, bedarf es einer ständigen Systemkontrolle und Eingriffsmöglichkeiten ins System.

Damit ist der Anspruch formuliert, stets die Kontrolle über die Entscheidungsgrundlagen künstlicher Intelligenz zu wahren. Das fordert beispielsweise auch der Interessenverband der deutschen Digitalwirtschaft Bitkom in einem Positionspapier zur KI. Das Papier betrachtet es als die größte Herausforderung, dass sich mit Big Data und KI die gesellschaftlichen Entscheidungsprozesse und -routinen neu justieren werden.

So plädiert das Papier für eine Integration von KI und menschlicher Urteilskraft (s. S. 86).

Worum es dabei gehen muss, ist: Die relativen Vorzüge des maschinellen Lernens mit den relativen Vorzügen menschlicher Urteilskraft in einen guten Entscheidungsprozess zu bringen, welcher der jeweiligen Situation angemessen ist. Dabei kann die Last der Qualitätssicherung nicht einseitig den Entwicklern der Modelle angelastet werden. Als Faustregel kann dabei bis auf weiteres gelten: Je komplexer die Modelle und je tiefgreifender die Entscheidungen sind, desto stärker sollten qualitative Evaluationen mit menschlicher Urteilskraft in den Entscheidungsprozess eingebaut werden.

Diese Integration von menschlicher und maschineller Intelligenz im Entscheidungsprozess sucht das Bitkom-Papier vor allem durch fundamentale Änderungen der Organisationsstrukturen und Kompetenzen der Mitarbeitenden zu erreichen (S. 54).

Die mit der Nutzung von Big Data und KI einhergehende digitale Transformation ist auch eine organisationale Veränderung. Der Sinn der Entscheidungsautomation ist nicht darin zu sehen, dass Entscheidungsträger lediglich zu einer Kontrollinstanz mutieren, sondern sich neue Aufgabenfelder und veränderte Strukturen im Sinne einer neuen Arbeitsteilung ergeben. Letztlich handelt es sich um einen rationalen Entscheidungsverzicht der Führungskräfte bei Aufgaben, die auch im rechtlichen Sinne und definierten Aufgabenspektrum automatisierbar sind. Das mag nun aber für den Entscheidungsträger an sich zunächst zu einem empfundenen Kontrollverlust führen. Daher sind einer Automatisierung enge Grenzen zu setzen und den menschlichen Aufgabenträgern neben den kreativen und nicht automatisierbaren Tätigkeiten weitere steuernde Verantwortungen zu geben, die ein nicht völliges Entbinden von der Entscheidungsaufgabe an sich nach sich ziehen.

Auch wenn das Papier um eine ausgewogene Abwägung der Chancen und Risiken bemüht ist, so ist doch zu befürchten, dass der werteorientierte Umgang mit der KI an der herrschenden Logik digitalen Wirtschaftens scheitert. Digitalisierung hatte von Beginn an einen dominierenden Zweck: Effizienz zu steigern. In Zeiten von Big Data und KI eröffnen sich hierfür ganz neue Dimensionen. Das Bitkom-Papier verkennt, dass die Daten der Konsumenten selbst, jedermanns Daten, die Grundlage für die Geschäftsmodelle der im und durch das Netz erfolgreichen Unternehmen sind. Wenn ethische Grundsätze Wirklichkeit werden sollen, ist deshalb nichts weniger als ein Paradigmenwechsel in der Art, wie wir wirtschaften, erforderlich. Der Automatisierung enge Grenzen zu setzen bedeutet nichts weniger als den Verzicht auf Effizienzgewinne und Profit.

Es ist deshalb zu befürchten, dass ethische Leitsätze, wie sie die HdM-Studierenden formuliert haben, in vielen Fällen der betriebswirtschaftlichen Effizienz,  dem hohen Wettbewerbsdruck und der Überzeugung geopfert werden, dass organisationsstrukturelle Maßnahmen schon ausreichen werden, um die Gefahren von Big Data und KI zu beherrschen.

_____

Mehr dazu s. Manifeste (3): Petersberger Erklärung

Sensoren (9): Aviv Ovadya warnt vor einer Informationskrise durch künstliche Intelligenz

leave a comment »

Blüht uns in der nahen Zukunft eine durch Big Tech verursachte Informationskrise, in der niemand mehr Fakten von Fake unterscheiden kann?

Aviv Ovadya, Chief Technologist am Center for Social Media Responsibility, warnt, nach einem Beitrag von BuzzFeedNews, vor den Möglichkeiten, mit künstlicher Intelligenz die Aussagen in Videos zu manipulieren. Neueste Algorithmen ermöglichen es, etwa einem Politiker jede beliebige Aussage täuschend echt in den Mund zu legen.

Gefahr droht, so Ovadya, besonders durch das rasante Tempo, mit dem sich künstliche Intelligenz und Maschinenlernen entwickeln. Es übersteigt unsere Fähigkeit, die Risiken dieser Technologien überhaupt zu verstehen.

Technologies that can be used to enhance and distort what is real are evolving faster than our ability to understand and control or mitigate it. The stakes are high and the possible consequences more disastrous than foreign meddling in an election — an undermining or upending of core civilizational institutions, an „infocalypse.”

Ein mögliches Muster in seinem Szenario nennt er „Wirklichkeitsapathie“ (reality apathy). Sie könnte sich schnell einstellen, wenn die Menschen permanent mit gefälschten Informationen überflutet werden. BuzzFeedNews schreibt:

Beset by a torrent of constant misinformation, people simply start to give up. Ovadya is quick to remind us that this is common in areas where information is poor and thus assumed to be incorrect. The big difference, Ovadya notes, is the adoption of apathy to a developed society like ours. The outcome, he fears, is not good. “People stop paying attention to news and that fundamental level of informedness required for functional democracy becomes unstable.”

Der Beitrag nennt eine ganze Reihe von Beispielen, die das Vertrauen in unsere Informationsumgebungen zerstören können, wenn solche Werkzeuge in falsche Hände geraten. VoCo ist eine Anwendung, die Adobe gerade entwickelt. Das „Photoshop für Audios“ ermöglicht die Korrektur von Audios ganz einfach mit der Computertastatur. Google entwickelt ein neuronales Netzwerk, ein „generative adversarial network“ (GAN), das die Glaubwürdigkeit von Fake News eigenständig steigern kann. Gefährliche Entwicklungen, die dazu führen können, dass die Glaubwürdigkeit jeglicher Information ausgehöhlt wird.

“In the next two, three, four years we’re going to have to plan for hobbyist propagandists who can make a fortune by creating highly realistic, photo realistic simulations”

so zitiert der Beitrag von BuzzFeedNews Justin Hendrix vom NYC Media Lab.

“And should those attempts work, and people come to suspect that there’s no underlying reality to media artifacts of any kind, then we’re in a really difficult place. It’ll only take a couple of big hoaxes to really convince the public that nothing’s real.”

Ovadya, der sich der freien und Open-Source-Kultur zugehörig fühlt, betont, dass dies Worst-Case-Szenarien sind. Notwendig ist im nächsten Schritt die Information einer breiten Öffentlichkeit über diese Entwicklungen.

Convince the greater public, as well as lawmakers, university technologists, and tech companies, that a reality-distorting information apocalypse is not only plausible, but close at hand.

Was nährt die Hoffnung, dass sich ein Best-Case-Szenario durchsetzen wird und die Gesellschaft eine gesunde Balance der technologischen Entwicklung und einer wünschenswerten sozialen und gesellschaftlichen Entwicklung findet? Ovadya stellt einerseits eine wachsende Aufmerksamkeit auf digitale Propaganda-Räume und den aus ihnen erwachsenden Gefahren fest. Manche Checks and Balances fingen an zu greifen. Zum anderen setzt er auf die Entwicklung kryptografischer Methoden, mit denen die Echtheit von Videos und Audios nachgewiesen werden kann.

Beruhigend zu wissen, dass jede negative Entwicklung immer auch eine Gegenbewegung hervorruft.

Gefunden bei piqd

Written by Östermann

18. Februar 2018 at 11:00

Manifeste (1): Das digitale Manifest

with 3 comments

Der Wahlkampf für die Bundestagswahl 2017 hat die klaffende Lücke deutlich gezeigt, die sich zwischen dem gelebten und dem notwendigen gesellschaftlichen Diskurs über die Folgen der Digitalisierung auftut. Es gibt mittlerweile eine ganze Reihe von Initiativen, die versuchen, eine breite Debatte über die Beziehung von Mensch und Technik und über Spielräume zur Gestaltung gesellschaftlicher Rahmenbedingungen anzustoßen. Eine Form, den grundlegenden Diskurs zu führen, sind Manifeste und Thesen. Ein Beispiel hat vor einigen Jahren etwa  Dirk Baecker mit seinen 22 Thesen zur nächsten Gesellschaft beigesteuert. In diesem Blog werde ich in nächster Zeit immer wieder auf grundlegende Äußerungen der Zivilgesellschaft hinweisen.

Einen gemeinsamen Appell zur Sicherung der Freiheit und Demokratie haben neun Wissenschaftler und Experten 2015 vorgelegt. Sie sehen die Gesellschaft am Scheideweg. Auch zwei Jahre nach Veröffentlichung scheint es so, als ob die Diagnose unverändert zutrifft:  Es entwickelt sich alles in Richtung eines Feudalismus 2.0. Für eine Kurskorrektur in Richtung Demokratie 2.0 fordern die Autoren des Manifests die Einhaltung folgender Grundprinzipien:

  1. die Funktion von Informationssystemen stärker zu dezentralisieren;
  2. informationelle Selbstbestimmung und Partizipation zu unterstützen;
  3. Transparenz für eine erhöhte Vertrauenswürdigkeit zu verbessern;
  4. Informationsverzerrungen und -verschmutzung zu reduzieren;
  5. von den Nutzern gesteuerte Informationsfilter zu ermöglichen;
  6. gesellschaftliche und ökonomische Vielfalt zu fördern;
  7. die Fähigkeit technischer Systeme zur Zusammenarbeit zu verbessern;
  8. digitale Assistenten und Koordinationswerkzeuge zu erstellen;
  9. kollektive Intelligenz zu unterstützen; und
  10. die Mündigkeit der Bürger in der digitalen Welt zu fördern – eine „digitale Aufklärung“.

Die Prinzipien sind ganz darauf ausgerichtet, die Menschenrechte in einer digitalisierten Welt zu sichern. Im Mittelpunkt steht das informationelle Selbstbestimmungsrecht, das jedem zusteht, heute jedoch massiv bedroht ist. Die Prinzipien sind realisierbar, setzen aber politische und rechtliche Rahmenbedingungen voraus. Sie lassen sich als Abwehr gegen die massive Verschiebung der Machtverhältnisse auf die wenigen, die die Algorithmen kontrollieren, lesen. Sie lassen sich aber auch – und das scheint mir wesentlich – als Hinweis lesen, welche Anknüpfungspunkte es gibt, gemeinsam eine digitale Zivilgesellschaft zu formen, die auf verteilte Macht nach demokratischen Prinzipien setzt.

Im Kern geht es um eine Alternative zur Verhaltenssteuerung durch Algorithmen und künstliche Intelligenz. Dirk Helbing – einer der Autoren des Manifests – hat hierzu ausführlich dargelegt, weshalb dieses „Big Nudging“ – das auf ein veraltetes wissenschaftliches Konzept, den Behaviorismus, setzt – zum Scheitern verurteilt ist.

Obwohl bereits 90 Länder Nudging verwenden, haben die gesellschaftlichen Probleme nicht abgenommen. Im Gegenteil. Die Klimaerwärmung schreitet ungebremst voran. Der Weltfrieden ist brüchig geworden und die Sorge vor Terrorismus allgegenwärtig. Cyberkriminalität explodiert, und auch die Wirtschafts- und Schuldenkrise ist vielerorts immer noch ungelöst.

Den Vertretern einer solchen Verhaltenssteuerung fehlt das Verständnis für komplexitätsbedingte Probleme. Es ist weder klar, was gut oder schlecht für die Gesellschaft ist, noch gibt es keine Maßnahme, die für alle Menschen gut wäre.

Die heute angewandten Big-Data-basierten Personalisierungsverfahren schaffen vielmehr das Problem zunehmender Diskriminierung.

In einem komplexen System wie der Gesellschaft führt die Verbesserung in einem Bereich fast zwangsläufig zu einer Verschlechterung in einem anderen. So können sich großflächige Eingriffe leicht als schwerwiegende Fehler erweisen.

Die Autoren deuten eine Fülle an Lösungsansätzen an, die geeignet erscheinen, die Errungenschaften der Demokratie, allen voran Pluralismus und Vielfalt, auch in der digitalen Welt zu erhalten.

Die Lösung der Zukunft lautet kollektive Intelligenz: Citizen Science, Crowd Sourcing und Online-Diskussionsplattformen sind […] eminent wichtige neue Ansätze, um mehr Wissen, Ideen und Ressourcen nutzbar zu machen.

 

Written by Östermann

5. November 2017 at 11:00

Sensoren (7): Diktatur 2.0 – Wege aus der Überwachungsgesellschaft

leave a comment »

Der Pluralismus

sorgt für Diversität, Diversität sorgt für Innovation und kollektive Intelligenz und eine Fähigkeit der Gesellschaft, sich an alle möglichen Sachlagen anzupassen, also auf unerwartete Ereignisse zu reagieren, wie sie mit der digitalen Transformation und auch mit den Nachhaltigkeitsproblemen dieser Welt sicherlich entstehen werden.

Diese Errungenschaft aus einer jahrhundertelangen Entwicklung gilt es zu bewahren. Sie ist bedroht durch die Pläne der großen Tec- und Internet-Konzerne Facebook, Google, IBM und andere, der Gesellschaft ein Betriebssystem zu verpassen, in dem der einzelne mithilfe von Algorithmen unmerklich in eine bestimmte Richtung gelenkt wird.

Die Radiosendung SWR2 Forum vom 27. Juni 2017 versammelt die besorgten Stimmen von drei aufmerksamen Beobachtern der Gesellschaft in der digitalen Transformation  um das Mikrofon: Dirk Helbing, Computer- und Sozialwissenschaftler von der ETH Zürich, den Wissenschaftsjournalisten Adrian Lobe und Peter Schaar von der Europäischen Akademie für Informationsfreiheit und Datenschutz in Berlin.

Die drei sind sich in der Einschätzung der bedrohlichen Lage weitgehend einig. Helbing findet deutliche Worte für die Bedrohung durch Computerwissenschaftler und Ingenieure, die ein Betriebssystem für die Gesellschaft aufbauten, die aber die Bedeutung von Geschichte, von Kultur, von Ethik und Moral nicht verstünden.

Nun hat man die Vorstellung, dass es irgendwann superintelligente Systeme gibt, die besser als wir verstehen können, was die Probleme sind und wie man sie lösen kann. Und wenn wir nur diese Systeme hätten, dann wären alle Menschheitsprobleme bald gelöst. … Irgendwann werden sie in allen Disziplinen besser sein. Irgendwann werden sie alle Weltprobleme lösen können. Ich halte das für eine gefährliche Utopie, weil die vernetzte Welt viel komplexer ist. Die Rechenleistung hält nicht Schritt mit der Datenmenge, die Datenmenge hält nicht Schritt mit der vernetzungsbedingten Komplexität. Deswegen können KI-System diese Welt niemals optimal regieren. Das geht schlicht und einfach nicht. Aber hier wird eine Utopie zur Ideologie und die Ideologie wird zur neuen Religion gemacht. Ich glaube schon, dass das hochgefährlich ist, weil es zu wenige Menschen gibt, die tatsächlich diese Annahmen hinter diesen Utopien hinterfragt haben. De facto hat das Silicon Valley eigentlich kein Weltproblem gelöst.

Noch lässt sich beobachten, wie eine solche neofeudalistische Technokratie entsteht, z.B. in China.

Der chinesische Citizen-Score treibt es auf die Spitze. Da werden alle Daten, die gesammelt werden, auf einen einzigen Wert heruntergekocht. Der beschreibt den Wert eines Menschen aus der Sicht der Regierenden.

Ein anderes Beispiel, an dem bedenkliche Entwicklungen wahrnehmbar sind, ist die Veränderung der Sprache. Lobe weist auf die Emojis hin. Jährlich würden 6 Milliarden Emojis verschickt. Das Unicode-Konsortium, an dem alle großen Tec-Konzerne beteiligt sind, schaffe mit der Regulierung dieser Emojis neue sprachliche Verhältnisse. Denn diese Symbole drückten Emotion eindeutig aus. Sie ließen keine Ambivalenzen in der emotionalen Bewertung mehr zu. Die Dialektik der Sprache, so Lobe, geht verloren.

Im Dialog der drei Experten werden zwei Ebenen deutlich, auf denen Handlungen möglich sind: die persönliche Ebene und die politische Ebene. Helbing verweist auf die noch vorhandenen Möglichkeiten für jeden Einzelnen, aus der Konsumhaltung herauszutreten und zu Mitgestaltern der digitalen Zukunft zu werden.

Wir können digitale offene Öko-Systeme bauen, wir können Open Data, Open Innovation auf den Weg bringen. Es bilden sich ja diese Fab Labs, diese Maker Spaces, wo man lernt, dass man plötzlich mit einem 3D-Drucker Dinge produzieren kann, wo man früher Fabriken gebraucht hat, in die man Millionen investieren musste.

Schaaf sieht erste hoffnungsvolle Ansätze für eine Repolitisierung, besonders bei jungen Menschen, wie es sich in Großbritannien nach der Brexit-Entscheidung und in den USA nach der Trump-Wahl gezeigt habe.

Wir müssen viel stärker dieses politische Element auch in Deutschland wieder entdecken. … Sonst entscheiden andere, Tec-Konzerne oder – möglicherweise sogar im Verbund – bestimmte politische Entscheidungsträger, die ganz anderen Interessen folgen. Ich finde das ganz wichtig, dass da was passiert. Dass da was geht, hat ja zumindest Pulse of Europe mal dargestellt. Ich kann mir durchaus Aktionsformen vorstellen, in denen man sich stärker politisch wieder einbringt und zwar teilweise auch unter Nutzung der technischen Möglichkeiten, die heute sehr viel größer sind, als in der Vergangenheit.

 

Written by Östermann

30. Juli 2017 at 10:00

Sensoren (2): Frisst künstliche Intelligenz die Demokratie?

with one comment

Aber viel wahrscheinlicher ist es doch, dass sich die Maschinen einfach immer weiter entwickeln, weit über das menschliche Level hinaus. Dass es Programme gibt, die schnellere und bessere Programme schreiben, die wiederum schnellere und bessere Programme schreiben und immer so weiter, also eine Art Endlosschleife.

Unser Problem ist nicht, was die Menschen schaffen, sondern was die Computer machen, wenn sie unserer Kontrolle entgleiten.

Der Kontrollverlust, den der Skype-Erfinder Jaan Tallinn, in einem Interview mit GEO  beschreibt, kann mehr als nur ein diffuses Unbehagen auslösen. Angst. Aber wieso behalten wir Menschen die Kontrolle nicht einfach? Wer zwingt uns denn, Maschinen zu bauen, die auf eine unserem Denken ähnliche Art und Weise rechnen können, die selbst und an unserer Stelle Entscheidungen treffen können? Wieso ist die Digitalisierung nicht aufzuhalten? Wieso soll sie noch nicht einmal nach den Bedürfnissen der Menschheit und Menschlichkeit steuerbar sein?

Yvonne Hofstetter ist selbst an der Entwicklung künstlicher Intelligenz beteiligt. Mit bewundernswerter Ausdauer schreibt sie Bücher, gibt Interviews und versucht, die Öffentlichkeit wachzurütteln. In einem Radiogespräch bei SWR1 Leute beschreibt sie die Dynamik, die hier maßgeblich wirkt, und warnt vor den Gefahren für die Demokratie und unsere persönliche Freiheit.

Unsere Daten sind viel Geld wert. Wir sind die Wirkursache für enorme Umsätze und Gewinne, insbesondere bei den Internet-Giganten. Hier geht’s beispielsweise um Online-Kreditanträge. Viele Menschen erledigen ja ihre Bankgeschäfte online. Es gibt tatsächlich Online-Banken, die mitloggen, welche Taste Sie drücken. Das lässt darauf schließen – wir denken wieder an die Auswertung der Rohdaten, hier durch die Betätigung der Tastatur – und die Ableitung aus dem häufigen Drücken der Löschtaste wäre beispielsweise, dass Sie weniger gebildet sind. Und ein Fazit der Online-Bank bzw. des Berechnungsverfahrens, das hier analysiert, könnte sein, dass Sie deswegen nicht kreditwürdig sind.

Was sind das für Maschinen, mit denen wir es hier zu tun haben?

Wir haben es mit einer ganz neuen Klasse von Maschinen zu tun. Wir haben früher Werkzeuge benutzt, wieder auf die Seite gelegt und vergessen bis zum nächsten Gebrauch. Die Klasse an Maschinen, mit denen wir es heute zu tun haben, die künstlichen Intelligenzen, die Hand in Hand gehen mit der Datensammelwut, weil sie zum Analysieren gebraucht werden, die arbeiten doch ganz anders. Sie arbeiten autonom, asynchron, d.h. sie warten nicht auf irgendwelche Eingaben. Die arbeiten für uns, mit uns und vermehrt neben uns her und eben vermehrt an unserer Stelle. Und was ist daran so intelligent? Wir haben es hier im Zusammenhang mit Big Data hauptsächlich mit lernenden Maschinen zu tun. Und tatsächlich ist es so, dass in bestimmten Aufgabenbereichen, die diese lernenden Maschinen abarbeiten müssen oder sollen, diese lernenden Maschinen tatsächlich übermenschlich gut sind.

Und wie können wir gewährleisten, dass wir mit der künstlichen Intelligenz nicht selbst unser Grab schaufeln?

Im Moment haben wir da überhaupt keine Gewährleistung. Das ist ja gerade der Punkt. Im Moment geht die Entwicklung sehr rasch voran. Intelligente Maschinen werden immer mehr, greifen immer mehr um sich, nehmen immer mehr Raum ein. Und das Problem ist, wie kriegen wir das Ganze in den Griff? Es gibt renommierte Forscher, die warnen bereits. Ich denke an Stephen Hawkins beispielsweise: ‚Die künstliche Intelligenz könnte unsere letzte Erfindung sein.‘

Was tut Yvonne Hofstetter als verantwortliche Unternehmerin in diesem hochriskanten Bereich selbst, um einen Ausweg aus der Sackgasse zu suchen? Sie unterscheidet klar:

Wir verarbeiten keine persönlichen Daten von Menschen. Intelligente Maschinen kann man sehr schön zur Anlagensteuerung einsetzen.

Es gehe z.B. um intelligente Stromnetze, das Smart Grid, oder um intelligente Verkehrsnetze, wie z.B. den Lieferverkehr auf der letzten Meile in der Stadt zu reduzieren.

Hier haben wir die digitale Transformation, die viele bewährte Dinge zerstört, die zu neuen Geschäftsprozessen führt. […] Wir Bürger sollten sehr wohl einfordern von der Politik, dass die Infrastruktur Internet […] grundrechtssicher hergestellt wird. Grundrechtssichere Infrastruktur muss vom Staat auf eine Art und Weise hergestellt werden, dass sie unsere Rechte wahrt.

Wie der Staat das angesichts der globalen Dimension der sozialen Netze, der überwältigenden Macht der Internet-Konzerne und der Ohnmacht der Politik machen soll, bleibt auch in diesem Gespräch offen. Aber grundrechtssichere Infrastruktur einzufordern wäre ja ein erster Schritt, den wir als Bürger gehen können.

Written by Östermann

28. Februar 2017 at 15:21

%d Bloggern gefällt das: