You are viewing a read-only archive of the Blogs.Harvard network. Learn more.

Archive for the 'privacy' Category

Zum Umgang mit Chancen und Risiken der Digitalgesellschaft

2

I had the pleasure to deliver a keynote last Friday in Berlin at the first Congress on Internet Policy organized by the German SPD-Bundestagsfraktion and discuss principles of good Internet policy making with Frank-Walter Steinmeier.  Please find the manuscript of my speech below (in German).

Sehr geehrte Damen und Herren,

Ich freue mich sehr, heute mit Ihnen Gedanken zur Frage des angemessenen Umgangs mit den vielgestaltigen Herausforderungen und Chancen der digital vernetzten Gesellschaft auszutauschen. Mein Argument geht im Kern dahin, dass der längerfristig erfolgreiche – mithin politisch erfolgreiche – Umgang mit der digitalen Revolution von drei wesentlichen Faktoren und ihrem Zusammenspiel abhängt:

(1)  Der erste Faktor betrifft unsere Bereitschaft und Fähigkeit, das Phänomen Internet und seine Auswirkungen auf die verschiedenen Gesellschaftsbereiche besser zu verstehen – oder genauer: verstehen zu lernen. Dabei geht es zunächst einmal um ein verbessertes Verständnis der Funktionsweise digitaler Technologien, aber auch um die Erforschung der humanen, organisationellen, und institutionellen Zusammenhänge. Dabei wird in Zukunft die Interoperabilität zwischen Forschung und Politik wesentlich zu erhöhen sein. Ich werde diese Herausforderung im Folgenden als die gemeinsame analytische Herausforderung in der Digitalgesellschaft bezeichnen.

(2)  Die mit dem Internet einhergehenden tektonischen Verschiebungen durchdringen fast alle Lebensbereiche. Ihre Komplexität wird zusätzlich gesteigert, indem sie mit anderen gesellschaftlichen Umwälzungen interagiert. Zu erwähnen sind insbesondere die Ausbildung eines netzwerkorientierten Individualismus und die globale mobile Revolution. Diese Veränderungsprozesse, die in einem neuen „gesellschaftlichen Betriebssystem“ resultieren, fordern nicht nur bestehende Normsysteme und damit Institutionen wie etwa das Recht heraus. Sie gehen auch mit einer Verschiebung der Bewertungsgrundlagen selbst einher. Zusammengenommen stehen wir als Individuen und als Kollektiv somit zweitens vor einem veritablen Bewertungsproblem, das die Kurz- und Langzeitfolgen des Internets anbelangt.

(3)  Der dritte Erfolgsfaktor betrifft den angemessenen, d.h. effektiven, effizienten und flexiblen Einsatz der vorhandenen Ressourcen, Ansätze und Strategien zur zukünftigen Gestaltung der Internet-basierten Gesellschaft. Diese Gestaltungsaufgabe beinhaltet auch eine Erweiterung unseres institutionellen Repertoirs, was den Umgang mit dem Internet-Phänomen betrifft. Die erfolgreiche Bewältigung dieser Aufgabe ist mit den genannten analytischen und normativen Ebenen eng verzahnt: Erfolgreiches Gestalten setzt Kenntnis der Materie sowie einen geeichten normativen Kompass voraus. Diese Erkenntnis ist keineswegs neu oder auf das Internet beschränkt, verdient aber gerade mit Blick auf kontroverse Regulierungsvorhaben der jüngeren Zeit eine Betonung.

Im Folgenden will ich die drei genannten Erfolgsfaktoren im Sinne einer „Zwischenbilanz aus dem Maschinenraum“ anhand ausgewählter Beispiele näher erläutern und dabei auch einige Kernfragen für die nachfolgende Diskussion herauskristallisieren. Meine Beobachtungen basieren dabei auf meiner Tätigkeit in einem stark international und interdisziplinär ausgerichteten Forschungsumfeld rund um den Themenbereich „Internet und Gesellschaft“. Sie sind zudem von meinem persönlichen Interesse an Fragen der Informationsregulierung geprägt. Diese einführenden Gedanken sind im Verlaufe des Nachmittags selbstverständlich durch weitere und teilweise alternative Sichtweisen zu ergänzen und zu vertiefen.

Wenden wir uns zunächst den Herausforderungen zu, was die Analyse des Internet-Phänomens und der damit verbundenen Chancen und Risiken für die Gesellschaft betrifft. Hier ist natürlich vorab die Wissenschaft gefordert, die sich beim digitalen Phänomen wie in anderen Forschungsbereichen der Gegenwart – von der effizienten Energienutzung bis hin zur Frage der Sanierung des Gesundheitswesens – mit einer ungeheuren Vielfalt von Fragen an der Schnittstelle von Technologie, Markt, Recht und sozialen Normen konfrontiert sieht. Lassen sie mich unter Bezugnahme auf eigene Forschungsarbeiten einige ausgewählte Charakteristika herausschälen, die für die analytischen Herausforderungen stellvertretend sind, denen wir uns stellen müssen.

Zunächst ist die Erforschung des Internet-Phänomens darauf angewiesen, dass Wissensbestände und Methodologien aus verschiedenen Disziplinen zusammengeführt und in ihrem Zusammenspiel orchestriert werden. Am Berkman Center haben wir uns zum Beispiel vertieft mit den Chancen und Risiken befasst, die sich für Kinder und Jugendliche im Internet ergeben, und Interventionsmöglichkeiten erforscht. Eine solche Analyse setzt das Zusammenspiel von Experten aus den Erziehungswissenschaften und der Psychologie ebenso voraus wie den Beizug von Neurowissenschaften, Ökonomen, Juristen und Ethnographen. Dabei ist der Einbezug von Kindern und Jugendlichen sowie deren Eltern ebenfalls wichtig, etwa was die Formulierung der Forschungsfragen betrifft.

Weiter ist das Internet bekanntlich ein globales Informations- und Kommunikationsmedium. Internetforschung hat vor diesem Hintergrund internationale Gesichtspunkte und Implikationen in vielen Bereichen mindestens zu berücksichtigen. In einem Projekt befassen wir uns derzeit beispielsweise mit Fragen des rechtlichen und regulatorischen Umgangs mit Cloud Computing als zukünftige Kerninfrastruktur unserer Informationsgesellschaft, die hohe Effizienzgewinne und Wirtschaftswachstum verspricht. Wir untersuchen unter anderem, inwiefern die Realisierung der wirtschaftlichen Vorteile eine Harmonisierung der Datenschutzanforderungen voraussetzt. Solche Projekte können nur in internationalen Forschungsnetzwerken bewältigt werden, die sich in diesem Bereich indes erst im Aufbau befinden.

Ein weiteres Merkmal der Internetforschung besteht darin, dass uns Forschenden eine Unmenge von Daten zur Auswertung zur Verfügung steht; „big data“ ist in aller Munde. Denn bekanntlich hinterlässt fast jeder Klick einen digitalen Fingerabdruck, was die detaillierte Analyse etwa von Kommunikationsbeziehungen und Informationsflüssen möglich macht. Diese massiven Datensets sind indes nicht ohne weiteres fruchtbar zu machen. Die Entwicklung eines neuen „Mikroskops“ für die sozialwissenschaftliche Forschung, das den Fluss von Themen und Traktanden im Internet und über seine Grenzen hinaus empirisch messen lässt, hat uns beispielsweise fast eine Dekade gekostet. Darüber hinaus bestehen erhebliche datenschutzrechtliche Bedenken, was den forscherischen Umgang mit grossen Datensets (etwa unter Zugriff auf soziale Netzwerke) betrifft. So lassen sich etwa in grossen Datensets die bisher gebräuchlichen Anonymisierungstechniken durch Algorithmen rückgängig machen.

Grosse Herausforderungen bestehen aber im Bereich der Internetforschung nicht nur auf der methodischen, sondern auch auf der theoretischen Ebene. Wiederum mag ein Beispiel aus dem eigenen Forschungsalltag der Illustration dienen. Seit einigen Jahren befassen wir uns mit der Frage, wie es um die Qualität der Information bestellt ist, wenn wir von einer analogen auf eine digitale Informationswelt umstellen. Welche Folgen hat es, wenn traditionelle Qualitätsinstanzen wie beispielsweise Redaktionen an Bedeutung verlieren und heute jedermann Inhalte produzieren und verteilen kann (Stichwort: Wikipedia), aber auch neue und weitgehend unregulierte Informationsintermediäre wie beispielsweise YouTube die Arena betreten? Diese qualitätsrelevanten strukturellen Veränderungen erfordern eine Erweiterung des alten Konzepts der „credibility“ aus den 40er und 50er-Jahren hin zu einem stärker prozessorientierten Framework der Informationsqualität, das auch das Phänomen nutzergenerierte Inhalte integriert.

Eine letzte hervorhebungswürdige analytische Herausforderung besteht darin, dass das Internet als Studienobjekt ein bewegliches Ziel ist. Die heute verfügbaren Daten hinken der rasanten Entwicklung der Technologie und der Nutzungsgewohnheiten in wichtigen Bereichen hinterher. Erst allmählich haben wir etwa verlässliche Erkenntnisse zu bestimmten Aspekten der Facebook-Nutzung. Wie erinnerlich hat Facebook heute über 900 Millionen Nutzer, war aber vor 10 Jahren noch nicht einmal geboren. Die Forschung teilt hier das Schicksal der Gesetzgebung. Sie muss die Eigenzeit mit den kürzeren Einheiten der Internet-Zeitrechnung synchronisieren.

Wie bereits erwähnt, ist es primär Aufgabe der Forschung, diese Herausforderungen inhaltlich, aber auch institutionell zu bewältigen und damit ein vertieftes Verständnis des Internet-Phänomens zu ermöglichen. Gleichzeitig bestehen aber zumindest in zweierlei Hinsicht wichtige Berührungspunkte zum bildungspolitischen System. Zum einen ist die erfolgreiche Erforschung der Bedingungen und Folgen der digitalen Revolution von der Bereitstellung von finanziellen und personellen Ressourcen abhängig. Dazu gehört eine Modernisierung der Forschungsumgebung und Forschungskultur – namentlich in der Zuwendung hin zu einer echten interdisziplinären Forschung. Ein Blick auf die europäische und mithin deutsche Forschungslandschaft zeigt, dass wir hier noch einen langen Weg gehen müssen, trotz Ausnahmen wie etwa dem neu gegründeten, von privater Seite initiierten und anschubfinanzierten „Alexander von Humboldt Institut für Internet und Gesellschaft“ in Berlin.

Zum andern bedarf der Wissenstransfer zwischen Forschung und Politik der Ausbildung von durchlässigen Schnittstellen. Nötig ist dabei insbesondere auch die Bereitschaft von Politikerinnen und Politikern, sich mit den oft nuancierten und auf den ersten Blick wenig attraktiven Forschungsergebnissen systematisch auseinanderzusetzen und diese auf ihre gesellschaftliche Relevanz abzufragen. Sachgerechte Internet-Politik ist vital auf die vertiefte Zuwendung zur datengeleiteten Problemanalyse angewiesen. Diese steht oftmals in scharfer Konkurrenz zu den kurzfristigen Anreizen einer Headline-orientierten und umfragegetriebenen politischen Realität.

Dabei muss im Sinne der „übersetzenden Forschung“ (sog. „translational research“) nicht nur klar und verständlich kommuniziert werden, was wir wissen, sondern auch, wo Wissenslücken bestehen oder welche wissenschaftlichen Analysen erst auf dem Wege sind. Gerade in Übergangsphasen sind wir angesichts dieses Halbwissens der Gefahr der Mythenbildung ausgesetzt. So hält sich etwa die Vorstellung hartnäckig, dass junge Internetnutzerinnen und –nutzer jeglichen Sinn von Privatsphäre verloren haben. Dagegen belegen jüngste Forschungsergebnisse, dass es sich um differenzierte Verschiebungen in der Erwartung der Reichweite von offengelegten persönlichen Informationen handelt. Oder es wird der Mythos verbreitet, die intensive Internetnutzung mache uns zu Einsiedlern, obwohl das vorhandene Datenmaterial zeigt, dass gerade intensive Internetnutzer auch mehr Freunde und Sozialkontakte offline pflegen – mit Ausnahme von Extremspielern.

Als Zwischenfazit legen diese Betrachtungen zu den analytischen Herausforderungen im Umgang mit den Chancen und Risiken der Digitalgesellschaft nahe, dass wir sowohl als Forschende wie auch als Teilnehmer am politischen System unter Ungewissheits- und Komplexitätsbedingungen operieren müssen. Nicht nur das Politikerwissen, sondern auch das Expertenwissen steht im Bereich der Internetforschung eher am Anfang als am Ende der Geschichte. Dies trotz wichtiger Erkenntnisfortschritte in den letzten Jahren.

Wenden wir uns den normativen Herausforderungen im gesellschaftspolitischen Umgang mit der digitalen Technologie zu. Ausgangspunkt bildet die Beobachtung, dass das Internet strukturelle Veränderungen im informationellen Ökosystem auslöst, die typischerweise „störenden“ Charakter haben. So bedrohen die Veränderungen hinsichtlich der Herstellung und Verbreitung sowie des Zugangs und der Nutzung von Information zum Beispiel viele tradierte Geschäftsmodelle. Überdies fordern sie angestammte institutionelle Arrangements massiv heraus – man denke etwa an das Urheberrecht oder den Datenschutz. In diesem Sinne ist das Medium „Internet“ im Blick auf seine Folgen wohl nicht deterministisch, aber eben auch keineswegs neutral. Vielmehr trägt es einen „bias“ in seiner DNA, wer mit wem unter welchen Bedingungen und unter wessen Kontrolle über welche Kanäle kommunizieren kann.

Die mit diesen Veränderungen einhergehenden Chancen und Risiken sind im Einzelnen oft sehr schwierig zu bewerten. Wiederum mögen einige Beispiele aus der Forschung am Berkman Center die normativen Komplikationen illustrieren. Wir haben uns beispielsweise in der vergangenen Dekade mit den tiefgreifenden Umwälzungen in der Unterhaltungsgüterindustrie befasst. Aus der Sicht der angestammten Musik- und Filmindustrie wird das Internet, – wen erstaunt es, – dabei mehrheitlich als Bedrohung wahrgenommen. In der Tat hat die weitverbreitete Nutzung von Peer-to-Peer-Tauschbörsen – notabene popularisiert durch die Programmierkünste eines College Studenten – zu Beginn dieses Jahrhunderts zum de-facto-Zusammenbruch des traditionellen Geschäftsmodells der Musikbranche geführt und Wesentliches zur Fundamentalkrise des Urheberrechts beigetragen. Aus der Perspektive innovativer Unternehmen wie Apple oder Netflix, aber etwa auch innovativer Künstlerinnen und Künstler stehen heute indes vor allem die Möglichkeiten im Vordergrund, welche die digitale Revolution im Musik- und Filmbereich eröffnet haben. Hier scheint sich die Geschichte zu wiederholen: Bereits bei der Einführung der Video-Kassettengeräte hat die Urheberrechtsindustrie ihren Untergang beklagt, während sich wenig später aus dieser Bedrohung mit dem Verleih von Videos eine der Haupteinnahmequellen der Branche entwickelt hat.

Die normative Beurteilung der Effekte des Internets ist indes nicht nur von der Perspektive und jeweiligen Interessenlage der Betroffenen abhängig. Diese verändert sich, wie im eben genannten Beispiel, typischerweise im Verlaufe der Zeit. Die Bewertung wird dadurch erschwert, dass Chancen und Gefahren in fast allen digitalen Lebensbereichen durchmischt und oft nur schwer voneinander zu trennen sind. Digitale Technologie hat beispielsweise unsere Arbeit in mancherlei Hinsicht effizienter oder zumindest interessanter gemacht. Gleichzeitig bringt der Siegeszug des Digitalen im Arbeitsalltag auch ernsthafte Probleme mit sich. Man denke nur an die Gefahr des Leckschlagens vertraulicher Informationen, die weitreichende Überwachung der Arbeitnehmerinnen und Arbeitnehmer, oder die ständige Erreichbarkeit mit negativen psychischen Folgen.

Diese typische Gemengenlage betreffend Risiken und Chancen macht das Abwägen zwischen Vor- und Nachteilen des Internets oftmals zur Glaubenssache. Um ein Beispiel aus meiner Heimat zu nennen: Der Schweizer Gesetzgeber hat aus relativ abstrakten Risikoüberlegungen und trotz einer ganzen Reihe von erfolgreichen Testläufen in Kantonen auf die flächendeckende Einführung des E-Votings bisher verzichtet. Über dieses Beispiel hinaus bestehen heute weiterhin Bewertungsunsicherheiten, was den Einsatz des Internets in der politischen Kommunikation betrifft. Wirkt sich dieser längerfristig partizipationsfördernd aus? Was ist mit der Qualität und Nachhaltigkeit der Entscheide in einer Internet-basierten „liquid democracy“? Diese und andere schwierige Bewertungsfragen harren der Klärung.

Trotz normativen Unsicherheiten ist klar, dass sich die grossen gesellschaftlichen Probleme der Gegenwart ohne Internet-basierte Technologien nicht lösen lassen. Ob effizienzsteigernder IT-Einsatz im Gesundheitswesen oder das Smart Grid im Energiebereich, das Internet ist bereits zur kritischen Infrastruktur geworden. Entsprechend erfolgt die Abwägung von Risiken und Chancen derzeit oft ad hoc und im Nachhinein. Unsere Forschung zur Interoperabilität zeigt indes die Gefahren eines solchen Ansatzes auf. Sind komplexe Systeme einmal hochvernetzt, aber hinsichtlich ihres Zusammenspiels nicht optimal justiert – etwa durch den bewussten Einbau auch von „digitalen Wellenbrechern“ –, wird es sehr schwierig, einen optimalen Grad an Vernetzung nachträglich herbeizuführen, der zum Beispiel datenschutzrechtliche oder Sicherheitsbedenken angemessen berücksichtigt.

Unsere Empfehlung geht dahin, bereits beim Design solcher Systeme verschiedene Szenarien durchzuspielen und anhand von Wertungsgesichtspunkten wie z.B. „Innovation“, „Nutzerautonomie“ oder „Systemdiversität“ zu bewerten. Dabei kommt es regelmässig zu schwierigen „Value Tradeoffs“ oder Zielkonflikten, die nur normativ bewältigt werden können. So mögen digitale Strategien der Vernetzung beispielsweise enorme Effizienzsteigerungen bringen – man denke an digitale Patientendossiers –, anderseits aber auch die Risiken hinsichtlich sensitiver Daten erhöhen. Dies sind die unerwünschten Nebenwirkungen von Interoperabilität. Immerhin sind solche Probleme keineswegs neu, obwohl das Internet angesichts der genannten Bewertungsunsicherheiten die Zielkonflikte wahrscheinlich noch akzentuiert.

Ein weiterer Aspekt kommt hinzu. Das Internet scheint zumindest bereichsweise zu einer Verschiebung der Bewertungsgrundlagen, d.h. der Wertmassstäbe und Wertungen selbst zu führen. Dies erschwert den gesellschaftlichen Umgang mit Risiken und Gefahren zusätzlich. Die Proteste gegen das ACTA-Abkommen hier in Europa, oder die Mobilisierung gegen die Gesetzesentwürfe SOPA/PIPA zum Schutze des geistigen Eigentums in den USA sind lediglich die gut sichtbaren Spitzen des Eisbergs dessen, was Kollege Beckedahl als „Sollbruchstelle“ bezeichnet. In der Tat haben das Internet und die darauf aufgesetzten Angebote die Normen rund um den Austausch von Informationen verändert. Das Teilen – und damit aufgrund der Funktionsweise der Technologie das Kopieren – von Information ist in der Architektur des Internets angelegt. Bewusste Designentscheide wichtiger Plattformanbieter wie Twitter, Google, oder Facebook verstärken diese Eigenschaft im Sinne eines „Charismatic Code“.

Von dieser normativ aufgeladenen, auf Austausch gerichteten digitalen Logik bleiben auch Sonderkategorien von Informationen wie etwa das Geheimnis oder urheberrechtlich geschützte Inhalte bekanntlich nicht verschont. Namentlich für das Rechtssystem stellen sich angesichts sich wandelnder sozialer Normen heikle Bewertungsfragen. Wann und unter welchen Bedingungen sollen sich rechtliche Institutionen – wie etwa das Urheberrecht – den neuen Realitäten des digitalen Zeitalters anpassen? Und in welche Richtung? Es wäre m.E. voreilig, von einem Primat digitaler Erwartungserwartungen über das Recht auszugehen. Das Recht wird zwar belächelt, weil es der Technologie oft zwei Schritte hinterher hinkt; aber letztlich hat es eben eine wichtige Funktion der Verlangsamung gesellschaftlichen Wandels, um Diskussionsräume und -zeiten zu schaffen. Hinzu kommt im genannten Beispiel, dass sich die Bedeutung der geistigen Schöpfung im digitalen Raum nicht auflöst, sondern wandelt. Untersuchungen mit Kindern belegen etwa, dass diese nur bereit sind, Inhalte mit anderen Digital Natives auszutauschen, wenn ihre Urheberschaft anerkannt wird. Wiederum bedarf es also eines differenzierten Blicks auf diejenigen sozialen Normen der Internetnutzer, die unsere rechtlichen Institutionen herauszufordern scheinen.

Als zweites Zwischenergebnis will ich festhalten, dass die bereits diagnostizierten analytischen Herausforderungen im Umgang mit den digitalen Chancen und Risiken durch die hier nur grob skizzierten Bewertungsprobleme extrapoliert werden. Die Politik im Allgemeinen und die Gesetzgebung im Besonderen haben die wenig beneidenswerte Aufgabe, mit den vom Internet ausgehenden Schockwellen trotz dieser faktischen und normativen Unsicherheiten angemessen umzugehen. Und das heisst auch: die Phasen der Ungewissheit auszuhalten. Dies führt mich zum letzten Teil meines Vortrags: der Gestaltungsherausforderung.

Lassen Sie mich gleich zu Beginn festhalten, dass meine Einschätzung der Einflusschancen von Politik und Gesetzgebung auf die zukünftige Gestaltung des Internets anders ausfällt als das Urteil vieler meiner Kollegen. Wiewohl natürlich die eingangs skizzierte Architektur des digitalen Raumes Rechtssetzung und Rechtsdurchsetzung in vielerlei Hinsicht erschwert, ist das Medium „Internet“ selbst ganz wesentlich von Politikentscheidungen mitgeprägt und durchdrungen. In vielerlei Hinsicht waren es gerade Politik und Gesetzgebung, die das Internet sowohl im technischen Sinne als auch als sozialen und kommerziellen Raum ermöglicht haben. Nicht nur waren Politikentscheide Ende der 50er-Jahre nötig, um die Mittel für die Entwicklung der Vorläufer des Internets bereitzustellen. Es waren auch politische Entscheide dafür verantwortlich, dass in den frühen 90er-Jahren die damalige NSFnet Backbone für den kommerziellen Datenverkehr überhaupt geöffnet wurde. Gesetzgebungen wie etwa die Europäische E-Commerce Richtlinie oder der amerikanische Communications Decency Act mit ihren „Safe Harbor“ Vorschriften zum Schutz von Internet Service Providern waren entscheidend mitverantwortlich für das Entstehen des heutigen Ökosystems. Die online Dienste, die wir mit grosser Selbstverständlichkeit benutzen – von Google, Hotmail, über Facebook zu YouTube – wären ohne das Vorhandensein von Recht nicht denkbar. Die Reihe von Beispielen liesse sich fortsetzen.

Aus der Vergangenheit lässt sich für die Zukunft lernen, auch in der Netzpolitik als Teil der Gesellschaftsgestaltung. Gleichzeitig ist klar, dass die heutigen Gestaltungsherausforderungen längst nicht mehr binär (Regulierung ja/nein, Schutz ja/nein), sondern vor dem Hintergrund der geschilderten phänomenologischen und normativen Ausgangsbedingen äussert komplex sind – vom Kampf gegen die Kinderpornographie angefangen bis hin zur Erarbeitung eines zukunftstragenden Datenschutz- und Cybersecurity-Konzepts. Im Kern geht es dabei um die grosse Frage, wie wir als Gesellschaft die Chancen der digitalen Technologien strategisch fördern, nutzen und langfristig absichern, und dabei mit den vieldiskutierten Risiken angemessen umgehen bzw. diese auf ein erträgliches Mass reduzieren.

Bei der Bearbeitung dieser schwierigen Aufgabe kann es hilfreich sein, drei Dimensionen guter Internetpolitik zu unterscheiden, die in ihrem Zusammenspiel auch die Frage der Legitimation von Gestaltungsentscheiden und die Verantwortung für ihre Folgen betreffen.  Angesichts der Ungewissheits- und Komplexitätsbedingungen stehen wir als Entscheidträger zunächst vor dem grossen Problem, aus einer Vielzahl von Planungsvarianten und normativen Szenarien die sachlich angemessene Lösung zu wählen – sei es im Kontext von E-Government und Cloud Computing, der Erneuerung des Datenschutzregimes, oder bei der weiteren Ausgestaltung des Schutzes des geistigen Eigentums im digitalen Umfeld.

Diese inhaltliche Richtigkeit – oder besser: Angemessenheit – der von uns gewählten Massnahmen im Hinblick auf bestimmte Ziele wird längerfristig die entscheidende Messlatte sein. Mit den Worten des Schweizer Staatsrechtlers Georg Müller:

„Wenn der Gesetzgeber mangels Sachkenntnis oder aufgrund einer fehlerhaften Prognose eine Regelung erlässt, die ihren Zweck nicht erfüllt, nützt die demokratische Legitimation nichts, im Gegenteil: Das demokratische System wird unglaubwürdig“.

Und im Zusammenhang mit der Frage nach der „Wirksamkeit“ staatlicher Interventionen schreibt Müller:

„Der Erlass unwirksamer Anordnungen untergräbt … das Vertrauen in die Institutionen der Demokratie“.

Den Ruf nach hinreichender Sachkenntnis zu erfüllen, die alsdann in wirksame Massnahmen übersetzt werden kann, ist gerade im Bereich der Internetpolitik kein leichtes Spiel. Wie eingangs dargestellt, ist dabei auch der in solchen Situationen beinahe reflexartige Beizug von Experten – etwa im Rahmen einer Enquette Kommission wie hier in Deutschland – wohl sinnvoll und hilfreich, aber angesichts beschränkten Expertenwissens kein Erfolgsgarant. Vielmehr ist, und ich werde diesen Punkt ganz am Ende nochmals kurz aufgreifen, das gesamte Gestaltungssystem, inklusive Recht, auf Lernfähigkeit zu programmieren.

Im Zitat von Prof. Müller ist es bereits angeklungen: Die inhaltliche Output-Qualität unserer Netzpolitik hängt mithin von der Wahl geeigneter Instrumente ab. Dies ist die zweite Dimension der Gestaltungsherausforderung. Hier liegt meiner Auffassung nach hinsichtlich des guten Umgangs mit der Digitalgesellschaft vielleicht das grösste Potential verborgen. Wir müssen dringend unseren „Werkzeugkasten“ überdenken und gegebenenfalls neu bestücken, um die Instrumente besser auf die skizzierten Realbedingungen des digitalen Phänomens einzustellen.

Dies betrifft zunächst einmal die Erweiterung des gesetzgeberischen Repertoirs. Es ist beispielsweise erstaunlich, wie beliebt in der Internet-Gesetzgebung beidseits des Atlantiks der Gebrauch des altgedienten, aber im Internet-Kontext erfahrungsgemäss wenig griffigen Instrument des „Verbots“ noch immer ist. Geplante oder eingeführte Verbote von Killerspielen oder das in den USA beliebte Verbot der Facebook-Nutzung in Schulen sind nur zwei Beispiele aus einer langen Liste von Internet-Verboten. Um klarzustellen: In manchen Bereichen, wie etwa bei brutalen Killerspielen, mögen Verbote zumindest im Sinne der symbolischen Gesetzgebung einen Wert haben, d.h. als Ausdruck der gesellschaftlichen Missbilligung bestimmter Handlungsweisen oder Anwendungen. Solche Signalwerte sind gerade in Zeiten der beschriebenen Bewertungsunsicherheit nicht unerheblich. Aber der Beitrag zur effektiven Problemlösung bleibt bei solchen Verboten oft sehr beschränkt.

Unser Instrumentarium ist allerdings über die Regulierungstechnik hinaus, d.h. auch im grösseren institutionellen Zusammenhang zu erweitern. In vielen Bereichen bedarf der gewinnbringende Umgang mit den digitalen Chancen und Risiken des Zusammenwirkens verschiedner Akteure. Ich habe die Forschung zur Internetnutzung von Kindern und Jugendlichen als Beispiel bereits erwähnt. Dort sehen wir deutlich, wie die Heranwachsenden selbst, ihre Eltern, Lehrer, Freunde, aber auch Technologieanbieter und der Staat Hand in Hand arbeiten müssen, um das enorme Potential des Internets etwa für die Ausbildung und das Lernen zu nutzen und Teilhabelücken zu schliessen. Gleiches gilt für die effektive und nachhaltige Bewältigung der Gefahren wie beispielsweise Cyberbullying, Spielsucht, oder Verletzung der Privatsphäre.

Es ist ermutigend zu sehen, dass die Wichtigkeit dieses Zusammenspiels der Akteure auch in der Internetpolitik erkannt ist und Eingang in entsprechende Positionspapiere gefunden hat. In einem nächsten Schritt müssen wir aber auch die entsprechenden institutionellen Arrangements erarbeiten – und absichern. Neue Modelle wie die auch hierzulande und in diesem Bereich beliebte Co-Regulierung können den Weg weisen, sind aber etwa hinsichtlich Legitimierung und Partizipation durchaus erweiterungs- und verbesserungsfähig.

Der dritte und letzte Aspekt, den ich im Rahmen der Gestaltungsherausforderung aufgreifen möchte, betrifft die Prozesse, in denen wir unsere internetbezogenen Wertfragen verhandeln, Gestaltungsziele diskutieren sowie die Wahl der Mittel definieren. Hier ist zunächst festzuhalten, dass das Internet zu einem ungeheuren Transparenzdruck beigetragen hat. Wiewohl es m.E. geschützter Räume gerade auch im politischen Bereich bedarf, in denen Szenarien durchgespielt und Lösungsvarianten ohne Angst vor negativen Schlagzeilen diskutiert werden können, ist die Absicherung solcher Räume heute praktisch chancenlos.  Wikileaks oder die „geleakten“ Berichte aus dem Oval Office zu Präsident Obama’s streng geheimen Cyberwar-Massnahmen sind nur zwei Beispiele. Angesichts des Regulierungsobjekts „Internet“ und der davon betroffenen Akteure müssen wir uns aller Voraussicht nach auf voll transparente Verfahren einstellen. Geheimverhandlungen à la ACTA werden von der diffus und ad hoc definierten, aber zunehmend strategisch operierenden Internet-Community jedenfalls nicht mehr akzeptiert.

Eng mit dem Transparenzerfordernis verbunden ist die Frage der Mitwirkung an gestalterischen Entscheiden, die das Internet betreffen. Auch hier besteht Innovationsbedarf, was unsere angestammten Institutionen betrifft – gerade auch, um den eingangs genannten internationalen Dimensionen Rechnung zu tragen. Dass die Debatten heute nicht mehr nur national geführt werden können, sehen wir nicht nur, wenn es um globale Regulierungsvorhaben etwa im Rahmen der ITU oder der WIPO geht – oder hier in Deutschland um die Umsetzung bzw. Nichtumsetzung der Richtlinie über die Vorratsdatenspeicherung. Der Bedarf nach neuen Formen der Mitwirkung ist auch dort deutlich erkennbar, wo die Spielregeln des Internets uni- oder bilateral durch private Akteure gesetzt werden, wie etwa das inzwischen gescheiterte „Google Book Settlement“ und Reaktionen darauf illustrieren.

Natürlich ist es naheliegend, gerade hinsichtlich der Frage nach neuen Formen der Teilhabe das Internet selbst fruchtbar zu machen. Interessante institutionelle Versuche wie e-Rulemaking und e-Budgeting sind im Gange, wobei in Europa wahrscheinlich Estland diesbezüglich das grösste und bisher erfolgreichste digitale Laboratorium darstellt. Brasilien und die USA sind weitere interessante Fallstudien in diesem Bereich. Vielleicht noch interessanter als der Einbau solcher digitaler Kanäle in bestehende institutionelle Set-ups sind neuartige hybride Organisationen wie etwa ICANN oder das Internet Governance Forum (IGF). Die Beurteilung der Leistung dieser neuartigen Institutionen bleibt allerdings weiterhin umstritten. Meines Erachtens wird deren Potential und Bedeutung aus der Optik der institutionellen Innovation allerdings gemeinhin unterschätzt.

Lassen Sie mich mit einem Gedanken schliessen, der mich seit längerer Zeit beschäftigt. Wie würden angesichts der hier skizzierten analytischen, normativen, und gestalterischen Herausforderungen die kategorischen Imperative – oder zumindest Postulate – guter Internetpolitik lauten? Vor dem Hintergrund des hier Ausgeführten wage ich einen ersten Versuch und freue mich auf die Diskussion mit Ihnen:

Postulat 1: Gute Internetpolitik gebietet es, an der Generierung von Wissen über das Internet-Phänomen teilzuhaben und dieses Wissen auszutauschen.

Postulat 2: Vor regulatorischen Eingriffen sollte Klarheit herrschen, was wir wissen und was nicht. Vor allem im Bereich des Handelns unter Nichtwissen sind die Entscheide und Instrumente auf Lernfähigkeit einzustellen, d.h. auch revidierbar zu halten.

Postulat 3: Gute Internetpolitik vermeidet oder reduziert zumindest die Gefahr, die Generativität des Internet als Prinzip nachhaltig zu verletzen, und bewahrt damit seine Innovationskraft.

Postulat 4: Muss unter analytischer und normativer Unsicherheit entschieden werden (was auch den Entscheid des Nicht-Handelns beinhalten kann), sind Entscheidvarianten zu bevorzugen, die auf Interoperabilität angelegt sind und Möglichkeitsräume für zukünftige Entscheide offen halten.

Ich danke Ihnen für Ihre Aufmerksamkeit.

“Born Digital” and “Digital Natives” Project Presented at OECD-Canada Foresight Forum

2

Here in Ottawa, I had the pleasure to speak at the OECD Technology Foresight Forum of the Information, Computer and Communications Policy Committee (ICCP) on the participative web – a forum aimed at contributing to the OECD Ministerial Meeting “The Future of the Internet Economy” that will take place in Seoul, Korea, in June 2008.

My remarks (what follows is a summary, full transcript available, too) were based on our joint and ongoing HarvardSt.Gallen research project on Digital Natives and included some of the points my colleague and friend John Palfrey and I are making in our forthcoming book “Born Digital” (Basic Books, 2008).

I started with the observation that increased participation is one of the features at the very core of the lives of many Digital Natives. Since most of the speakers at the Forum were putting emphasis on creative expression (like making mash-ups, contributing to Wikipedia, or writing a blog), I tried to make the point that participation needs to be framed in a broad way and includes not only “semiotic democracy”, but also increased social participation (cyberspace is a social space, as Charlie Nesson has argued for years), increased opportunities for economic participation (young digital entrepreneurs), and new forms of political expression and activism.

Second, I argued that the challenges associated with the participative web go far beyond intellectual property rights and competition law issues – two of the dominant themes of the past years as well as at the Forum itself. I gave a brief overview of the three clusters we’re currently working on in the context of the Digital Natives project:

  • How does the participatory web change the very notion of identity, privacy, and security of Digital Natives?
  • What are its implications for creative expression by Digital Natives and the business of digital creativity?
  • How do Digital Natives navigate the participative web, and what are the challenges they face from an information standpoint (e.g. how to find relevant information, how to assess the quality of online information)?

The third argument, in essence, was that there is no (longer a) simple answer to the question “Who rules the Net?”. We argue in our book (and elsewhere) that the challenges we face can only be addressed if all stakeholders – Digital Natives themselves, peers, parents, teachers, coaches, companies, software providers, regulators, etc. – work together and make respective contributions. Given the purpose of the Forum, my remarks focused on the role of one particular stakeholder: governments.

While still research in progress, it seems plain to us that governments may play a very important role in one of the clusters mentioned above, but only a limited one in another cluster. So what’s much needed is a case-by-case analysis. I briefly illustrated the different roles of governments in areas such as

  • online identity (currently no obvious need for government intervention, but “interoperability” among ID platforms on the “watch-list”);
  • information privacy (important role of government, probably less regarding more laws, but better implementation and enforcement as well as international coordination and standard-setting);
  • creativity and business of creativity (use power of market forces and bottom-up approaches in the first place, but role of governments at the margins, e.g. using leeway when legislating about DRM or law reform regarding limitations and exceptions to copyright law);
  • information quality and overload (only limited role of governments, e.g. by providing quality minima and/or digital service publique; emphasis on education, learning, media & information literacy programs for kids).

Based on these remarks, we identified some trends (e.g. multiple stakeholders shape our kids’ future online experiences, which creates the need for collaboration and coordination) and closed with some observations about the OECD’s role in such an environment, proposing four functions: awareness raising and agenda setting; knowledge creation (“think tank”); international coordination among various stakeholders; alternative forms of regulation, incl. best practice guides and recommendations.

Berkman Fellow Shenja van der Graaf was also speaking at the Forum (transcripts here), and Miriam Simun presented our research project at a stand.

Today and tomorrow, the OECD delegates are discussing behind closed doors about the take-aways of the Forum. Given the broad range of issues covered at the Forum, it’s interesting to see what items will finally be on the agenda of the Ministerial Conference (IPR, intermediaries liability, and privacy are likely candidates.)

Open Access to Law: Swiss Data Privacy Cases Now Online

2

I’m delighted to announce that our Research Center for Information Law at the University of St. Gallen – usually focusing more on basic research rather than implementing project work – has just launched an online data privacy case law collection (in German and French) that features the entire collection of cases decided by the Swiss Commission for Data Privacy and Freedom of Information from 1993 – 2006. The Commission has now been integrated into the “Tribunal administrativ federal“, the branch of the Supreme Court that deals with administrative law issues. Free online access to the collection is particularly exciting since only part of the Commission’s decisions has been published so far. Thanks are due to the Swiss Federal Chancellery and the St. Gallen University’s Research Council for financial support. And, of course, special thanks to Silke Ernst, LL.M., for excellent project management.

Managing Corporate Risks in an E-Environment

ø

My colleague Daniel Haeusermann and I just released a new paper entitled “E-Compliance: Towards a Roadmap for Effective Risk Management.” In the article, which is largely based on consulting work we’ve been doing, we argue that the widespread use of digital communication technology on the part of business organizations leads to new types of challenges when it comes to the management of risks at the intersection of law, technology, and the marketplace. In order to effectively manage these challenges and associated risks in diverse areas such as security, privacy, consumer protection, IP, and content governance, we call for an integrated and comprehensive compliance concept in response to the structural and substantive peculiarities of the digital environment in which corporations – both in and outside the dot-com industry – operate today. See also this post. The conclusion section of the paper reads as follows:

Through significant efforts, the legal system has adjusted to the changes in the information and communications technology of daily corporate life—changes at the intersection of the market, technology, and law. Organizations must make adjustments on their part as well in order to deal with the consequences resulting from these changes in the legal system. The observation that led to this essay was that these adjustments represent a greater challenge than the already decreasing entropy surrounding concepts such as “e-commerce law” or “cyberlaw” would suggest. Our initial foray into the concept, characteristics, responsibilities and organizational guiding principles of e-Compliance confirms this observation.

E-Compliance, as discussed in this article, is confronted with the phenomenon of a close interconnection between law and technology, a prominent dynamization of the law, massive internationalization of issues and legal problems, as well as a strong increase in the significance of soft law. These characteristics, which in part may also apply to traditional areas of compliance such as financial market regulation, call in their interplay for the further development of compliance concepts as well as adaptation of the affected aspects of corporate organization. Due to the increasing amalgamation of corporate organizational nexus and ICT, the symbiotic relations between traditional compliance and e-Compliance will be increasingly amplified. The view that e-Compliance represents merely a single risk area among the many of compliance is therefore outdated in our opinion. E-Compliance is actually a multidimensional and multidisciplinary task, although there are certainly areas of law that are particularly affected by digitization (or also which particularly impact digitization) and therefore are of particular importance for the field of e-Compliance.

Thus, in conclusion, the authors do not posit a special “e-Sphere” within or without existing compliance departments. Rather, we argue for an integrated and comprehensive compliance concept that appropriately makes allowance for the structural and substantive peculiarities of e-Compliance as outlined in this essay and stays abreast with the pace of digitization.

Please contact Daniel or me if you have comments.

Must-Read: Microsoft WP on Privacy-Compliant ID Metasystem

1

Microsoft released a white paper entitled “The Identity Metasystem: Towards a Privacy-Compliant Solution to the Challenges of Digital Identity.” The excellent paper, authored by Microsoft’s Internet Policy Council Ira Rubinstein and Tom Daemen, senior attorney with Microsoft, and posted on Kim Cameron’s blog, is a must-read for everyone interested in user-centric ID management systems. (Disclosure: As you can take from the acknowledgments, I have commented on a draft version of the paper, based on my earlier observations on “Identity 2.0”-like initiatives.)

Among my main concerns – check here for other problem areas – has been Microsoft’s claim that the i-card model is “by design” in compliance with the unambiguous and informed consent requirement as set forth, for instance, by EU data protection law. I’ve argued that the “hardwired”-argument (obviously a variation on the theme “regulation by code”) might be sound if one focuses on a particular relationship between one user and one identify provider and/or one relying party – as the white paper does. However, at the aggregated level, the i-card model’s complexity – i.e. the network of informational relationships between one user and multiple ID providers and relying parties – increases dramatically. If we were serious about the informed consent requirement, so my argument, one would wish that the user could anticipate not only the consequences of consent vis-à-vis one ID provider, but would understand he interplay among all the components of the ID-system. Even in less complex informational environments, experience has shown that the making available of various privacy policies can’t be the answer to this problem – as the white paper seems to acknowledge.

In this regard, I particularly sympathize with the white paper’s footnote 23. It might indeed be a starting point for an answer to what we might call the “transparency challenge” to create “a system enabling web sites to represent privacy policies in a simple, iconic fashion analogous to food labels. This would allow consumers to see at a glance how a site’s practices compared to those of other Web sites using a small number of universally accepted visual icons that were both secure against spoofing and verified by a trusted third party.” (p. 19, FN 23.) Such a system could become particularly effective if the icons – machine-readable analogous to creative commons labels – would be integrated in search results and monitored by “Neighborhood campaigns” similar, for instance, to Stopbadware.com.

Although Microsoft’s paper leaves some important issues unadressed, it seems plain to me that it takes the discussion on identity and privacy protections as code and policy an important step further – in a sensible and practical manner.

D.H. on AOL and Basic Characteristics of Information

1

Daniel Haeusermann, Berkman intern and FIR-HSG researcher, has a great post on his brand-new blog about AOL’s publication of search queries, viewed from a (European) information law perspective. Stay tuned, Dan will have many interesting things to say.

EU Parliament Calls For Code of Conduct For Internet Intermediaries Doing Biz In Repressive Countries

2

With the usual time-lag, the debate about Internet censorship in repressive countries such as China and the role of Internet intermediaries such as Google, Microsoft and Yahoo! has now arrived in Europe. The EU Parliament now confirms what many of us have argued for months, i.e., that the problem of online censorship is not exclusively a problem of U.S.-based companies and is not only about China.

The recent resolution on freedom of expression on the Internet by the European Parliament starts with references to previous resolutions on human rights and freedom of the press, including the WSIS principles, as well as international law (Universal Declaration of Human Rights) and opens with the European-style statement that restrictions on online speech “should only exist in cases of using the Internet for illegal activities, such as incitement to hatred, violence and racism, totalitarian propaganda and children’s access to pornography or their sexual exploitation.”

Later, the resolution lists some of the speech-repressive regimes, including China, Belarus, Burma, Cuba, Iran, Libya, Maldives, Nepal, North Korea, Uzbekistan, Saudi Arabia, Syria, Tunisia, Turkmenistan and Vietnam. The resolution then makes explicit references to U.S.-based companies by recognizing that the “…Chinese government has successfully persuaded companies such as Yahoo, Google and Microsoft to facilitate the censorship of their services in the Chinese internet market” and “notes that other governments have required means for censorship from other companies.” European companies come into play with regard to the sale of equipment to repressive governments, stating that

“… equipment and technologies supplied by Western companies such as CISCO Systems, Telecom Italia, Wanadoo, a subsidiary of France Telecom have been used by governments for the purpose of censoring the Internet preventing freedom of expression.” (emphasis added.)

The resolution, declaratory in nature, in one of its probably most significant parts calls on the European Commission and the Council “to draw up a voluntary code of conduct that would put limits on the activities of companies in repressive countries.” The policy document also stresses the broader responsibility of companies providing Internet services such as search, chat, or publishing to ensure that users’ rights are respected. Hopefully, the Commission and the Council will recognize that several initiatives aimed at drafting such code of conducts are underway on both sides of the Atlantic (I have myself been involved in some of these processes, including this one), and will engage in conversations with the various groups involved in these processes. In any event, it will be interesting to see how the Commission and the Council approach this tricky issue, and as to what extent, for instance, they will include privacy statements in such a set of principles – a crucial aspect that, interestingly enough, has not been explicitly addressed in the Parliament’s resolution.

The resolution also calls on the Council and Commission “when considering its assistance programmes to third countries to take into account the need for unrestricted access by their citizens.” Further coverage here.

Update: On the “European Union’s schizophenric approach to freedom of expression”, read here (thanks, Ian.)

YJoLT-Paper on Search Engine Regulation

ø

The Yale Journal of Law and Technology just published my article on search engine regulation. Here’s the extended abstract:

The use of search engines has become almost as important as e-mail as a primary online activity. Arguably, search engines are among the most important gatekeepers in today’s digitally networked environment. Thus, it does not come as a surprise that the evolution of search technology and the diffusion of search engines have been accompanied by a series of conflicts among stakeholders such as search operators, content creators, consumers/users, activists, and governments. This paper outlines the history of the technological evolution of search engines and explores the responses of the U.S. legal system to the search engine phenomenon in terms of both litigation and legislative action. The analysis reveals an emerging “law of search engines.” As the various conflicts over online search intensify, heterogeneous policy debates have arisen concerning what forms this emerging law should ultimately take. This paper offers a typology of the respective policy debates, sets out a number of challenges facing policy-makers in formulating search engine regulation, and concludes by offering a series of normative principles which should guide policy-makers in this endeavor.

As always, comments are welcome.

In the same volume, see also Eric Goldman‘s Search Engine Bias and the Demise of Search Engine Utopianism.

John Clippinger Quoted in the Boston Globe

ø

Today, the Boston Globe runs a story about a promising cross-industry project on user-centric identity that is directed by my colleague Dr. John Clippinger at the Berkman Center for Internet and Society, Harvard Law School. It has now become public that the Berkman Center together with an industry consortium of tech companies, including IBM Corp. and Novell Inc., is working on an open security project – code-named Higgins – aimed at creating code that gives users more control over their online identities. John is quoted as follows:

“For individuals, such a system promises a ‘single sign-on’ enabling the sharing with third parties of personal information, ranging from bank and credit card accounts to medical records and phone numbers, said John H. Clippinger, senior fellow at the Berkman Center at Harvard Law School.

Clippinger said the system will enable people to share tiers of their digital data with different parties, giving broader access to doctors, for example, than to cable companies.

‘The web wasn’t designed with a security layer in it, so we’re addressing that missing piece,’ Clippinger said. ‘This is a whole new system called ‘open security’ where the control point is the individual.’

Recently, I commented on this blog on the merits of user-centric identity systems – sometimes referred to as Identity 2.0 – from a privacy perspective. After the discussions at the workshop mentioned in the previous post, I’m more convinced than ever that the approach taken by Clippinger et al – despite remaining challenges, which, BTW, were fully acknowledged by the leading technologists at the workshop – has the potential to solve some of the thorniest pivacy issues on the web.

I trust that we’ll get back to this issue before the June conference mentioned in the Globe. In any event, stay tuned.

Global Online Freedom Act of 2006: Evil is in the Details

1

I’ve just read Rep. Chris Smith’s discussion draft of a “Global Online Freedom Act of 2006,” which has been made available online on Rebecca MacKinnon’s blog. Rebecca nicely summarizes the key points of the draft. From the legal scholar’s rather then the activist’s viewpoint, however, some of the draft bill’s nitty-gritty details are equally interesting. Among the important definitions is certainly the term “legitimate foreign law enforcement purposes,” which appears, for instance, in the definition of substantial restrictions on Internet freedom, and in sec. 206 on the integrity of user identifying information. According to the draft bill, the term ”legitimate foreign law enforcement purposes” means

“for purposes of enforcement, investigation, or prosecution by a foreign official based on a publicly promulgated law of reasonable specificity that proximately relates to the protection or promotion of health, safety, or morals of the citizens of that jurisdiction.”

And the next paragraph clarifies that

“the control, suppression, or punishment of peaceful expression of political or religious opinion does not constitute a legitimate foreign law enforcement purpose.” [Emphasis added.]

While the first part of the definition makes a lot of sense, the second part is more problematic to the extent that it suggests, at least at a glance, a de facto export of U.S. free speech standards to the rest of the world. Although recent Internet rulings by U.S. courts have suggested an expansion of the standard under which U.S. courts will assert jurisdictions over free speech disputes that arise in foreign jurisdiction, it has been my and others impression that U.S. courts are (still?) reluctant to globally export free speech protections (see, e.g. the 9th Circuit Court of Appeal’s recent Yahoo! ruling.)

Indeed, it would be interesting to see how the above-mentioned definition would relate to French legislation prohibiting certain forms of hatred speech, or German regulations banning certain forms of expression—black lists, by the way, which are also incorporated by European subsidiaries of U.S. based search engines and content hosting services.

While the intention of the draft bill is certainly a legitimate one and while some of the draft provisions (e.g. on international fora, code of conduct, etc.) deserve support, the evil—as usual—is in the details. Given its vague definitions, the draft bill (may it become law) may well produce spillover-effects by restricting business practices of U.S. Internet intermediaries even in democratic countries that happen (for legitimate, often historic reasons) not to share the U.S.’ extensive free speech values.

Addendum: Some comments on the draft bill from the investor’s perspective here. Note, however, that the draft bill also includes foreign subsidiaries of U.S businesses to the extent that the latter control the voting shares or other equities of the foreign subsidiary or authorize, direct, control, or participate in acts carried out by the sbusidiary that are prohibited by the Act.

Log in