Archive for the 'interoperability' Category

Interop Case Study #4: Electronic Data Interchange Interoperability


The forth case study in our interop series looks into Electronic Data Interchange interoperability.  The case was researched with the help of our wonderful Berkman student fellow Matthew B. Becker.  He submitted the following blog post as an introduction to the case:

Electronic data interchange (EDI) provides an excellent context for examining how interoperability at the technological and data level can also produce profound effects at a higher, institutional level.  Originally conceived as a means for speeding up the delivery of invoices and purchase orders by sending them electronically, EDI resulted in significant shifts with regard to retailer-supplier relations that went far beyond transaction efficiency.

In tandem with the introduction of bar codes (the subject of another case study in our Interop series), which provided greater insight into sales trends, the use of EDI allowed retailers to automate their purchase orders, increasing inventory replenishment speed and redefining supply chain management; i.e., allowing the merging of Internet technology with JIT (just-in-time), a Japanese manufacturing management method that was developed in the 1970s.  Retailers and suppliers who had previously guarded their sales and inventory information and made deals at arms-length, found that they had much to gain by radically integrating their operations and using EDI to share their inventory data immediately and automatically.  One of the first and largest adopters of the merged EDI-JIT system were the three major U.S. automakers (GM, Ford, and Chrysler), in which they used electronic “mailboxes” to acquire information on production and non-production parts as well as to manage their order and requests electronically.  Retailers such as Wal-Mart and Sears quickly followed suit, in which whenever a sale was made, that information was immediately transferred electronically so that the data could be used to update inventory, calculate sales and create other statistical reports.

With the merger of EDI and JIT, purchase decisions were shifted to the suppliers themselves, who examined sales trends to provide retailers with the products they would need as soon as required, and not before.  Not only was this approach more responsive to customer demand, it also reduced expensive inventory back stock and remaindering costs.  Through a similar integration with shippers, warehousing costs were slashed as products were shipped directly from suppliers to retailers, without need for expensive storage.

Over the past decade, EDI has been undergoing a significant shift, as some businesses and organizations (e.g. Lufhansa AirPlus) have started employing XML-based EDI (XML/EDI), with the promise of even greater flexibility and interoperability.  However, adoption has been limited, and many of those who are using XML/EDI have implemented it in a less-than-fully interoperable manner.  Additionally, support from major software companies, which appeared strong around the turn of the 21st century, has largely dissipated.  As such, although the implementation of traditional EDI provides a good example of how private actors and third-party organizations can establish viable interoperable technology, the stalling of XML/EDI demonstrates that this approach is not always successful.

Because the route to an established interoperable standard involves many nuances and complexities, one might argue that there may be a role for government when private actors appear unable to succeed on their own.  However, this study, authored by Matthew Becker, concludes by noting that if this is indeed the case, the best approach may actually be a very light one, in which government involvement is limited to setting a general objective and a timeline, leaving the innovation and implementation to the private sector.

Interop Case Study #3: Cloud Computing


In recent years, the growth of cloud computing has enabled users to utilize storage or processing power from geographically distant locations over the Internet. Cloud technologies have been lauded as a means for enhancing productivity, efficiency, and innovation by allowing on-demand network access to a shared pool of configurable networks, servers, applications, and services. According to a recent IBM study, the number of businesses adopting cloud computing to revamp existing business models will more than double by 2015, as business leaders are starting to view the cloud not just as a way to cut costs but also as a means for fundamental business innovation.

Due to the growing ubiquity of cloud computing in the digital world, examining issues of cloud interoperability offers profound insights about the legal, public policy, and technological challenges faced by businesses and other institutions engaged in this field. Berkman student fellow Matthew Becker’s recent case study on the topic, developed as part of our ongoing series on interoperability, suggests that greater scientific and technological reform, balanced with salient consideration of legal and social factors (such as user behavior and expectations), is required for successful interoperability in cloud computing.

Financial considerations can often drive small businesses “to the cloud.” Specifically, many businesses with underutilized IT departments have found cloud computing to be highly cost-effective. Simultaneously, on the end-user side, consumers have benefited from and enjoyed free or low-cost software from the cloud, which is becoming available on an increasing number of portable devices.

As explored in the case study and our book Interop, there are two integral dimensions to cloud computing interoperability: the vertical dimension and the horizontal dimension.

  • The vertical dimension involves interoperability of software, applications, and data within a single cloud. In other words, from the consumer’s perspective, does the cloud-based software work or can the cloud-based data be accessed on most Internet-enabled devices? Can this software or data integrate other applications or additional data that the user’s devices can access?
  • The horizontal dimension of cloud computing interoperability involves the concept of interoperability between clouds. In other words, how easily can a business that has cloud-hosted software or data transfer to an alternative cloud provider? Among other considerations, consistencies in cloud computing contracts, security features, privacy shields, authentication management, are vital when discussing this horizontal dimension of cloud computing interoperability. One of the primary foreseeable difficulties with cloud computing in the modern era is the possibility of a firm or individual becoming “locked-in” to the use of the cloud provider or platform with which they started.

Cloud computing interoperability promises many important societal benefits; better interoperability could facilitate much more efficient allocation of scarce computing resources, encourage greater device portability, allow increased access to computational power for small firms and developing countries, and decrease capital expenditures for such firms and nations. One such example is ULAP (University Learning Acceleration Platform), a cloud-computing infrastructure in the Philippines that is designed to help advance technological advancement in a developing country’s university program by taking advantage of open source virtualization technologies and cloud management platforms. Yet another successful example is Netflix, in which it owes its success to cloud computing by introducing on-demand streaming service based on cloud-based infrastructure. However, we must also be aware of the security, privacy, and international legal risks inherent in agreements to store data with and become reliant upon certain cloud providers.

Because cloud computing is an increasingly important part of our digital existence, the potential implications of cloud computing interoperability are profound. Household Internet names such as Amazon, Facebook, Google, Microsoft, Oracle—to name a few—are all affected daily by changes in cloud computing, which in turn affect database technologies, social networking, virtualization, public policy responses, and more. Thus, cloud computing interoperability both plays a role in influential business decisions at the microeconomic level and at the level of government policies that build the foundation on which macroeconomic forces act. Our study concludes by reaffirming this idea as well as by contending that the future direction of cloud computing interoperability will profoundly affect technological innovation in ways that shape our society and our world.

Interop Case Study #2: Bar Code Interoperability


The second case studies in our interop series looks into Bar Code interoperability, a great case that highlights the aspects inter-industry cooperation as well as collective action problems.  The case was researched by incoming Berkman student fellow Matthew B. Becker.  He submitted the following blog post as an introduction to the case:

When approaching the subject of interoperability, bar codes were an immediate interest of mine. Practically ubiquitous today, bar codes can be found on nearly every package, and are increasingly common in many other applications beyond retail. It is precisely this prevalence that made me wonder how such a technology came to be implemented so widely.

In hindsight, the value of bar codes seems obvious, and it can be difficult to imagine that there might have been a time when their adoption was anything but certain. However, as this study demonstrates, the history was far more complex. Both retailers and manufacturers recognized that implementing bar codes could reduce costs and increase the efficiency of their operations, but only if they were adopted by the majority of manufacturers and a very large number of retailers. As such, few businesses wanted to incur the costs of implementation without assurance that there would be a return on their investment, and for a time, bar codes were thought to have failed. This issue has been called a “chicken-and-egg” adoption problem, where there is a question as to “who should go first.” Similarly, it might also be considered a collective action problem, as it demonstrates a situation where the common interests of all parties were impeded by the immediate concerns and actions of the individuals themselves.

Collective action problems appear to be quite common when exploring the subject of interoperability, which by nature requires the participation of various entities. What makes this example particularly interesting is that the collective action problem was solved without significant government intervention. Instead, the organized efforts of an inter-industry consortium of retailers and manufacturers spearheaded the effort to create and popularize bar codes, which were then furthered by adoption outside of the point-of-sale retail context (an event that was not immediately anticipated), as well as unique historical circumstances that made adoption an easier choice for most manufacturers. Finally, large retailers used their considerable weight to coerce suppliers into implementation.

There is an important connection to another of our case studies that is worth mentioning: bar code adoption was essential to the development of electronic data interchange (EDI), as it allowed computers to “recognize” items that were sold, facilitating the use of accurate and automatic sales histories and inventories. For similar reasons, the adoption of both bar codes and EDI are intrinsically tied to the subsequent rise of big-box retailers, which required efficient and (largely) automated purchasing and re-stocking. As such, bar codes provide an example of an interoperable technology that resulted not only in efficiency gains, but also helped facilitate the restructuring of an entire industry.

To read the full case study: Interoperability Case Study: The Bar Code/UPC

Interop Case Study #1: “Fitness Landscapes and the Electrical Grid”


As previously noted, “Interop” is part of a series of experiments regarding the format of a book.  In the case of Interop, we publish it along with a set of case studies that have served as the raw data for the analysis and theory we present in the book version. As our early case studies on digital music, digital identity systems, and mash ups, all the materials are freely available online, via SSRN.  Over the next few weeks, we will introduce some of the more recent case studies, several of them authored by wonderful research assistants on our Interop research team.  Today – in time with the very high temperatures outside and the increased energy consumption – we would like to introduce the case study on the “smart grid” written by Paul Kominers. Paul submitted the following abstract to introduce the case he researched with us:

Imagine a mountain climber without a map. Rather than going downwards to return to town as might be sensible, he wants to find the highest point in the entire mountain range. But due to a blizzard, he cannot see very far; he can only tell whether a certain direction takes him higher or lower, and he has to stop every fifty yards or so to reevaluate and pick a new direction.

We can imagine many things happening to this mountain climber. He might find a path to the very highest point on the range. But he easily might not. If he finds himself near the top of the second-highest peak, he will probably follow the path to the top of that peak. In fact, if he finds himself approaching any peak, he will probably follow the path up to the top of the peak, unless the blizzard clears and he can see that he is on a lower peak. If he can see where the higher peak is, he might go down far enough to get onto a path that takes him up the higher peak, and then go straight up. Alternately, he might be lazy. He might find himself somewhere that gives him a vantage point to see where the highest peak is, but decide that he does not want to expend the effort to go from his current vantage point to the highest peak. Good enough is good enough for him.

This is an analogy for a fitness landscape. A fitness landscape is a way of picturing an optimization problem. A problem is analogized to a set of coordinates, with each coordinates having a certain fitness value; this builds up an imaginary, n-dimensional landscape. The goal, then, is to find the fittest point on the landscape, but limited sight range and unwillingness to invest to make big changes can get the search for maximum fitness stuck on a suboptimal or local peak.

Our electrical grid is much like the mountain climber stuck on his suboptimal peak. If we had had the sight range to see the next generation of technology back when we built the grid, we would have taken a different path to build that technology in the first place. And big changes require costly investments of time, money, and political capital, all of which are scarce. Further, the path is not perfectly clear. Although we have every reason to believe that a revised electrical grid would pay off substantially, exactly what a revised grid should look like is an incredibly hard problem. This makes moving even harder.

The next generation of the grid is the Smart Grid, a grid built up of intelligent, interoperable components. The Smart Grid comes from making individual grid components more self-aware of what they are doing at every moment. They can then be joined in networks that allow them to make better decisions about how each of them uses and transmits energy.

Currently, a great deal of discussion and debate is taking place. Government regulators, members of industry, and other stakeholders are coming together to discuss what a new, interoperable grid should look like. They are working together to design a more efficient and responsive electrical grid. In essence, they are finding the path to the higher peak.

Please check out the full case study on SSRN.

Zum Umgang mit Chancen und Risiken der Digitalgesellschaft


I had the pleasure to deliver a keynote last Friday in Berlin at the first Congress on Internet Policy organized by the German SPD-Bundestagsfraktion and discuss principles of good Internet policy making with Frank-Walter Steinmeier.  Please find the manuscript of my speech below (in German).

Sehr geehrte Damen und Herren,

Ich freue mich sehr, heute mit Ihnen Gedanken zur Frage des angemessenen Umgangs mit den vielgestaltigen Herausforderungen und Chancen der digital vernetzten Gesellschaft auszutauschen. Mein Argument geht im Kern dahin, dass der längerfristig erfolgreiche – mithin politisch erfolgreiche – Umgang mit der digitalen Revolution von drei wesentlichen Faktoren und ihrem Zusammenspiel abhängt:

(1)  Der erste Faktor betrifft unsere Bereitschaft und Fähigkeit, das Phänomen Internet und seine Auswirkungen auf die verschiedenen Gesellschaftsbereiche besser zu verstehen – oder genauer: verstehen zu lernen. Dabei geht es zunächst einmal um ein verbessertes Verständnis der Funktionsweise digitaler Technologien, aber auch um die Erforschung der humanen, organisationellen, und institutionellen Zusammenhänge. Dabei wird in Zukunft die Interoperabilität zwischen Forschung und Politik wesentlich zu erhöhen sein. Ich werde diese Herausforderung im Folgenden als die gemeinsame analytische Herausforderung in der Digitalgesellschaft bezeichnen.

(2)  Die mit dem Internet einhergehenden tektonischen Verschiebungen durchdringen fast alle Lebensbereiche. Ihre Komplexität wird zusätzlich gesteigert, indem sie mit anderen gesellschaftlichen Umwälzungen interagiert. Zu erwähnen sind insbesondere die Ausbildung eines netzwerkorientierten Individualismus und die globale mobile Revolution. Diese Veränderungsprozesse, die in einem neuen „gesellschaftlichen Betriebssystem“ resultieren, fordern nicht nur bestehende Normsysteme und damit Institutionen wie etwa das Recht heraus. Sie gehen auch mit einer Verschiebung der Bewertungsgrundlagen selbst einher. Zusammengenommen stehen wir als Individuen und als Kollektiv somit zweitens vor einem veritablen Bewertungsproblem, das die Kurz- und Langzeitfolgen des Internets anbelangt.

(3)  Der dritte Erfolgsfaktor betrifft den angemessenen, d.h. effektiven, effizienten und flexiblen Einsatz der vorhandenen Ressourcen, Ansätze und Strategien zur zukünftigen Gestaltung der Internet-basierten Gesellschaft. Diese Gestaltungsaufgabe beinhaltet auch eine Erweiterung unseres institutionellen Repertoirs, was den Umgang mit dem Internet-Phänomen betrifft. Die erfolgreiche Bewältigung dieser Aufgabe ist mit den genannten analytischen und normativen Ebenen eng verzahnt: Erfolgreiches Gestalten setzt Kenntnis der Materie sowie einen geeichten normativen Kompass voraus. Diese Erkenntnis ist keineswegs neu oder auf das Internet beschränkt, verdient aber gerade mit Blick auf kontroverse Regulierungsvorhaben der jüngeren Zeit eine Betonung.

Im Folgenden will ich die drei genannten Erfolgsfaktoren im Sinne einer „Zwischenbilanz aus dem Maschinenraum“ anhand ausgewählter Beispiele näher erläutern und dabei auch einige Kernfragen für die nachfolgende Diskussion herauskristallisieren. Meine Beobachtungen basieren dabei auf meiner Tätigkeit in einem stark international und interdisziplinär ausgerichteten Forschungsumfeld rund um den Themenbereich „Internet und Gesellschaft“. Sie sind zudem von meinem persönlichen Interesse an Fragen der Informationsregulierung geprägt. Diese einführenden Gedanken sind im Verlaufe des Nachmittags selbstverständlich durch weitere und teilweise alternative Sichtweisen zu ergänzen und zu vertiefen.

Wenden wir uns zunächst den Herausforderungen zu, was die Analyse des Internet-Phänomens und der damit verbundenen Chancen und Risiken für die Gesellschaft betrifft. Hier ist natürlich vorab die Wissenschaft gefordert, die sich beim digitalen Phänomen wie in anderen Forschungsbereichen der Gegenwart – von der effizienten Energienutzung bis hin zur Frage der Sanierung des Gesundheitswesens – mit einer ungeheuren Vielfalt von Fragen an der Schnittstelle von Technologie, Markt, Recht und sozialen Normen konfrontiert sieht. Lassen sie mich unter Bezugnahme auf eigene Forschungsarbeiten einige ausgewählte Charakteristika herausschälen, die für die analytischen Herausforderungen stellvertretend sind, denen wir uns stellen müssen.

Zunächst ist die Erforschung des Internet-Phänomens darauf angewiesen, dass Wissensbestände und Methodologien aus verschiedenen Disziplinen zusammengeführt und in ihrem Zusammenspiel orchestriert werden. Am Berkman Center haben wir uns zum Beispiel vertieft mit den Chancen und Risiken befasst, die sich für Kinder und Jugendliche im Internet ergeben, und Interventionsmöglichkeiten erforscht. Eine solche Analyse setzt das Zusammenspiel von Experten aus den Erziehungswissenschaften und der Psychologie ebenso voraus wie den Beizug von Neurowissenschaften, Ökonomen, Juristen und Ethnographen. Dabei ist der Einbezug von Kindern und Jugendlichen sowie deren Eltern ebenfalls wichtig, etwa was die Formulierung der Forschungsfragen betrifft.

Weiter ist das Internet bekanntlich ein globales Informations- und Kommunikationsmedium. Internetforschung hat vor diesem Hintergrund internationale Gesichtspunkte und Implikationen in vielen Bereichen mindestens zu berücksichtigen. In einem Projekt befassen wir uns derzeit beispielsweise mit Fragen des rechtlichen und regulatorischen Umgangs mit Cloud Computing als zukünftige Kerninfrastruktur unserer Informationsgesellschaft, die hohe Effizienzgewinne und Wirtschaftswachstum verspricht. Wir untersuchen unter anderem, inwiefern die Realisierung der wirtschaftlichen Vorteile eine Harmonisierung der Datenschutzanforderungen voraussetzt. Solche Projekte können nur in internationalen Forschungsnetzwerken bewältigt werden, die sich in diesem Bereich indes erst im Aufbau befinden.

Ein weiteres Merkmal der Internetforschung besteht darin, dass uns Forschenden eine Unmenge von Daten zur Auswertung zur Verfügung steht; „big data“ ist in aller Munde. Denn bekanntlich hinterlässt fast jeder Klick einen digitalen Fingerabdruck, was die detaillierte Analyse etwa von Kommunikationsbeziehungen und Informationsflüssen möglich macht. Diese massiven Datensets sind indes nicht ohne weiteres fruchtbar zu machen. Die Entwicklung eines neuen „Mikroskops“ für die sozialwissenschaftliche Forschung, das den Fluss von Themen und Traktanden im Internet und über seine Grenzen hinaus empirisch messen lässt, hat uns beispielsweise fast eine Dekade gekostet. Darüber hinaus bestehen erhebliche datenschutzrechtliche Bedenken, was den forscherischen Umgang mit grossen Datensets (etwa unter Zugriff auf soziale Netzwerke) betrifft. So lassen sich etwa in grossen Datensets die bisher gebräuchlichen Anonymisierungstechniken durch Algorithmen rückgängig machen.

Grosse Herausforderungen bestehen aber im Bereich der Internetforschung nicht nur auf der methodischen, sondern auch auf der theoretischen Ebene. Wiederum mag ein Beispiel aus dem eigenen Forschungsalltag der Illustration dienen. Seit einigen Jahren befassen wir uns mit der Frage, wie es um die Qualität der Information bestellt ist, wenn wir von einer analogen auf eine digitale Informationswelt umstellen. Welche Folgen hat es, wenn traditionelle Qualitätsinstanzen wie beispielsweise Redaktionen an Bedeutung verlieren und heute jedermann Inhalte produzieren und verteilen kann (Stichwort: Wikipedia), aber auch neue und weitgehend unregulierte Informationsintermediäre wie beispielsweise YouTube die Arena betreten? Diese qualitätsrelevanten strukturellen Veränderungen erfordern eine Erweiterung des alten Konzepts der „credibility“ aus den 40er und 50er-Jahren hin zu einem stärker prozessorientierten Framework der Informationsqualität, das auch das Phänomen nutzergenerierte Inhalte integriert.

Eine letzte hervorhebungswürdige analytische Herausforderung besteht darin, dass das Internet als Studienobjekt ein bewegliches Ziel ist. Die heute verfügbaren Daten hinken der rasanten Entwicklung der Technologie und der Nutzungsgewohnheiten in wichtigen Bereichen hinterher. Erst allmählich haben wir etwa verlässliche Erkenntnisse zu bestimmten Aspekten der Facebook-Nutzung. Wie erinnerlich hat Facebook heute über 900 Millionen Nutzer, war aber vor 10 Jahren noch nicht einmal geboren. Die Forschung teilt hier das Schicksal der Gesetzgebung. Sie muss die Eigenzeit mit den kürzeren Einheiten der Internet-Zeitrechnung synchronisieren.

Wie bereits erwähnt, ist es primär Aufgabe der Forschung, diese Herausforderungen inhaltlich, aber auch institutionell zu bewältigen und damit ein vertieftes Verständnis des Internet-Phänomens zu ermöglichen. Gleichzeitig bestehen aber zumindest in zweierlei Hinsicht wichtige Berührungspunkte zum bildungspolitischen System. Zum einen ist die erfolgreiche Erforschung der Bedingungen und Folgen der digitalen Revolution von der Bereitstellung von finanziellen und personellen Ressourcen abhängig. Dazu gehört eine Modernisierung der Forschungsumgebung und Forschungskultur – namentlich in der Zuwendung hin zu einer echten interdisziplinären Forschung. Ein Blick auf die europäische und mithin deutsche Forschungslandschaft zeigt, dass wir hier noch einen langen Weg gehen müssen, trotz Ausnahmen wie etwa dem neu gegründeten, von privater Seite initiierten und anschubfinanzierten „Alexander von Humboldt Institut für Internet und Gesellschaft“ in Berlin.

Zum andern bedarf der Wissenstransfer zwischen Forschung und Politik der Ausbildung von durchlässigen Schnittstellen. Nötig ist dabei insbesondere auch die Bereitschaft von Politikerinnen und Politikern, sich mit den oft nuancierten und auf den ersten Blick wenig attraktiven Forschungsergebnissen systematisch auseinanderzusetzen und diese auf ihre gesellschaftliche Relevanz abzufragen. Sachgerechte Internet-Politik ist vital auf die vertiefte Zuwendung zur datengeleiteten Problemanalyse angewiesen. Diese steht oftmals in scharfer Konkurrenz zu den kurzfristigen Anreizen einer Headline-orientierten und umfragegetriebenen politischen Realität.

Dabei muss im Sinne der „übersetzenden Forschung“ (sog. „translational research“) nicht nur klar und verständlich kommuniziert werden, was wir wissen, sondern auch, wo Wissenslücken bestehen oder welche wissenschaftlichen Analysen erst auf dem Wege sind. Gerade in Übergangsphasen sind wir angesichts dieses Halbwissens der Gefahr der Mythenbildung ausgesetzt. So hält sich etwa die Vorstellung hartnäckig, dass junge Internetnutzerinnen und –nutzer jeglichen Sinn von Privatsphäre verloren haben. Dagegen belegen jüngste Forschungsergebnisse, dass es sich um differenzierte Verschiebungen in der Erwartung der Reichweite von offengelegten persönlichen Informationen handelt. Oder es wird der Mythos verbreitet, die intensive Internetnutzung mache uns zu Einsiedlern, obwohl das vorhandene Datenmaterial zeigt, dass gerade intensive Internetnutzer auch mehr Freunde und Sozialkontakte offline pflegen – mit Ausnahme von Extremspielern.

Als Zwischenfazit legen diese Betrachtungen zu den analytischen Herausforderungen im Umgang mit den Chancen und Risiken der Digitalgesellschaft nahe, dass wir sowohl als Forschende wie auch als Teilnehmer am politischen System unter Ungewissheits- und Komplexitätsbedingungen operieren müssen. Nicht nur das Politikerwissen, sondern auch das Expertenwissen steht im Bereich der Internetforschung eher am Anfang als am Ende der Geschichte. Dies trotz wichtiger Erkenntnisfortschritte in den letzten Jahren.

Wenden wir uns den normativen Herausforderungen im gesellschaftspolitischen Umgang mit der digitalen Technologie zu. Ausgangspunkt bildet die Beobachtung, dass das Internet strukturelle Veränderungen im informationellen Ökosystem auslöst, die typischerweise „störenden“ Charakter haben. So bedrohen die Veränderungen hinsichtlich der Herstellung und Verbreitung sowie des Zugangs und der Nutzung von Information zum Beispiel viele tradierte Geschäftsmodelle. Überdies fordern sie angestammte institutionelle Arrangements massiv heraus – man denke etwa an das Urheberrecht oder den Datenschutz. In diesem Sinne ist das Medium „Internet“ im Blick auf seine Folgen wohl nicht deterministisch, aber eben auch keineswegs neutral. Vielmehr trägt es einen „bias“ in seiner DNA, wer mit wem unter welchen Bedingungen und unter wessen Kontrolle über welche Kanäle kommunizieren kann.

Die mit diesen Veränderungen einhergehenden Chancen und Risiken sind im Einzelnen oft sehr schwierig zu bewerten. Wiederum mögen einige Beispiele aus der Forschung am Berkman Center die normativen Komplikationen illustrieren. Wir haben uns beispielsweise in der vergangenen Dekade mit den tiefgreifenden Umwälzungen in der Unterhaltungsgüterindustrie befasst. Aus der Sicht der angestammten Musik- und Filmindustrie wird das Internet, – wen erstaunt es, – dabei mehrheitlich als Bedrohung wahrgenommen. In der Tat hat die weitverbreitete Nutzung von Peer-to-Peer-Tauschbörsen – notabene popularisiert durch die Programmierkünste eines College Studenten – zu Beginn dieses Jahrhunderts zum de-facto-Zusammenbruch des traditionellen Geschäftsmodells der Musikbranche geführt und Wesentliches zur Fundamentalkrise des Urheberrechts beigetragen. Aus der Perspektive innovativer Unternehmen wie Apple oder Netflix, aber etwa auch innovativer Künstlerinnen und Künstler stehen heute indes vor allem die Möglichkeiten im Vordergrund, welche die digitale Revolution im Musik- und Filmbereich eröffnet haben. Hier scheint sich die Geschichte zu wiederholen: Bereits bei der Einführung der Video-Kassettengeräte hat die Urheberrechtsindustrie ihren Untergang beklagt, während sich wenig später aus dieser Bedrohung mit dem Verleih von Videos eine der Haupteinnahmequellen der Branche entwickelt hat.

Die normative Beurteilung der Effekte des Internets ist indes nicht nur von der Perspektive und jeweiligen Interessenlage der Betroffenen abhängig. Diese verändert sich, wie im eben genannten Beispiel, typischerweise im Verlaufe der Zeit. Die Bewertung wird dadurch erschwert, dass Chancen und Gefahren in fast allen digitalen Lebensbereichen durchmischt und oft nur schwer voneinander zu trennen sind. Digitale Technologie hat beispielsweise unsere Arbeit in mancherlei Hinsicht effizienter oder zumindest interessanter gemacht. Gleichzeitig bringt der Siegeszug des Digitalen im Arbeitsalltag auch ernsthafte Probleme mit sich. Man denke nur an die Gefahr des Leckschlagens vertraulicher Informationen, die weitreichende Überwachung der Arbeitnehmerinnen und Arbeitnehmer, oder die ständige Erreichbarkeit mit negativen psychischen Folgen.

Diese typische Gemengenlage betreffend Risiken und Chancen macht das Abwägen zwischen Vor- und Nachteilen des Internets oftmals zur Glaubenssache. Um ein Beispiel aus meiner Heimat zu nennen: Der Schweizer Gesetzgeber hat aus relativ abstrakten Risikoüberlegungen und trotz einer ganzen Reihe von erfolgreichen Testläufen in Kantonen auf die flächendeckende Einführung des E-Votings bisher verzichtet. Über dieses Beispiel hinaus bestehen heute weiterhin Bewertungsunsicherheiten, was den Einsatz des Internets in der politischen Kommunikation betrifft. Wirkt sich dieser längerfristig partizipationsfördernd aus? Was ist mit der Qualität und Nachhaltigkeit der Entscheide in einer Internet-basierten „liquid democracy“? Diese und andere schwierige Bewertungsfragen harren der Klärung.

Trotz normativen Unsicherheiten ist klar, dass sich die grossen gesellschaftlichen Probleme der Gegenwart ohne Internet-basierte Technologien nicht lösen lassen. Ob effizienzsteigernder IT-Einsatz im Gesundheitswesen oder das Smart Grid im Energiebereich, das Internet ist bereits zur kritischen Infrastruktur geworden. Entsprechend erfolgt die Abwägung von Risiken und Chancen derzeit oft ad hoc und im Nachhinein. Unsere Forschung zur Interoperabilität zeigt indes die Gefahren eines solchen Ansatzes auf. Sind komplexe Systeme einmal hochvernetzt, aber hinsichtlich ihres Zusammenspiels nicht optimal justiert – etwa durch den bewussten Einbau auch von „digitalen Wellenbrechern“ –, wird es sehr schwierig, einen optimalen Grad an Vernetzung nachträglich herbeizuführen, der zum Beispiel datenschutzrechtliche oder Sicherheitsbedenken angemessen berücksichtigt.

Unsere Empfehlung geht dahin, bereits beim Design solcher Systeme verschiedene Szenarien durchzuspielen und anhand von Wertungsgesichtspunkten wie z.B. „Innovation“, „Nutzerautonomie“ oder „Systemdiversität“ zu bewerten. Dabei kommt es regelmässig zu schwierigen „Value Tradeoffs“ oder Zielkonflikten, die nur normativ bewältigt werden können. So mögen digitale Strategien der Vernetzung beispielsweise enorme Effizienzsteigerungen bringen – man denke an digitale Patientendossiers –, anderseits aber auch die Risiken hinsichtlich sensitiver Daten erhöhen. Dies sind die unerwünschten Nebenwirkungen von Interoperabilität. Immerhin sind solche Probleme keineswegs neu, obwohl das Internet angesichts der genannten Bewertungsunsicherheiten die Zielkonflikte wahrscheinlich noch akzentuiert.

Ein weiterer Aspekt kommt hinzu. Das Internet scheint zumindest bereichsweise zu einer Verschiebung der Bewertungsgrundlagen, d.h. der Wertmassstäbe und Wertungen selbst zu führen. Dies erschwert den gesellschaftlichen Umgang mit Risiken und Gefahren zusätzlich. Die Proteste gegen das ACTA-Abkommen hier in Europa, oder die Mobilisierung gegen die Gesetzesentwürfe SOPA/PIPA zum Schutze des geistigen Eigentums in den USA sind lediglich die gut sichtbaren Spitzen des Eisbergs dessen, was Kollege Beckedahl als „Sollbruchstelle“ bezeichnet. In der Tat haben das Internet und die darauf aufgesetzten Angebote die Normen rund um den Austausch von Informationen verändert. Das Teilen – und damit aufgrund der Funktionsweise der Technologie das Kopieren – von Information ist in der Architektur des Internets angelegt. Bewusste Designentscheide wichtiger Plattformanbieter wie Twitter, Google, oder Facebook verstärken diese Eigenschaft im Sinne eines „Charismatic Code“.

Von dieser normativ aufgeladenen, auf Austausch gerichteten digitalen Logik bleiben auch Sonderkategorien von Informationen wie etwa das Geheimnis oder urheberrechtlich geschützte Inhalte bekanntlich nicht verschont. Namentlich für das Rechtssystem stellen sich angesichts sich wandelnder sozialer Normen heikle Bewertungsfragen. Wann und unter welchen Bedingungen sollen sich rechtliche Institutionen – wie etwa das Urheberrecht – den neuen Realitäten des digitalen Zeitalters anpassen? Und in welche Richtung? Es wäre m.E. voreilig, von einem Primat digitaler Erwartungserwartungen über das Recht auszugehen. Das Recht wird zwar belächelt, weil es der Technologie oft zwei Schritte hinterher hinkt; aber letztlich hat es eben eine wichtige Funktion der Verlangsamung gesellschaftlichen Wandels, um Diskussionsräume und -zeiten zu schaffen. Hinzu kommt im genannten Beispiel, dass sich die Bedeutung der geistigen Schöpfung im digitalen Raum nicht auflöst, sondern wandelt. Untersuchungen mit Kindern belegen etwa, dass diese nur bereit sind, Inhalte mit anderen Digital Natives auszutauschen, wenn ihre Urheberschaft anerkannt wird. Wiederum bedarf es also eines differenzierten Blicks auf diejenigen sozialen Normen der Internetnutzer, die unsere rechtlichen Institutionen herauszufordern scheinen.

Als zweites Zwischenergebnis will ich festhalten, dass die bereits diagnostizierten analytischen Herausforderungen im Umgang mit den digitalen Chancen und Risiken durch die hier nur grob skizzierten Bewertungsprobleme extrapoliert werden. Die Politik im Allgemeinen und die Gesetzgebung im Besonderen haben die wenig beneidenswerte Aufgabe, mit den vom Internet ausgehenden Schockwellen trotz dieser faktischen und normativen Unsicherheiten angemessen umzugehen. Und das heisst auch: die Phasen der Ungewissheit auszuhalten. Dies führt mich zum letzten Teil meines Vortrags: der Gestaltungsherausforderung.

Lassen Sie mich gleich zu Beginn festhalten, dass meine Einschätzung der Einflusschancen von Politik und Gesetzgebung auf die zukünftige Gestaltung des Internets anders ausfällt als das Urteil vieler meiner Kollegen. Wiewohl natürlich die eingangs skizzierte Architektur des digitalen Raumes Rechtssetzung und Rechtsdurchsetzung in vielerlei Hinsicht erschwert, ist das Medium „Internet“ selbst ganz wesentlich von Politikentscheidungen mitgeprägt und durchdrungen. In vielerlei Hinsicht waren es gerade Politik und Gesetzgebung, die das Internet sowohl im technischen Sinne als auch als sozialen und kommerziellen Raum ermöglicht haben. Nicht nur waren Politikentscheide Ende der 50er-Jahre nötig, um die Mittel für die Entwicklung der Vorläufer des Internets bereitzustellen. Es waren auch politische Entscheide dafür verantwortlich, dass in den frühen 90er-Jahren die damalige NSFnet Backbone für den kommerziellen Datenverkehr überhaupt geöffnet wurde. Gesetzgebungen wie etwa die Europäische E-Commerce Richtlinie oder der amerikanische Communications Decency Act mit ihren „Safe Harbor“ Vorschriften zum Schutz von Internet Service Providern waren entscheidend mitverantwortlich für das Entstehen des heutigen Ökosystems. Die online Dienste, die wir mit grosser Selbstverständlichkeit benutzen – von Google, Hotmail, über Facebook zu YouTube – wären ohne das Vorhandensein von Recht nicht denkbar. Die Reihe von Beispielen liesse sich fortsetzen.

Aus der Vergangenheit lässt sich für die Zukunft lernen, auch in der Netzpolitik als Teil der Gesellschaftsgestaltung. Gleichzeitig ist klar, dass die heutigen Gestaltungsherausforderungen längst nicht mehr binär (Regulierung ja/nein, Schutz ja/nein), sondern vor dem Hintergrund der geschilderten phänomenologischen und normativen Ausgangsbedingen äussert komplex sind – vom Kampf gegen die Kinderpornographie angefangen bis hin zur Erarbeitung eines zukunftstragenden Datenschutz- und Cybersecurity-Konzepts. Im Kern geht es dabei um die grosse Frage, wie wir als Gesellschaft die Chancen der digitalen Technologien strategisch fördern, nutzen und langfristig absichern, und dabei mit den vieldiskutierten Risiken angemessen umgehen bzw. diese auf ein erträgliches Mass reduzieren.

Bei der Bearbeitung dieser schwierigen Aufgabe kann es hilfreich sein, drei Dimensionen guter Internetpolitik zu unterscheiden, die in ihrem Zusammenspiel auch die Frage der Legitimation von Gestaltungsentscheiden und die Verantwortung für ihre Folgen betreffen.  Angesichts der Ungewissheits- und Komplexitätsbedingungen stehen wir als Entscheidträger zunächst vor dem grossen Problem, aus einer Vielzahl von Planungsvarianten und normativen Szenarien die sachlich angemessene Lösung zu wählen – sei es im Kontext von E-Government und Cloud Computing, der Erneuerung des Datenschutzregimes, oder bei der weiteren Ausgestaltung des Schutzes des geistigen Eigentums im digitalen Umfeld.

Diese inhaltliche Richtigkeit – oder besser: Angemessenheit – der von uns gewählten Massnahmen im Hinblick auf bestimmte Ziele wird längerfristig die entscheidende Messlatte sein. Mit den Worten des Schweizer Staatsrechtlers Georg Müller:

„Wenn der Gesetzgeber mangels Sachkenntnis oder aufgrund einer fehlerhaften Prognose eine Regelung erlässt, die ihren Zweck nicht erfüllt, nützt die demokratische Legitimation nichts, im Gegenteil: Das demokratische System wird unglaubwürdig“.

Und im Zusammenhang mit der Frage nach der „Wirksamkeit“ staatlicher Interventionen schreibt Müller:

„Der Erlass unwirksamer Anordnungen untergräbt … das Vertrauen in die Institutionen der Demokratie“.

Den Ruf nach hinreichender Sachkenntnis zu erfüllen, die alsdann in wirksame Massnahmen übersetzt werden kann, ist gerade im Bereich der Internetpolitik kein leichtes Spiel. Wie eingangs dargestellt, ist dabei auch der in solchen Situationen beinahe reflexartige Beizug von Experten – etwa im Rahmen einer Enquette Kommission wie hier in Deutschland – wohl sinnvoll und hilfreich, aber angesichts beschränkten Expertenwissens kein Erfolgsgarant. Vielmehr ist, und ich werde diesen Punkt ganz am Ende nochmals kurz aufgreifen, das gesamte Gestaltungssystem, inklusive Recht, auf Lernfähigkeit zu programmieren.

Im Zitat von Prof. Müller ist es bereits angeklungen: Die inhaltliche Output-Qualität unserer Netzpolitik hängt mithin von der Wahl geeigneter Instrumente ab. Dies ist die zweite Dimension der Gestaltungsherausforderung. Hier liegt meiner Auffassung nach hinsichtlich des guten Umgangs mit der Digitalgesellschaft vielleicht das grösste Potential verborgen. Wir müssen dringend unseren „Werkzeugkasten“ überdenken und gegebenenfalls neu bestücken, um die Instrumente besser auf die skizzierten Realbedingungen des digitalen Phänomens einzustellen.

Dies betrifft zunächst einmal die Erweiterung des gesetzgeberischen Repertoirs. Es ist beispielsweise erstaunlich, wie beliebt in der Internet-Gesetzgebung beidseits des Atlantiks der Gebrauch des altgedienten, aber im Internet-Kontext erfahrungsgemäss wenig griffigen Instrument des „Verbots“ noch immer ist. Geplante oder eingeführte Verbote von Killerspielen oder das in den USA beliebte Verbot der Facebook-Nutzung in Schulen sind nur zwei Beispiele aus einer langen Liste von Internet-Verboten. Um klarzustellen: In manchen Bereichen, wie etwa bei brutalen Killerspielen, mögen Verbote zumindest im Sinne der symbolischen Gesetzgebung einen Wert haben, d.h. als Ausdruck der gesellschaftlichen Missbilligung bestimmter Handlungsweisen oder Anwendungen. Solche Signalwerte sind gerade in Zeiten der beschriebenen Bewertungsunsicherheit nicht unerheblich. Aber der Beitrag zur effektiven Problemlösung bleibt bei solchen Verboten oft sehr beschränkt.

Unser Instrumentarium ist allerdings über die Regulierungstechnik hinaus, d.h. auch im grösseren institutionellen Zusammenhang zu erweitern. In vielen Bereichen bedarf der gewinnbringende Umgang mit den digitalen Chancen und Risiken des Zusammenwirkens verschiedner Akteure. Ich habe die Forschung zur Internetnutzung von Kindern und Jugendlichen als Beispiel bereits erwähnt. Dort sehen wir deutlich, wie die Heranwachsenden selbst, ihre Eltern, Lehrer, Freunde, aber auch Technologieanbieter und der Staat Hand in Hand arbeiten müssen, um das enorme Potential des Internets etwa für die Ausbildung und das Lernen zu nutzen und Teilhabelücken zu schliessen. Gleiches gilt für die effektive und nachhaltige Bewältigung der Gefahren wie beispielsweise Cyberbullying, Spielsucht, oder Verletzung der Privatsphäre.

Es ist ermutigend zu sehen, dass die Wichtigkeit dieses Zusammenspiels der Akteure auch in der Internetpolitik erkannt ist und Eingang in entsprechende Positionspapiere gefunden hat. In einem nächsten Schritt müssen wir aber auch die entsprechenden institutionellen Arrangements erarbeiten – und absichern. Neue Modelle wie die auch hierzulande und in diesem Bereich beliebte Co-Regulierung können den Weg weisen, sind aber etwa hinsichtlich Legitimierung und Partizipation durchaus erweiterungs- und verbesserungsfähig.

Der dritte und letzte Aspekt, den ich im Rahmen der Gestaltungsherausforderung aufgreifen möchte, betrifft die Prozesse, in denen wir unsere internetbezogenen Wertfragen verhandeln, Gestaltungsziele diskutieren sowie die Wahl der Mittel definieren. Hier ist zunächst festzuhalten, dass das Internet zu einem ungeheuren Transparenzdruck beigetragen hat. Wiewohl es m.E. geschützter Räume gerade auch im politischen Bereich bedarf, in denen Szenarien durchgespielt und Lösungsvarianten ohne Angst vor negativen Schlagzeilen diskutiert werden können, ist die Absicherung solcher Räume heute praktisch chancenlos.  Wikileaks oder die „geleakten“ Berichte aus dem Oval Office zu Präsident Obama’s streng geheimen Cyberwar-Massnahmen sind nur zwei Beispiele. Angesichts des Regulierungsobjekts „Internet“ und der davon betroffenen Akteure müssen wir uns aller Voraussicht nach auf voll transparente Verfahren einstellen. Geheimverhandlungen à la ACTA werden von der diffus und ad hoc definierten, aber zunehmend strategisch operierenden Internet-Community jedenfalls nicht mehr akzeptiert.

Eng mit dem Transparenzerfordernis verbunden ist die Frage der Mitwirkung an gestalterischen Entscheiden, die das Internet betreffen. Auch hier besteht Innovationsbedarf, was unsere angestammten Institutionen betrifft – gerade auch, um den eingangs genannten internationalen Dimensionen Rechnung zu tragen. Dass die Debatten heute nicht mehr nur national geführt werden können, sehen wir nicht nur, wenn es um globale Regulierungsvorhaben etwa im Rahmen der ITU oder der WIPO geht – oder hier in Deutschland um die Umsetzung bzw. Nichtumsetzung der Richtlinie über die Vorratsdatenspeicherung. Der Bedarf nach neuen Formen der Mitwirkung ist auch dort deutlich erkennbar, wo die Spielregeln des Internets uni- oder bilateral durch private Akteure gesetzt werden, wie etwa das inzwischen gescheiterte „Google Book Settlement“ und Reaktionen darauf illustrieren.

Natürlich ist es naheliegend, gerade hinsichtlich der Frage nach neuen Formen der Teilhabe das Internet selbst fruchtbar zu machen. Interessante institutionelle Versuche wie e-Rulemaking und e-Budgeting sind im Gange, wobei in Europa wahrscheinlich Estland diesbezüglich das grösste und bisher erfolgreichste digitale Laboratorium darstellt. Brasilien und die USA sind weitere interessante Fallstudien in diesem Bereich. Vielleicht noch interessanter als der Einbau solcher digitaler Kanäle in bestehende institutionelle Set-ups sind neuartige hybride Organisationen wie etwa ICANN oder das Internet Governance Forum (IGF). Die Beurteilung der Leistung dieser neuartigen Institutionen bleibt allerdings weiterhin umstritten. Meines Erachtens wird deren Potential und Bedeutung aus der Optik der institutionellen Innovation allerdings gemeinhin unterschätzt.

Lassen Sie mich mit einem Gedanken schliessen, der mich seit längerer Zeit beschäftigt. Wie würden angesichts der hier skizzierten analytischen, normativen, und gestalterischen Herausforderungen die kategorischen Imperative – oder zumindest Postulate – guter Internetpolitik lauten? Vor dem Hintergrund des hier Ausgeführten wage ich einen ersten Versuch und freue mich auf die Diskussion mit Ihnen:

Postulat 1: Gute Internetpolitik gebietet es, an der Generierung von Wissen über das Internet-Phänomen teilzuhaben und dieses Wissen auszutauschen.

Postulat 2: Vor regulatorischen Eingriffen sollte Klarheit herrschen, was wir wissen und was nicht. Vor allem im Bereich des Handelns unter Nichtwissen sind die Entscheide und Instrumente auf Lernfähigkeit einzustellen, d.h. auch revidierbar zu halten.

Postulat 3: Gute Internetpolitik vermeidet oder reduziert zumindest die Gefahr, die Generativität des Internet als Prinzip nachhaltig zu verletzen, und bewahrt damit seine Innovationskraft.

Postulat 4: Muss unter analytischer und normativer Unsicherheit entschieden werden (was auch den Entscheid des Nicht-Handelns beinhalten kann), sind Entscheidvarianten zu bevorzugen, die auf Interoperabilität angelegt sind und Möglichkeitsräume für zukünftige Entscheide offen halten.

Ich danke Ihnen für Ihre Aufmerksamkeit.



John Palfrey and I have a new book out: Interop: The Promise and Perils of Highly Interconnected Systems. The book is part of a larger research initiative at the Berkman Center with focus on interoperability – or the art and science of working together. It synthesizes six years of research and builds upon previous work, including a white paper and a series of case studies written with the help of a fantastic team of student researchers, which we will release over the next few weeks.  For a preview, check out our SSRN series.

I care deeply about this book, and even more so than about previous things I have written. I believe that the questions addressed in Interop are fundamental in nature as we are trying to build a better world. At its core, the book tells the story of an increasingly interconnected digital society and explores how much interconnectivity we need among systems and their components to solve the biggest challenges we face in today’s society – from the health care crisis to global warming. Importantly, we do not argue in favor of unlimited interoperability. While we have evidence that interop is generally a sound public policy goal as it usually drives innovation (with important caveats) and economic growth, makes systems more efficient, and increases user autonomy, we acknowledge important downsides and costs of interconnectedness. The book is an attempt to build a theory of interoperability, by weaving together a rich set of case studies, that provides initial insight in how we can design optimum levels of interconnectedness. And indeed, the question of appropriate speed-bumps and “digital breakwaters” is among the most pressing and difficult issues we need to address.

As pointed out in the Nature review of Interop, we still have a long way to go to provide final answers to this set of hard questions. But we hope that the book introduces a helpful analytical framework and offers key normative considerations as we work together towards optimum levels of interconnectedness not only among technological systems and databases, but also among human beings and institutions.

If you are interested in learning more about interop, please check out our online resources with more materials to be added over the next few weeks and months. The book can be ordered via your preferred bookstore, and the video and recap from the Harvard book launch is available online here.

Study Released: ICT Interoperability and eInnovation


John Palfrey and I released today in Washington D.C. a White Paper and three case studies on ICT Interoperability and eInnovation (project homepage here.) The papers are the result of a joint project between Harvard’s Berkman Center and the Research Center for Information Law at St. Gallen, sponsored by Microsoft. Our research focused on three case studies in which the issues of interoperability and innovation are uppermost: digital rights management in online and offline music distribution models; various models of digital identity systems (how computing systems identify users to provide the correct level of access and security); and web services (in which computer applications or programs connect with each other over the Internet to provide specific services to customers).

The core finding is that increased levels of ICT interoperability generally foster innovation. But interoperability also contributes to other socially desirable outcomes. In our three case studies, we have studied its positive impact on consumer choice, ease of use, access to content, and diversity, among other things.

The investigation reached other, more nuanced conclusions:

  • Interoperability does not mean the same thing in every context and as such, is not always good for everyone all the time. For example, if one wants completely secure software, then that software should probably have limited interoperability. In other words, there is no one-size-fits-all way to achieve interoperability in the ICT context.
  • Interoperability can be achieved by multiple means including the licensing of intellectual property, product design, collaboration with partners, development of standards and governmental intervention. The easiest way to make a product from one company work well with a product from another company, for instance, may be for the companies to cross license their technologies. But in a different situation, another approach (collaboration or open standards) may be more effective and efficient.
  • The best path to interoperability depends greatly upon context and which subsidiary goals matter most, such as prompting further innovation, providing consumer choice or ease of use, and the spurring of competition in the field.
  • The private sector generally should lead interoperability efforts. The public sector should stand by either to lend a supportive hand or to determine if its involvement is warranted.

In the White Paper, we propose a process constructed around a set of guidelines to help businesses and governments determine the best way to achieve interoperability in a given situation. This approach may have policy implications for governments.

  • Identify what the actual end goal or goals are. The goal is not interoperability per se, but rather something to which interoperability can lead, such as innovation or consumer choice.
  • Consider the facts of the situation. The key variables that should be considered include time, maturity of the relevant technologies and markets and user practices and norms.
  • In light of these goals and facts of the situation, consider possible options against the benchmarks proposed by the study: effectiveness, efficiency and flexibility.
  • Remain open to the possibility of one or more approaches to interoperability, which may also be combined with one another to accomplish interoperability that drives innovation.
  • In some instances, it may be possible to convene all relevant stakeholders to participate in a collaborative, open standards process. In other instances, the relevant facts may suggest that a single firm can drive innovation by offering to others the chance to collaborate through an open API, such as Facebook’s recent success in permitting third-party applications to run on its platform. But long-term sustainability may be an issue where a single firm makes an open API available according to a contract that it can change at any time.
  • In the vast majority of cases, the private sector can and does accomplish a high level of interoperability on its own. The state may help by playing a convening role, or even in mandating a standard on which there is widespread agreement within industry after a collaborative process. The state may need to play a role after the fact to ensure that market actors do not abuse their positions.

While many questions remain open and a lot of research needs to be done (including empirical studies!), we hope to have made a contribution to the ongoing interoperability debate. Huge thanks to the wonderful research teams on both sides of the Atlantic, especially Richard Staeuber, David Russcol, Daniel Haeusermann, and Sally Walkerman. Thanks also to the many advisors, contributors, and commentators on earlier drafts of our reports.

“Born Digital” and “Digital Natives” Project Presented at OECD-Canada Foresight Forum


Here in Ottawa, I had the pleasure to speak at the OECD Technology Foresight Forum of the Information, Computer and Communications Policy Committee (ICCP) on the participative web – a forum aimed at contributing to the OECD Ministerial Meeting “The Future of the Internet Economy” that will take place in Seoul, Korea, in June 2008.

My remarks (what follows is a summary, full transcript available, too) were based on our joint and ongoing HarvardSt.Gallen research project on Digital Natives and included some of the points my colleague and friend John Palfrey and I are making in our forthcoming book “Born Digital” (Basic Books, 2008).

I started with the observation that increased participation is one of the features at the very core of the lives of many Digital Natives. Since most of the speakers at the Forum were putting emphasis on creative expression (like making mash-ups, contributing to Wikipedia, or writing a blog), I tried to make the point that participation needs to be framed in a broad way and includes not only “semiotic democracy”, but also increased social participation (cyberspace is a social space, as Charlie Nesson has argued for years), increased opportunities for economic participation (young digital entrepreneurs), and new forms of political expression and activism.

Second, I argued that the challenges associated with the participative web go far beyond intellectual property rights and competition law issues – two of the dominant themes of the past years as well as at the Forum itself. I gave a brief overview of the three clusters we’re currently working on in the context of the Digital Natives project:

  • How does the participatory web change the very notion of identity, privacy, and security of Digital Natives?
  • What are its implications for creative expression by Digital Natives and the business of digital creativity?
  • How do Digital Natives navigate the participative web, and what are the challenges they face from an information standpoint (e.g. how to find relevant information, how to assess the quality of online information)?

The third argument, in essence, was that there is no (longer a) simple answer to the question “Who rules the Net?”. We argue in our book (and elsewhere) that the challenges we face can only be addressed if all stakeholders – Digital Natives themselves, peers, parents, teachers, coaches, companies, software providers, regulators, etc. – work together and make respective contributions. Given the purpose of the Forum, my remarks focused on the role of one particular stakeholder: governments.

While still research in progress, it seems plain to us that governments may play a very important role in one of the clusters mentioned above, but only a limited one in another cluster. So what’s much needed is a case-by-case analysis. I briefly illustrated the different roles of governments in areas such as

  • online identity (currently no obvious need for government intervention, but “interoperability” among ID platforms on the “watch-list”);
  • information privacy (important role of government, probably less regarding more laws, but better implementation and enforcement as well as international coordination and standard-setting);
  • creativity and business of creativity (use power of market forces and bottom-up approaches in the first place, but role of governments at the margins, e.g. using leeway when legislating about DRM or law reform regarding limitations and exceptions to copyright law);
  • information quality and overload (only limited role of governments, e.g. by providing quality minima and/or digital service publique; emphasis on education, learning, media & information literacy programs for kids).

Based on these remarks, we identified some trends (e.g. multiple stakeholders shape our kids’ future online experiences, which creates the need for collaboration and coordination) and closed with some observations about the OECD’s role in such an environment, proposing four functions: awareness raising and agenda setting; knowledge creation (“think tank”); international coordination among various stakeholders; alternative forms of regulation, incl. best practice guides and recommendations.

Berkman Fellow Shenja van der Graaf was also speaking at the Forum (transcripts here), and Miriam Simun presented our research project at a stand.

Today and tomorrow, the OECD delegates are discussing behind closed doors about the take-aways of the Forum. Given the broad range of issues covered at the Forum, it’s interesting to see what items will finally be on the agenda of the Ministerial Conference (IPR, intermediaries liability, and privacy are likely candidates.)

Second Berkman/St. Gallen Workshop on ICT Interoperability


Over the past two days, I had the pleasure to co-moderate with my colleagues and friends Prof. John Palfrey and Colin Maclay the second Berkman/St. Gallen Workshop on ICT Interoperability and eInnovation. While we received wonderful initial inputs at the first workshop in January that took place in Weissbad, Switzerland, we had this time the opportunity to present our draft case studies and preliminary findings here in Cambridge. The invited group of 20 experts from various disciplines and industries have provided detailed feedback on our drafts, covering important methodological questions as well as substantive issues in areas such as DRM interoperability, digital ID, and web service/mash ups.

Like at the January workshop, the discussion got heated while exploring the possible roles of governments regarding ICT interoperability. Government involvement may take many forms and can be roughly grouped into two categories: ex ante and ex post approaches. Ex post approaches would include, for example, interventions based on general competition law (e.g. in cases of refusal to license a core technology by a dominant market player) or an adjustment of the IP regime (e.g. broadening existing reverse-engineering provisions). Ex ante strategies also include a broad range of possible interventions, among them mandating standards (to start with the most intrusive), requiring the disclosure of interoperability information, labeling/transparency requirements, using public procurement power, but also fostering frameworks for cooperation between private actors, etc.

There was broad consensus in the room that governmental interventions, especially in form of intrusive ex ante interventions, should be a means of last resort. However, it was disputed how the relevant scenarios (market failures) might look like where governmental interventions are justified. A complicating factor in the context of the analysis is the rapidly changing technological environment that makes it hard to predict whether the market forces just need more time to address a particular interoperability problem, or whether the market failed in doing so.

In the last session of the workshop, we discussed a chart we drafted that suggests steps and issues that governments would have to take into consideration when making policy choices about ICT interoperability (according to our understanding of public policy, the government could also reach the conclusion that it doesn’t intervene and let the self-regulatory forces of the market taking care of a particular issue). While details remain to be discussed, the majority of the participants seemed to agree that the following elements should be part of the chart:

  1. precise description of perceived interoperability problem (as specific as possible);
  2. clarifying government’s responsibility regarding the perceived problem;
  3. in-depth analysis of the problem (based on empirical data where available);
  4. assessing the need for intervention vis-à-vis dynamic market forces (incl. “timing” issue);
  5. exploring the full range of approaches available as portrayed, for example, in our case studies and reports (both self-regulatory and regulation-based approaches, including discussion of drawbacks/costs);
  6. definition of the policy goal that shall be achieved (also for benchmarking purposes), e.g. increasing competition, fostering innovation, ensuring security, etc.

Discussion (and research!) to be continued over the weeks and months to come.

ICT Interoperability and Innovation – Berkman/St.Gallen Workshop


We have teamed up with the Berkman Center on an ambitious transatlantic research project on ICT interoperability and e-innovation. Today, we have been hosting a first meeting to discuss some of our research hypotheses and initial findings. Professor John Palfrey describes the challenge as follows:

This workshop is one in a series of such small-group conversations intended both to foster discussion and to inform our own work in this area of interoperability and its relationship to innovation in the field that we study. This is among the hardest, most complex topics that I’ve ever taken up in a serious way.

As with many of the other interesting topics in our field, interop makes clear the difficulty of truly understanding what is going on without having 1) skill in a variety of disciplines, or, absent a super-person who has all these skills in one mind, an interdisciplinary group of people who can bring these skills to bear together; 2) knowledge of multiple factual settings; and 3) perspectives from different places and cultures. While we’ve committed to a transatlantic dialogue on this topic, we realize that even in so doing we are still ignoring the vast majority of the world, where people no doubt also have something to say about interop. This need for breadth and depth is at once fascinating and painful.

As expected, the diverse group of 20 experts had significant disagreement on many of the key issues, especially with regard to the role that governments may play in the ICT interoperability ecosystem, which was characterized earlier today by Dr. Mira Burri Nenova, nccr trade regulation, as a complex adaptive system. In the wrap-up session, I was testing – switching from a substantive to a procedural approach – the following tentative framework (to be refined in the weeks to come) that might be helpful to policy-makers dealing with ICT interoperability issues:

  1. In what area and context do we want to achieve interoperability? At what level and to what degree? To what purpose (policy goals such as innovation) and at what costs?
  2. What is the appropriate approach (e.g. IP licensing, technical collaboration, standards) to achieve the desired level of interoperability in the identified context? Is ex ante or ex post regulation necessary, or do we leave it to the market forces?
  3. If we decide to pursue a market-driven approach to achieve it, are there any specific areas of concerns and problems, respectively, that we – from a public policy perspective – still might want to address (e.g. disclosure rules aimed at ensuring transparency)?
  4. If we decide to pursue a market-based approach to interoperability, is there a proactive role for governments to support private sector attempts aimed at achieving interoperability (e.g. promotion of development of industry standards)?
  5. If we decide to intervene (either by constraining, leveling, or enabling legislation and/or regulation), what should be the guiding principles (e.g. technological neutrality; minimum regulatory burden; etc.)?

As always, comments are welcome. Last, but not least, thanks to Richard Staeuber and Daniel Haeusermann for their excellent preparation of this workshop.

Log in