La nacionalización de la Red

El Instituto Juan de Mariana ha “liberado” el libro de Albert Esplugas Boter: «La comunicación en una sociedad libre. Una crítica liberal al statu quo» (aquí) lo cual es de agradecer. El texto de Espulgas constituye un análisis de los principios éticos que fundamentan una sociedad libre teniendo para ello como piedra angular el respeto a la propiedad privada, tan socavada en los últimos tiempos.

En lo que nos interesa, destacamos dos capítulos, aquél referente a la apropiación del espectro por parte del Estado con todas las ineficiencias harto conocidas (a lo que no nos dedicaremos); y, el intento de nacionalizar (léase estatización o socialización) las infraestructuras de Internet a través de iniciativas del tipo neutralidad de la red (Net neutrality).

El análisis es sencillo. Hasta determinado momento, las redes interconectadas que integraban Internet eran de propiedad de las empresas de cable y telefonía, las cuales habían gestionado estas redes de acuerdo con el principio de la neutralidad. Es decir, permanecían neutrales respecto de la informacuión transmitida, sin modificarla o priorizarla.

No obstante, con la explosión del tráfico cursado a través de estas redes algunas empresas se ven en la necesidad de imponer determinadas restricciones y a discriminar entre usuarios. Como lo haría cualquier propietario. Por ejemplo, algunas de estas compañías ofrecen servicios priorizados a determinados proveedores de contenidos a cambio de una contraprestación mayor (¿Es Internet como una carretera? y ¿Es malo que pague más quien más consume?) o paquetes con limites de descargas para los consumidores (AT&T estrena nueva política para su DSL).

La posibilidad de que se impusieran estas políticas no neutrales desataron una agría polémica que todavía no termina de resolverse. Los defensores de la neutralidad afirman que si se permite a los propietarios de las infraestructuras de Internet discriminar entre determinados usos y fijar precios diferenciados en función de éstos se atenta contra los principios fundacionales de Internet.

Espulgas ve estas restricciones como el resultado inevitable de la escasez de ancho de banda. En la medida que es materialmente imposible que todos los usuarios utilicen la Red al mismo tiempo, sin límite alguno, es necesario administrar su uso. La pregunta entonces, no es si debe restringirse Internet, sino cómo debe hacerse.

La respuesta liberal a esta cuestión debiera ser siempre la misma. El propietario de un bien escaso debe decidir su mejor uso. Sin embargo, voces mayoritarias reclaman que el Estado debe imponer legislativamente el criterio de la neutralidad para que los propietarios de las infraestructuras, bajo la excusa de su congestión, no desplieguen prácticas anticompetitivas y restrinjan los contenidos de sus competidores.

Espulgas cree que estos miedos son infundados sobre la base de cuatro consideraciones:

Primero, el sistema de precios permite orientar los recursos hacia los usos más demandados. Un factor se desplaza al sector productivo que mejor se remunera, previendo el empresario que ha invertido en este factor que recuperará la inversión cuando los consumidores paguen por el bien o servicio. En el caso de la banda ancha, un sistema de precios libre, permite que aquellos que ansían con mayor ahínco un bien, paguen más por él. Si se permite la discriminación y fijar precios diferenciados, aquellos que quieran una mayor capacidad podrán obtenerla pagan el mayor precio. La neutralidad de la red en esencia, no sólo no soluciona el problema de la congestión, sino que lo agrava.

Segundo, el cobro por unos servicios diferenciados incrementa los ingresos de las compañías propietarias de las redes  y haría -en un escenario competitivo- más atractiva la inversión en nuevas redes y en el desarrollo de Internet. Por el contrario, la imposición de la neutralidad de la red equivale a una regulación por precio máximo y por ende se reducen los incentivos para invertir.

Tercero, el propietario de la red tiene derecho a decidir qué es lo que circula por ella. No obstante, en un entorno competitivo, un operador difícilmente decidirá bloquear determinados contenidos, pues sus abonados podrán marcharse al operador que no los bloquea. El problema es que los entornos no suelen ser competitivos por el accionar de las propias autoridades del Estado.

Cuarto, la neutralidad de la red menoscaba la competencia, no la incentiva, si todas las redes van a ofrecer lo mismo, desparece la posibilidad de que los operadores entrantes diseñen sus redes para atender nichos de mercado específicos. Es decir, la oferta de los entrantes será idéntica que la del incumbente.

Coincido en gran parte, una visión distinta entre tato discurso intervencionista monocorde.

Net neutrality, el turno de Europa

La Neutralidad de la red viene generando un interés creciente. Inicialmente parecía que el asunto era poco más que parte del folclore americano, pero con el tiempo diversas latitudes se vienen sumando a la discusión. Pasado el turno del debate norteamericano (Net neutrality a consulta pública y El ruido y la furia del caso Comcast (1 y 2)) y de la veloz aprobación de la Ley chilena (Neutralidad de red a la chilena), parece que Europa entra en la arena.

La Unión Europea se pronuncia

Al final del 2009 la Unión Europea (UE) aprobó el paquete de reforma del sector de las telecomunicaciones, teniendo a la Neutralidad de la red como un principio regulatorio a ser promovido por los organismos reguladores de cada país miembro. Siguiendo esta trocha, la Comisión Europea publicó el 19 de abril de este año una Comunicación sobre la neutralidad de la red y el estado de Internet abierto en Europa (COM(2011) 222 final).

De acuerdo con la Comunicación, el debate de la Neutralidad de la red se centra en la razonabilidad de las políticas de gestión de tráfico diseñadas por los operadores. Aún cuando se reconoce que los operadores pueden adoptar prácticas de gestión para garantizar un uso eficiente de las redes, se han denunciado algunas prácticas que irían contra el carácter abierto de Internet, como el bloqueo o degradación de servicios legales (como servicios de Voz sobre IP) que compiten con los servicios brindados por los operadores de telecomunicaciones.

La Comisión concluye, sin embargo, que no tenía evidencia para determinar que estas preocupaciones estuvieran justificadas, aunque reconoció que debía realizarse una investigación más exhaustiva.

Existiría consenso en que la transparencia sobre la calidad del servicio es un aspecto esencial. Teniendo en cuenta la complejidad y el carácter técnico de la multiplicidad de ofertas en Internet, debe establecerse un equilibrio entre las necesidades de simplicidad y el suministro de información detallada y adecuada. La Comisión considera que las normas sobre transparencia, distribución y calidad de servicios que forman parte de la revisión del marco de las comunicaciones electrónicas de la UE contribuirán a la generación de resultados competitivos.

Si el sistema en su conjunto no garantiza que los consumidores pueden acceder y distribuir contenidos, servicios y aplicaciones a su elección con una suscripción a Internet, la Comisión evaluará la necesidad de imponer medidas más estrictas para lograr la competencia y la elección que los consumidores se merecen. Cualquier regulación adicional debe evitar desalentar las inversiones, proteger modelos de negocio innovadores, conducir a un uso más eficiente de las redes y crear nuevas oportunidades de negocio en los diferentes niveles de la cadena de valor de Internet.

La consulta inglesa

Ofcom (Office of Communications), el regulador británico de las comunicaciones, publicó en junio del año pasado un documento (Traffic Management and ‘net neutrality’ – A Discussion Document) de debate sobre las prácticas de gestión del tráfico de Internet.

El documento reconoce que algunas redes ya están experimentando problemas de congestión debido al intenso uso. Como respuesta, los operadores de redes y proveedores de servicios de Internet (ISP) están haciendo un uso intensivo de técnicas de gestión del tráfico. Aunque la gestión de tráfico ofrece algunos beneficios a los consumidores, existe la preocupación de que las empresas utilicen la gestión del tráfico para dañar a la competencia.

Ninguna queja formal ha recibido  Ofcom sobre las políticas de gestión de tráfico que requiera su intervención. La posición inicial de Ofcom es que la conducta discriminatoria es sólo un problema potencial cuando las empresas tienen poder de mercado y potencia sus propios servicios. Ocfom no ha encontrado pruebas suficientes para justificar el establecimiento de restricciones globales sobre las formas de gestión del tráfico.

La gestión del tráfico presenta retos potenciales para los consumidores. Al comparar los diferentes servicios podría resultar difícil entender las políticas de gestión de tráfico y el impacto que estas políticas tendrían sobre su experiencia. Ofcom cree que la falta de transparencia es peligrosa ya que puede ser un problema para los consumidores. El potencial perjuicio para los consumidores podría aumentar en la medida que las políticas de gestión de tráfico se hagan más amplias y sofisticadas.

La propuesta francesa

Que los franceses crean que los problemas se solucionan regulando no es una novedad, la Neutralidad de la red parece no ser la excepción para esta tradición tan gala como Asterix. Recientemente un informe (Documento Informativo de la neutralidad de la Internet y redes) sobre la Neutralidad de la red para la Comisión de Asuntos Económicos del Parlamento francés presentado por Corinne Erhel y Laure de La Raudière, recomienda una serie de medidas para preservar el carácter abierto y neutral de Internet.

Los franceses nos presentan un pulcro y bien documentado Informe con el que se pude disentir en lo que a las políticas recomendadas, pero que constituye un revisión obligada sobre el estado del arte de la discusión de la Neutralidad de la red, con especial acento en la problemática europea y local. Absolutamente recomendable.

Se define a la neutralidad de Internet como la necesidad de ausencia de discriminación en el enrutamiento de los flujos de tráfico por Internet. El debate sobre la neutralidad, con especial atención a sus aspectos técnicos y económicos, evidencia que existe el riesgo de que los operadores de telecomunicaciones estén desarrollando prácticas no neutrales. El estado actual de la legislación no parece ser capaz de responder a este problema.

De acuerdo con el documento el debate sobre neutralidad de la red, se clarifica cuando se representa como el resultado de la superposición de tres elementos: técnico, económico y jurídico.

En lo que corresponde al debate técnico, éste tiene que ver con la forma en la que fue diseñado Internet, para funcionar de manera diferente de las redes telefónicas tradicionales: se basa en el principio de “enrutamiento de paquetes” en lugar de “conmutación de circuitos”, que los hace más flexible y, a priori, menos fiable.

A esta dimensión técnica se añade una económica, de la fusión de la arquitectura de red con la teoría de los llamados mercados de dos caras, donde los intervinientes pueden remunerarse sobre dos categorías de actores que se ponen en contacto, donde una de las caras “subvenciona” a la otra.

Finalmente, tenemos a las cuestiones relacionadas con la libertad de expresión en Internet: las acciones de bloqueo y filtrado legales. Esta última dimensión del debate es esencialmente europea, y es, de alguna manera, consecuencia del debate sobre la neutralidad que se llevó a cabo con ocasión de la Ley HADOPI, y el respeto a la libertad de comunicación por aplicación de medidas administrativas para bloquear contenido de Internet, como parte de la recientemente aprobada Ley LOPSSI.

Para defender la Neutralidad de la red se propone, como primera prioridad, proteger el Internet de forma explícita en el ámbito de la regulación de las comunicaciones electrónicas.

Debate servido: Google, Verizon y Web 3.0

Ignoro si los chicos de Google hagan el mal, creo particularmente que no, pero lo cierto es que nunca aburren. Ayer Google y Verizon presentaron al alimón una propuesta (aquí) para mantener la neutralidad de Internet, en la que se muestran en principio opuestos a cualquier tipo de bloqueo o discriminación de contenidos legales en Internet. Con esta iniciativa Google y Verizon pretenden impulsar un diálogo para la implantación definitiva de la legislación sobre la Neutralidad de la Red (Net Neutrality) en los Estados Unidos, en un momento en el que el fuego del caso Comcast todavía no se ha extinguido (El ruido y la furia del caso Comcast (1) y (2)).

Este anuncio conjunto aparece sólo unos días después de que ambas empresas desmintieran un supuesto acuerdo por el que Verizon se comprometía a priorizar los contenidos de Google en sus redes de telecomunicaciones (aquí 1 y 2).

Uno de los aspectos más polémicos de la propuesta es el de reconocer la excepcionalidad, por su intrínseca naturaleza competitiva e innovadora, de la banda ancha inalámbrica. Es así, que echando mano a estas características proponen que la regulación de la Neutralidad de la Red no se extienda inicialmente a la banda ancha inalámbrica.

Las reacciones la propuesta de Google y Verizon no se han hecho esperar. Internet brama, bulle, se escandaliza y en este contexto el New York Times ha abierto rápidamente en su sección de debates un tópico sobre el tema: ¿Quién tiene prioridad en la Web? Los participantes son de lujo, como veremos a continuación.

Tim Wu, profesor de Columbia Law School: «Controlando el comercio y la opinión»

Internet y las comunicaciones están en la misma categoría que la energía, el transporte y las finanzas, porque son el alma del comercio y de la expresión de esta nación. Verizon o Google ubicadas encima de la web, pueden influir sobre qué empresas tendrán éxito o fracasarán, haciendo que los sitios se carguen más rápido, más lentamente o terminen en la página 10 del ranking de resultados.

El mayor peligro de una vía rápida es que cambia por completo la competencia en la red. Si hubiera habido una Internet de nivel 2 en 1995, probablemente, Barnes & Noble habría destruido a Amazon, Microsoft Search habría golpeado a Google y Skype no habría sino empezado. Todos seríamos perdedores.

Lawrence Lessig, profesor de Harvard Law School y director de la Fundación Centro Edmond J. Safra para la Ética: «Otra debacle desregulatoria».

El éxito económico de Internet proviene de su arquitectura. La arquitectura y las fuerzas competitivas que lo aseguran, es lo único interesante en juego en esta batalla por la Neutralidad de la Red. Sin embargo, los asesores económicos de más alto rango en la Casa Blanca no parecen saber lo que eso significa.

Los políticos, utilizan un marco económico establecido en la década de 1980, convencidos de su verdad y demasiado arrogantes para reconocer incluso su ignorancia, permitirán a los propietarios de los “tubos” destruir Internet.

David Gelernter, professor de Yale University: Llámalo «Irracionalidad de la Red».

La neutralidad es una política. A menudo es una mala política. “Neutralidad fiscal”, por ejemplo, es gravar cada dólar de ingresos de la misma forma; la “Neutralidad de las Carreteras”: todos los vehículos deben pagar el mismo peaje. El punto fuerte de la Neutralidad de la Red es su nombre.”Neutralidad” suena como el estilo americano. Sin embargo, “red irracional” sería un nombre más preciso para esta idea mal concebida.

Supongamos que una compañía aérea quiere comprar espacio adicional en el aeropuerto local para hacer su check-in más rápido. ¿Debemos decir, “lo siento, pero la neutralidad del aeropuerto exige que American Airlines y Southwest Peoria Air tengan exactamente la misma cantidad de espacio en LaGuardia”?

Edward W. Felten, profesor de la Universidad de Princeton: «”Neutralidad” es difícil de definir».

La cuestión no es si queremos mantener esta Internet neutral abierta, es si a partir de la elaboración de normas el Gobierno nos puede asegurar el resultado que queremos. “Neutralidad” es fácil de imaginar, pero difícil de definir. Los operadores de redes necesitan un margen razonable para gestionar sus redes. No queremos entorpecer sus complejas prácticas de gestión de red neutrales, pero tampoco permitir la discriminación o hacer posible una discriminación sutil envuelta en la jerga de la red.

Jim Harper, director de estudios de política de información del Cato Institute: «Un cautivo de la Industria».

La Comisión Federal de Comunicaciones (Federal Communications Commission – FCC) ha socavado el desarrollo y la inversión mediante su propuesta para regular Internet como solía hacerse con la industria telefónica. En lugar de llevar a cabo la regulación planteada por la industria, la FCC simplemente debería desaparecer. No debe participar en la regulación de Internet, incluso si la industria lo quiere.

Jonathan Zittrain, profesor de Harvard Law School: «Una red impenetrable de peajes».

Esta cuestión se plantea en medio de una economía muy confusa para el movimiento de bits a través de Internet. Con los teléfonos la norma era sencilla: el remitente paga. En Internet es más complicado: tanto emisor y receptor pagan a sus respectivos ISPs.

Google sería capaz de lograr un acuerdo con Verizon para tener un acceso más veloz, dejando a los proveedores de contenidos menos afortunados detrás. Cuando cada ISP puede hablar en nombre de sus suscriptores sin saberlo, en calidad de cobrador de peaje bajo el puente ofreciendo diferentes condiciones de acceso, la economía de la red estará a favor de la consolidación, de los influyentes y adinerados.

En un medio en el que muchos de los gigantes eran advenedizos ayer – eBay, Google, incluso la propia web – sería una parodia congelar la siguiente ronda de innovación por el despliegue de una red impenetrable de contratos y tarifas.

Marvin Ammori, profesor de la Universidad de Nebraska-Lincoln: «Regular al Rockefeller de hoy».

El gobierno puede y debe hacer cumplir la neutralidad de la red. La competencia y el debate democrático en el siglo 21 dependerán de la no discriminación, al igual que la evolución a la web 3.0 ó 4.0.

Las compañías de teléfono y de cable, ahora unidas a Google, están gastando millones para convertir a Internet en un servicio de todo pago. Internet es la infraestructura básica del comercio y las comunicaciones. La discriminación en Internet minará la innovación. Podemos hablar de estas versiones “nuevas” de la web (web 2.0 y 3.0) sólo porque Internet evoluciona rápidamente. No lo hace porque le de prioridad a las compañías telefónicas o de cable, sino más bien porque los usuarios determinan la mejor manera de utilizar Internet.

El ruido y la furia del caso Comcast (2)

En agosto de 2008, la Comisión hizo público su Memorandum Opinion and Order (.pdf) en el caso Comcast. La cuestión era si el bloqueo del tráfico peer-to-peer (p2p) constituía una práctica razonable de gestión de red por parte de Comcast. Si bien la FCC contaba con las reglas de la Net Neutrality enunciadas a manera de principios, no eran parte de ninguna regulación de fuente legal. En este caso, la Comisión afrontó el problema de bajo qué norma analizar y sancionar la conducta de Comcast. La decisión final fue ordenar a Comcast detener dicha práctica y ordenarle transparentar sus medidas de gestión de red, sin sancionarla. Contó con tres votos a favor, incluyendo el del presidente Kevin Martin, y dos en contra (3-2).

Los argumentos de la FCC

Como habíamos señalado, la provisión de acceso a Internet de banda ancha por parte de las empresas de cable no era considerada un servicio de telecomunicaciones y no estaba sujeto a reglas de no discriminación. La FCC intentó demostrar que es una prerrogativa de la agencia regulatoria la jurisdicción sobre temas no tratados expresamente en la regulación, pero comprendidos en ella en sentido lato (ancilliary jurisdiction). Para ello, expuso una serie de argumentos de derecho sobre la base de distintas secciones de la Telecommunications Act que en algún sentido lo autorizaban a supervisar cierta idoneidad y competitividad en el mercado de servicios de información.

En los hechos, la Comisión consideró adecuadamente probado a través de una serie de actuaciones presentadas por las asociaciones Free Press y Public Knowledge que Comcast enviaba reset packets –una práctica conocida como RST Injection– con la finalidad de interrumpir y terminar la conexión TCP establecida por los programas que conectados a redes p2p. Se demostró, además, que esta medida era insensible a la cantidad de ancho de banda que un usuario ocupaba o la proporción de este que ocupaba respecto de sus pares en la red local. Por ello, consideró probado que Comcast venía discriminando el tráfico p2p de sus usuarios y ello contravenía una de las Cuatro Libertades de Internet.

Sin embargo, la FCC admitió que podría estar equivocada al intentar sancionar a Comcast por discriminar el tráfico. Señaló que la existencia de una regulación explícita podría detener la innovación y por eso aplica una regla a un caso concreto (adjudication), creando un criterio decisorio que posteriormente podría revisar o terminar exigiendo legislativamente (como sucedió con el caso Carterphone). Explícitamente dijo que “las prácticas de gestión de red de los distintos ISPs llegan a ser tan distintas y especializadas en su naturaleza que resultaría imposible enmarcarlas en una regla general” (p. 19). La Comisión creía que no estaba abusando de su autoridad regulatoria, en tanto su adjudication no era del todo inesperada (si existían las Cuatro Libertades) y no estaba en contra de “la buena fe del mercado”.

De acuerdo con la FCC, no existió proporcionalidad entre las medidas tomadas por Comcast y el problema que intenta resolver: la congestión de tráfico. Así, pudo resultar afectando a usuarios que usen poco ancho de banda pero lo hagan a través de aplicaciones “desfavorecidas”, no se aplicó solamente durante los momentos del día en que hay mayor riesgo de congestión sino todo el tiempo, y no estuvo dirigida exclusivamente contra las áreas en los que existirían nodos congestionados sino al total de su planta de abonados. Para la Comisión existían soluciones más proporcionales al problema: (i) medir a los súper usuarios y cargarles un extra por el uso excesivo del ancho de banda, (ii) estrangular el ancho de banda solo de los súper usuarios, y no de la totalidad de la planta, (iii) trabajar soluciones conjuntas con los desarrolladores de las aplicaciones (ej. redes P4P). Aunque no la FCC no las patrocina expresamente, reconoce que son largamente más adecuadas a los propósitos que alega tener Comcast. Eso sí, la FCC reconoció que los ISPs tienen derecho de bloquear todo contenido ilegal (pornografía infantil, que viole derechos de autor) pero eligiendo soluciones neutrales que no alcancen a afectar tráfico legalmente cursado.

La Comisión señaló que el daño a la competencia perpetuado por las prácticas de Comcast radica en no haber transparentado sus criterios de gestión de red a sus usuarios, quienes podían pensar que las fallas en su servicio se debían a una falla de la propia aplicación y así afectar su mercado. Para la FCC, los términos de las Condiciones del Servicio que señalaban que el servicio estaba sujeto a “limitaciones de velocidad” eran demasiado vagos para el consumidor.

Como Remedio, la FCC ordenó a Comcast: (1) entregar a la Comisión toda la información referente a las prácticas de gestión de red investigadas, incluyendo los equipos que uso, cuándo y bajó que circunstancias fueron llevadas a cabo, los protocolos afectados y las zonas donde fueron implementadas; (2) enviar a la Comisión un plan de cumplimiento con puntos de referencia provisionales que describan cómo se pretende hacer la transición de las prácticas discriminatorias hacia las no discriminatorias; y (3) entregar a la Comisión y al público los detalles sobre sus prácticas de gestión de red futuras, incluyendo cualquier limitación de la forma en que sus usuarios acceden al servicio.

Reacciones

La decisión de la Comisión tuvo una respuesta mixta en los medios especializados. La EFF, aunque a favor de la Net Neutrality, vio con preocupación que la FCC pueda ampararse en la anciliary jurisdiction para imponer casi cualquier regla (como las de decencia en los contenidos). Por su parte, Wired señaló que la decisión de la FCC era una invitación abierta a filtrar Internet, al reconocer la posibilidad de que los ISPs actúen como policías y puedan filtrar cualquier tráfico considerado ilegal. Muchas empresas de telecomunicaciones, según reportó el New York Times, se mostraron de acuerdo con el fondo de la decisión pero también cuestionaron que esta regla venga a través de una decisión de la FCC y no de una ley del Congreso. Comcast, por su parte, señaló que apelaría la decisión ante la Corte de Apelaciones y, finalmente, lograría que se revoque. La historia de cómo una Corte de Apelaciones terminó diciéndole a la FCC que no tenía autoridad para exigir reglas de neutralidad de red a Comcast será el tema de la siguiente entrada de esta serie.

Foto: Alistair (CC BY-NC)

Que el portero marque tarjeta: Google Neutrality

Este 14 de julio el New York Times editorializó (The Google Algorithm) sobre la revolucionaria idea de regular a Google. De acuerdo con la tesis del Times, Google controla las dos terceras partes de las búsquedas en Internet y genera la mitad del tráfico en la mayoría de los sitios web. Así, una modificación de su algoritmo podría poner a un sitio web en posiciones poco destacadas del ranking de resultados (PageRank) lo cual significaría su perdición. Esta idea se torna creíble desde que Google decidió diversificar sus actividades a una serie de servicios en línea (Google Maps, YouTube, GMail y un largo etc.) con lo cual podría diseñar un algoritmo que favorezca sus propios negocios en perjuicio de los sitios de sus rivales. La solución a este problema: una agencia estatal que supervise al portero de Internet.

Esta idea constituiría un principio de nuevo cuño que se ha venido a llamar la Neutralidad de búsqueda o Search Neutrality, primo hermano de lo que hasta el hartazgo se conoce como Neutralidad de la red o Net Neutrality. Existen antecedentes. En febrero de este año FoundemCiao!, dos sitios de comparación de precios y E.justice, un buscador de recursos legales francés, denunciaron a Google ante la Comisión Europea por prácticas contrarias a la Libre Competencia. En todos estos casos la queja fue la misma, Google “fondea” las páginas de sus rivales en los ranking de resultados y privilegia sus actividades. Como era de esperar, la Comisión, más rápido que volando, inició la investigación (Telegraph: Google under investigation for alleged breach of EU competition rules y The New York Times: Sure, It’s Big. But Is That Bad?). Sobre este tema recomiendo la entrada de Mario Zúñiga en Enfoque Derecho (¿Tiene el buscador de Internet la obligación de implementar sistemas de búsqueda “neutrales”?).

La respuesta de Google al Editorial del Times fue inmediata y es una oda contra la neutralidad de las búsquedas en Internet (Our op-ed: Regulating what is “best” in search?). Curioso y paradójico pienso, que quien exige la neutralidad de la red no esté dispuesto a soportar los mismos principios cuando éstos le pegan directamente. Algo así como la paja en el ojo ajeno. Google cree que existen muchos motores de búsqueda y que los usuarios son libres de decidir y usar el algoritmo del motor de búsqueda que responda mejor a sus requerimientos de información. Entonces el concepto de Neutralidad de búsqueda constituye una amenaza a la competencia y, fundamentalmente, a la capacidad de innovar sobre la mejor forma de buscar la información.

Sobre el editorial del Times me han parecido particularmente interesantes, el titular de una entrada de Denken Über (El gobierno debería regular al New York Times) y el artículo que lo inspira, de Danny Sullivan (The New York Times Algorithm & Why It Needs Government Regulation). Con ironía, Sullivan utiliza el mismo análisis del Times para concluir sobre la necesidad de regularlo. El Times es el diario más influyente entre los líderes de opinión, de tal suerte que cuando ajusta hacia abajo los niveles de cobertura de determinada organización puede llegar incluso a quebrarla. El New York Times ha ramificado sus inversiones hacia diversos sectores y tiene por tanto incentivos para perjudicar a sus rivales. Entonces, para Sullivan, sólo una comisión gubernamental sería ser la mejor opción para limpiar al Times de cualquier sospecha.

Pero Sullivan nos recuerda otro aspecto interesante, los tribunales americanos ya se han pronunciado respecto de los resultados de las búsquedas de Google. En el caso seguido por KinderStart contra Google (C 06-2057 JF (N.D. Cal. March 16, 2007)) el Juez entendió que el ranking de Google es una opinión generada algorítmicamente y por este hecho arbitraria, por lo tanto no puede hablarse de un mal ranking. Incluso, Google podría optar por asignar PageRanks al azar, lo cual, según la interpretación del Juez no sería incorrecto .

Google realiza millones de búsquedas al día y una multitud de empresas sobreviven a sus resultados sin mayor problema. En la actualidad, no es acertado hablar de Google como el único portero de Internet, dado que empiezan a aparecer otros cancerberos que le quitan valor a esta afirmación. Ahí están Facebook y Twitter para demostrarlo.

El clamor del Times se enmarca dentro de un intento por crear una regulación extensiva, amplia y pulposa de la neutralidad. Limitada en un principio a las infraestructuras de telecomunicaciones (Net Neutrality y Wireless Net Neutrality) la neutralidad se cierne omnipresente para las demás capas de la Internet. Ahora nos encontramos con requerimientos de neutralidad en las búsquedas (Search Neutrality), neutralidad de los dispositivos (Device Neutrality), neutralidad de las aplicaciones (Application Neutrality) y así, se la empezará a invocar para las redes sociales, correo electrónico, mensajería instantánea, publicidad en línea, etc.  (The Day Real Internet Freedom Died: Our Forbes Op-Ed on Net Neutrality Regulation)

Imaginémonos por un momento que la descabellada propuesta del Times prospera. Primero —harto complicado-, habrá que decidir quien será el regulador: ¿Una agencia del gobierno de los Estados Unidos? ¿La Comisión Europea? ¿OSIPTEL? Podríamos llegar al absurdo de tener tantas regulaciones -y algoritmos- como lugares donde se puede consultar Google. Un pandemonio en toda regla. Supongamos que, luego de decidir al regulador, Google cree conveniente hacer una pequeña modificación de su algoritmo y comunica esta decisión al OSALG (Organismo Supervisor del ALgoritmo de Google) para que la apruebe. El OSALG, como no podía ser de otra forma que para eso está, rechaza la modificación por que no es lo suficientemente transparente y dado que, a su juicio, Google no ha demostrado que la modificación del algoritmo es mejor que la versión existente. Google tiene dos caminos, o se va a pelear a los tribunales —que resolverán luego de tres años- o sigue discutiendo con el OSALG. Decide hacer lo segundo y luego de ocho meses —con informes de consultoras y estudios de abogados de por medio- el OLSAG aprueba la modificación del algoritmo de Google.

Cuando Google haya perdido gran parte de su cuota de mercado, no creo necesario aclarar por qué, aparecerán los del OLSAG en los medios para sostener el modelo: la caida de cuota se debe a su intervención y a sus estrictas políticas procompetitivas.

Después, seguro que se dice que la neutralidad no afecta la innovación.

Algunas neutralidades en Blawyer

Application Neutrality

- 1984, veinticinco años después

- Cien años después, Apple censura el Ulises

- Cómo detener el futuro de Internet

- Nubes negras sobre el Internet generativo

Device Neutrality

- Diferencias entre el Carterphone y el iPhone Jailbreaking

- iPhone Jailbreaking

- Nokia y las telcos, enemigos íntimos

Net Neutrality

- El ruido y la furia del caso Comcast (1)

- ¿Es Internet como una carretera?

Wireless Net Neutrality

- ¿Qué hay detrás del iPhone 3G de Claro?