El ruido y la furia del caso Comcast (2)

En agosto de 2008, la Comisión hizo público su Memorandum Opinion and Order (.pdf) en el caso Comcast. La cuestión era si el bloqueo del tráfico peer-to-peer (p2p) constituía una práctica razonable de gestión de red por parte de Comcast. Si bien la FCC contaba con las reglas de la Net Neutrality enunciadas a manera de principios, no eran parte de ninguna regulación de fuente legal. En este caso, la Comisión afrontó el problema de bajo qué norma analizar y sancionar la conducta de Comcast. La decisión final fue ordenar a Comcast detener dicha práctica y ordenarle transparentar sus medidas de gestión de red, sin sancionarla. Contó con tres votos a favor, incluyendo el del presidente Kevin Martin, y dos en contra (3-2).

Los argumentos de la FCC

Como habíamos señalado, la provisión de acceso a Internet de banda ancha por parte de las empresas de cable no era considerada un servicio de telecomunicaciones y no estaba sujeto a reglas de no discriminación. La FCC intentó demostrar que es una prerrogativa de la agencia regulatoria la jurisdicción sobre temas no tratados expresamente en la regulación, pero comprendidos en ella en sentido lato (ancilliary jurisdiction). Para ello, expuso una serie de argumentos de derecho sobre la base de distintas secciones de la Telecommunications Act que en algún sentido lo autorizaban a supervisar cierta idoneidad y competitividad en el mercado de servicios de información.

En los hechos, la Comisión consideró adecuadamente probado a través de una serie de actuaciones presentadas por las asociaciones Free Press y Public Knowledge que Comcast enviaba reset packets –una práctica conocida como RST Injection— con la finalidad de interrumpir y terminar la conexión TCP establecida por los programas que conectados a redes p2p. Se demostró, además, que esta medida era insensible a la cantidad de ancho de banda que un usuario ocupaba o la proporción de este que ocupaba respecto de sus pares en la red local. Por ello, consideró probado que Comcast venía discriminando el tráfico p2p de sus usuarios y ello contravenía una de las Cuatro Libertades de Internet.

Sin embargo, la FCC admitió que podría estar equivocada al intentar sancionar a Comcast por discriminar el tráfico. Señaló que la existencia de una regulación explícita podría detener la innovación y por eso aplica una regla a un caso concreto (adjudication), creando un criterio decisorio que posteriormente podría revisar o terminar exigiendo legislativamente (como sucedió con el caso Carterphone). Explícitamente dijo que “las prácticas de gestión de red de los distintos ISPs llegan a ser tan distintas y especializadas en su naturaleza que resultaría imposible enmarcarlas en una regla general” (p. 19). La Comisión creía que no estaba abusando de su autoridad regulatoria, en tanto su adjudication no era del todo inesperada (si existían las Cuatro Libertades) y no estaba en contra de “la buena fe del mercado”.

De acuerdo con la FCC, no existió proporcionalidad entre las medidas tomadas por Comcast y el problema que intenta resolver: la congestión de tráfico. Así, pudo resultar afectando a usuarios que usen poco ancho de banda pero lo hagan a través de aplicaciones “desfavorecidas”, no se aplicó solamente durante los momentos del día en que hay mayor riesgo de congestión sino todo el tiempo, y no estuvo dirigida exclusivamente contra las áreas en los que existirían nodos congestionados sino al total de su planta de abonados. Para la Comisión existían soluciones más proporcionales al problema: (i) medir a los súper usuarios y cargarles un extra por el uso excesivo del ancho de banda, (ii) estrangular el ancho de banda solo de los súper usuarios, y no de la totalidad de la planta, (iii) trabajar soluciones conjuntas con los desarrolladores de las aplicaciones (ej. redes P4P). Aunque no la FCC no las patrocina expresamente, reconoce que son largamente más adecuadas a los propósitos que alega tener Comcast. Eso sí, la FCC reconoció que los ISPs tienen derecho de bloquear todo contenido ilegal (pornografía infantil, que viole derechos de autor) pero eligiendo soluciones neutrales que no alcancen a afectar tráfico legalmente cursado.

La Comisión señaló que el daño a la competencia perpetuado por las prácticas de Comcast radica en no haber transparentado sus criterios de gestión de red a sus usuarios, quienes podían pensar que las fallas en su servicio se debían a una falla de la propia aplicación y así afectar su mercado. Para la FCC, los términos de las Condiciones del Servicio que señalaban que el servicio estaba sujeto a “limitaciones de velocidad” eran demasiado vagos para el consumidor.

Como Remedio, la FCC ordenó a Comcast: (1) entregar a la Comisión toda la información referente a las prácticas de gestión de red investigadas, incluyendo los equipos que uso, cuándo y bajó que circunstancias fueron llevadas a cabo, los protocolos afectados y las zonas donde fueron implementadas; (2) enviar a la Comisión un plan de cumplimiento con puntos de referencia provisionales que describan cómo se pretende hacer la transición de las prácticas discriminatorias hacia las no discriminatorias; y (3) entregar a la Comisión y al público los detalles sobre sus prácticas de gestión de red futuras, incluyendo cualquier limitación de la forma en que sus usuarios acceden al servicio.

Reacciones

La decisión de la Comisión tuvo una respuesta mixta en los medios especializados. La EFF, aunque a favor de la Net Neutrality, vio con preocupación que la FCC pueda ampararse en la anciliary jurisdiction para imponer casi cualquier regla (como las de decencia en los contenidos). Por su parte, Wired señaló que la decisión de la FCC era una invitación abierta a filtrar Internet, al reconocer la posibilidad de que los ISPs actúen como policías y puedan filtrar cualquier tráfico considerado ilegal. Muchas empresas de telecomunicaciones, según reportó el New York Times, se mostraron de acuerdo con el fondo de la decisión pero también cuestionaron que esta regla venga a través de una decisión de la FCC y no de una ley del Congreso. Comcast, por su parte, señaló que apelaría la decisión ante la Corte de Apelaciones y, finalmente, lograría que se revoque. La historia de cómo una Corte de Apelaciones terminó diciéndole a la FCC que no tenía autoridad para exigir reglas de neutralidad de red a Comcast será el tema de la siguiente entrada de esta serie.

Foto: Alistair (CC BY-NC)

Que el portero marque tarjeta: Google Neutrality

Este 14 de julio el New York Times editorializó (The Google Algorithm) sobre la revolucionaria idea de regular a Google. De acuerdo con la tesis del Times, Google controla las dos terceras partes de las búsquedas en Internet y genera la mitad del tráfico en la mayoría de los sitios web. Así, una modificación de su algoritmo podría poner a un sitio web en posiciones poco destacadas del ranking de resultados (PageRank) lo cual significaría su perdición. Esta idea se torna creíble desde que Google decidió diversificar sus actividades a una serie de servicios en línea (Google Maps, YouTube, GMail y un largo etc.) con lo cual podría diseñar un algoritmo que favorezca sus propios negocios en perjuicio de los sitios de sus rivales. La solución a este problema: una agencia estatal que supervise al portero de Internet.

Esta idea constituiría un principio de nuevo cuño que se ha venido a llamar la Neutralidad de búsqueda o Search Neutrality, primo hermano de lo que hasta el hartazgo se conoce como Neutralidad de la red o Net Neutrality. Existen antecedentes. En febrero de este año FoundemCiao!, dos sitios de comparación de precios y E.justice, un buscador de recursos legales francés, denunciaron a Google ante la Comisión Europea por prácticas contrarias a la Libre Competencia. En todos estos casos la queja fue la misma, Google «fondea» las páginas de sus rivales en los ranking de resultados y privilegia sus actividades. Como era de esperar, la Comisión, más rápido que volando, inició la investigación (Telegraph: Google under investigation for alleged breach of EU competition rules y The New York Times: Sure, It’s Big. But Is That Bad?). Sobre este tema recomiendo la entrada de Mario Zúñiga en Enfoque Derecho (¿Tiene el buscador de Internet la obligación de implementar sistemas de búsqueda “neutrales”?).

La respuesta de Google al Editorial del Times fue inmediata y es una oda contra la neutralidad de las búsquedas en Internet (Our op-ed: Regulating what is “best” in search?). Curioso y paradójico pienso, que quien exige la neutralidad de la red no esté dispuesto a soportar los mismos principios cuando éstos le pegan directamente. Algo así como la paja en el ojo ajeno. Google cree que existen muchos motores de búsqueda y que los usuarios son libres de decidir y usar el algoritmo del motor de búsqueda que responda mejor a sus requerimientos de información. Entonces el concepto de Neutralidad de búsqueda constituye una amenaza a la competencia y, fundamentalmente, a la capacidad de innovar sobre la mejor forma de buscar la información.

Sobre el editorial del Times me han parecido particularmente interesantes, el titular de una entrada de Denken Über (El gobierno debería regular al New York Times) y el artículo que lo inspira, de Danny Sullivan (The New York Times Algorithm & Why It Needs Government Regulation). Con ironía, Sullivan utiliza el mismo análisis del Times para concluir sobre la necesidad de regularlo. El Times es el diario más influyente entre los líderes de opinión, de tal suerte que cuando ajusta hacia abajo los niveles de cobertura de determinada organización puede llegar incluso a quebrarla. El New York Times ha ramificado sus inversiones hacia diversos sectores y tiene por tanto incentivos para perjudicar a sus rivales. Entonces, para Sullivan, sólo una comisión gubernamental sería ser la mejor opción para limpiar al Times de cualquier sospecha.

Pero Sullivan nos recuerda otro aspecto interesante, los tribunales americanos ya se han pronunciado respecto de los resultados de las búsquedas de Google. En el caso seguido por KinderStart contra Google (C 06-2057 JF (N.D. Cal. March 16, 2007)) el Juez entendió que el ranking de Google es una opinión generada algorítmicamente y por este hecho arbitraria, por lo tanto no puede hablarse de un mal ranking. Incluso, Google podría optar por asignar PageRanks al azar, lo cual, según la interpretación del Juez no sería incorrecto .

Google realiza millones de búsquedas al día y una multitud de empresas sobreviven a sus resultados sin mayor problema. En la actualidad, no es acertado hablar de Google como el único portero de Internet, dado que empiezan a aparecer otros cancerberos que le quitan valor a esta afirmación. Ahí están Facebook y Twitter para demostrarlo.

El clamor del Times se enmarca dentro de un intento por crear una regulación extensiva, amplia y pulposa de la neutralidad. Limitada en un principio a las infraestructuras de telecomunicaciones (Net Neutrality y Wireless Net Neutrality) la neutralidad se cierne omnipresente para las demás capas de la Internet. Ahora nos encontramos con requerimientos de neutralidad en las búsquedas (Search Neutrality), neutralidad de los dispositivos (Device Neutrality), neutralidad de las aplicaciones (Application Neutrality) y así, se la empezará a invocar para las redes sociales, correo electrónico, mensajería instantánea, publicidad en línea, etc.  (The Day Real Internet Freedom Died: Our Forbes Op-Ed on Net Neutrality Regulation)

Imaginémonos por un momento que la descabellada propuesta del Times prospera. Primero —harto complicado-, habrá que decidir quien será el regulador: ¿Una agencia del gobierno de los Estados Unidos? ¿La Comisión Europea? ¿OSIPTEL? Podríamos llegar al absurdo de tener tantas regulaciones -y algoritmos- como lugares donde se puede consultar Google. Un pandemonio en toda regla. Supongamos que, luego de decidir al regulador, Google cree conveniente hacer una pequeña modificación de su algoritmo y comunica esta decisión al OSALG (Organismo Supervisor del ALgoritmo de Google) para que la apruebe. El OSALG, como no podía ser de otra forma que para eso está, rechaza la modificación por que no es lo suficientemente transparente y dado que, a su juicio, Google no ha demostrado que la modificación del algoritmo es mejor que la versión existente. Google tiene dos caminos, o se va a pelear a los tribunales —que resolverán luego de tres años- o sigue discutiendo con el OSALG. Decide hacer lo segundo y luego de ocho meses —con informes de consultoras y estudios de abogados de por medio- el OLSAG aprueba la modificación del algoritmo de Google.

Cuando Google haya perdido gran parte de su cuota de mercado, no creo necesario aclarar por qué, aparecerán los del OLSAG en los medios para sostener el modelo: la caida de cuota se debe a su intervención y a sus estrictas políticas procompetitivas.

Después, seguro que se dice que la neutralidad no afecta la innovación.

Algunas neutralidades en Blawyer

Application Neutrality

1984, veinticinco años después

Cien años después, Apple censura el Ulises

– Cómo detener el futuro de Internet

Nubes negras sobre el Internet generativo

Device Neutrality

– Diferencias entre el Carterphone y el iPhone Jailbreaking

– iPhone Jailbreaking

– Nokia y las telcos, enemigos íntimos

Net Neutrality

El ruido y la furia del caso Comcast (1)

¿Es Internet como una carretera?

Wireless Net Neutrality

¿Qué hay detrás del iPhone 3G de Claro?

El ruido y la furia del caso Comcast (1)

El debate sobre la Neutralidad de Red en Estados Unidos está más activo que nunca. Jules Genachowski, presidente de la FCC, ha asumido como un reto personal lograr que el regulador de las telecomunicaciones estadounidense pueda tratar a los proveedores de acceso de banda ancha bajo el régimen de common carriers en lo que él llama la lucha por preservar una Internet libre y abierta. Luego de que en abril una Corte de Apelaciones rechazara la jurisdicción de la Comisión sobre los proveedores de acceso de banda ancha en el caso Comcast, ahora la FCC pretende conseguir que el Congreso se lo autorice a través de una ley federal.

El resultado de este debate probablemente marque la pauta para el futuro del controvertido principio de Neutralidad de Red y el desarrollo del mercado de Internet en Estados Unidos. Esta es la primera entrega de una serie de entradas en las que leeré y analizaré los distintos elementos esta controversia. Si bien es un caso sobre derecho de la telecomunicaciones en Estados Unidos, la importancia de los temas que puede alcanzar tarde o temprano otras jurisdicciones.

El marco regulatorio de los proveedores de acceso de banda ancha

La provisión de acceso de banda ancha en Estados Unidos no está afecta al régimen de las public utilities (similar a nuesto régimen de servicio público). La intensidad de la regulación a la que está sujeta esta actividad, por ende, es considerablemente menor en comparación con la aplicable a las empresas de telefonía fija, por ejemplo. Las empresas que prestan servicios públicos de telecomunicaciones (common carrier) están bajo la supervisión directa de la FCC, tienen la obligación de cobrar tarifas razonables, están prohibidas de otorgar un acceso preferente y tienen una carga tributaria distinta.

El acceso a Internet a través de las redes telefónicas, incluyendo el acceso DSL, fue considerado desde el inicio como un servicio público de telecomunicaciones. En agosto de 2005, la FCC reclasificó a este tipo de servicio como servicios de información y los liberó de las obligaciones de los common carrier, pasando a estar regulados por el Título I de la Telecommunicatons Act. A la vez, publicó los famosos cuatro principios de Neutralidad de Red que intentaban compensar el efecto del cambio de regulación fijando ciertas limitaciones. Estos principios, sin embargo, eran una mera declaración de la FCC y no establecían obligaciones regulatorias exigibles administrativa o judicialmente. Cabe señalar que, desde entonces, la esencia de estos principios se ha volcado en distintos proyectos de ley federales que no han llegado a ser aprobadas por el Congreso.

Por otro lado, la provisión del servicio de acceso de banda ancha por parte de las empresas de cable siempre ha sido considerada como un servicio de información y no un servicio público de telecomunicaciones. Así lo estableció la Corte Suprema en el caso National Cable & Telecommunications Association v. Brand X Internet Services (2005). El desarrollo reciente del mercado en Estados Unidos ha hecho que sean estas empresas los mayores proveedores de Internet en el país y que, por lo señalado, no se encuentren sujetas a las regulaciones de un common carrier y fuera del ámbito de supervisión de la FCC.

Lo que pasó con Comcast

Comcast es el mayor proveedor de televisión por cable y acceso de banda ancha en Estados Unidos. Además, también participa del negocio del broadcasting como accionista mayoritario de la cadena NBC Universal. En el año 2007, Comcast fue denunciada ante la FCC por dos organizaciones de la sociedad civil por bloquear el tráfico peer-to-peer e impedir que sus usuarios utilicen las aplicaciones que se soportan en estas redes (como BitTorrent o Ares). La empresa inicialmente negó estas acusaciones y luego reconoció que solo estaba bloqueando dicho tráfico como una medida para descongestionar el flujo de datos en las redes en aquellos lugares donde el abuso de estas aplicaciones afectaba la calidad del servicio. Tras una serie de pruebas ofrecidas por la FCC, Comcast terminó reconociendo que dichas prácticas no se realizaban solamente en los lugares donde había congestión. Debido a la controversia que esto provocó, la empresa prometió públicamente abandonar dicha práctica. De cualquier forma, en agosto de 2008, la FCC determinó que Comcast había violando la ley federal y sus Cuatro Principios, ordenándole demostrar que había abandonado dichas prácticas y, en el futuro, hacer transparente con sus usuarios sus políticas respecto del manejo del tráfico (.pdf). La empresa, sin embargo, no fue sancionada económicamente. Antonio Rodriguez Lobatón siguió de cerca esta decisión.

La Comisión desestimó la tesis de Comcast, que sostenía que dichas prácticas constituían una forma razonable de gestión de red y que su único interés era contrarrestar la congestión de red. A contrario, la Comisión determinó que las medidas tomadas no necesariamente servían a el propósito alegado y tenían consecuencias que consideró contrarias al marco regulatorio. Así, el bloqueo del tráfico peer-to-peer: (1) afectaba a aquellos usuarios que usaban poco ancho de banda por el solo hecho de usar una aplicación desfavorecida, (2) no solo se usaba durante los períodos de congestión de red, (3) no se aplicaba únicamente en los lugares en los que se daba la congestión, y, (4) un usuario podría ser el causante de la congestión de red y no verse perjudicado si no usa una de las aplicaciones desfavorecidas.

La FCC dejó claro, sin embargo, que su intención era proteger el derecho de los consumidores a acceder a contenido legal (lawful content). En consecuencia, bloquear contenido ilegal como pornografía infantil o descargas ilegales de música sí sería consistente con la legislación federal sobre Internet. El problema con Comcast era que su sistema no era capaz de discriminar el contenido legal del ilegal.

En la siguiente entrada de esta serie analizaremos en detalle los argumentos de la Comisión.

Foto: Steve Garfield (CC BY-NC-SA)

Video: Derechos de autor en la era digital

La semana pasada se llevó a cabo con éxito el Conversatorio sobre Tecnología y Derecho organizado por la Universidad del Pacífico. Oscar Montezuma de Blawyer.org tuvo a su cargo la ponencia sobre la regulación de los derechos de autor en Internet y su problemática.

[vsw id=»dpg6QddjDpQ» source=»youtube» width=»425″ height=»344″ autoplay=»no»]

[vsw id=»XDglMd8vQkI» source=»youtube» width=»425″ height=»344″ autoplay=»no»]

El eventó contó con las intervenciones de Maite Vizcarra sobre Neutralidad de la Red, donde postuló por qué cree que se trata de un debate que no está directamente relacionado con el estado del Internet en Perú, y Carlos Renzo sobre protección y manejo de datos personales desde la perspectiva de las empresas.

La conferencia completa fue grabada por un asistente y puede verse aquí.

Net neutrality a consulta pública

Coincidiendo con el caso Medison River Communications en el 2005, algunos intelectuales y proveedores de contenidos en Internet lanzaron la idea de aprobar legislativamente el principio conocido como neutralidad de la red o Net neutrality. Desde aquel momento, openistas y regulacionistas han venido afilando el hacha y se han enfrentando regularmente, ya sea para negar o estimular la validez de esta pretensión.

Y así andaban, como Massé y Sifuentes en Radio Capital (Massé y Sifuentes a porrazos), hasta que el hoy presidente Barack Obama, rendido a los pies del ciberactivismo más radical, anunció durante la campaña electoral presidencial americana su firme compromiso con la Net neutrality. También prometió implementar, durante su primer año en funciones, el marco legislativo para asegurar su escrupuloso cumplimiento. De esta forma el movimiento pro neutralidad empezó a mover sus fichas.

httpv://www.youtube.com/watch?v=Vd8qY6myrrE

A finales del mes de junio Barack Obama nombró al defensor de la Net neutrality, Julius Genachowski, como presidente de la Federal Communications Commission (Comisión Federal de Comunicaciones – FCC), el regulador de las telecomunicaciones en los Estados Unidos (Cambios en la FCC). Una vez cumplido este trámite, lo único que cabía era esperar cuando se anunciarían las medidas legislativas en favor de la Net Neutrality.

Hace poco más de un mes, el pasado 21 de septiembre para ser exactos, el flamante presidente de la FCC pronunció un discurso ante The Brookings Institution, en el que desvelaba su programa para «preservar una Internet libre y abierta: una plataforma para la innovación, la oportunidad y la prosperidad». La propuesta de Genachowski significa en la práctica el incremento de la regulación y de las obligaciones que soportan los operadores de red de telecomunicaciones. Específicamente se pretende incorporar al marco regulatorio seis nuevas obligaciones para los operadores de red. Estas obligaciones parten del proceso de incorporar dos nuevas recomendaciones a las cuatro ya existentes sobre la neutralidad de red (New Principles Preserve and Promote the Open and Interconnected Nature of Public Internet), vigentes desde agosto de 2005, y de elevar todas a rango de ley. No nos olvidemos que estas recomendaciones, únicamente constituían principios informadores de las políticas de la FCC.

Las dos obligaciones adicionales serían: (5) Principio de no discriminación: Los proveedores de acceso no pueden discriminar contra contenidos o aplicaciones concretas, siempre que sean legales; y, (6) Principio de transparencia: los operadores de red deben informar de los mecanismos que utilicen para gestionar el tráfico en la red.

Siguiendo esta línea, el 22 de octubre, la FCC ha iniciado una consulta pública (Nota de prensa) sobre el proyecto de reglamento para complementar los principios de apertura existente en Internet (Propuesta de regulación). Pero como a toda acción le sigue una reacción, de acuerdo con la Tercera Ley de Newton, ya se están presentando en el congreso de los Estados Unidos diversas iniciativas para limitar el papel regulador de la FCC sobre Internet (McCain introduces bill to block Net neutrality).

En diciembre del año pasado Cord Blonquist en openmarket.org profetizaba que el 2009 vería el apaciguamiento de las posiciones de quienes defendían la Net nutrality (¿Habrá una ley pro Net Neutrality en USA?). Parece que acertó, no tendremos ley pro neutralidad de la red este año, pero es más que probable que se apruebe el año que viene. Creo que la principal virtud de quienes propusieron regular sobre la neutralidad de la red, ha sido traer al tapete aspectos tan importantes como la gestión del tráfico, el financiamiento de la red, la censura y la necesidad -o no- de mantener la arquitectura original de Internet. No mucho más.

Los regulacionistas no vociferan la necesidad de la Net neutrality para proteger a Internet de una epidemia moderna, lo hacen para evitar que determinadas organizaciones puedan imponer una serie de restricciones consideradas ilegítimas -o por lo menos cuestionables- en un futuro. Aclarando, no lo han hecho pero se presume que podrían hacerlo. Es decir, reconocen la maldad intrínseca de los operadores de red y por lo tanto es necesario reprimir su capacidad para dañar a Internet. No creo que nos encontremos ante un argumento plausible.

Todos los casos reportados como amenazas al Internet libre (Medison River Communications o Comcast), fueron solucionados por las instancias competentes sin necesidad de echar mano a ningún nuevo ordenamiento (Comcast incumplió las políticas de la FCC, pero no será multada). No parece pues necesario desplegar todo un cuerpo legislativo para componer algo que no está malogrado.

Desarrollaremos estas ideas en entradas posteriores.

[vsw id=»dF7rbOj-HPA» source=»youtube» width=»425″ height=»344″ autoplay=»no»]

Discruso de Julius Genachowski en el Brookings Institute

1984, veinticinco años después

Hacia finales de la década de los cuarenta, George Orwell escribió una novela sobre una pesadilla futurista llamada 1984. Se trataba del retrato de una sociedad sometida a un gobierno totalitarista y autocrático, cuya mayor expresión de poder radicaba en la posibilidad de monitorear al milímetro el comportamiento de cada persona dentro de su dominio. Todo, desde la historia anterior al régimen hasta lo que debían de pensar y la forma en la que debían de hablar, era impuesto y vigilado por ese Gran Hermano. Casi como una amenaza, en el exterior del edificio piramidal que albergaba al Ministerio de la Verdad se leía: la libertad es la esclavitud.

Veinticinco años después de 1984, vivimos en un mundo en el que mucha de nuestra información personal circula libremente (o casi) por la red. Hemos pasado de una red casi anónima en sus inicios hacia una red en la el nivel de anonimato es relativamente bajo, en gran medida por las necesidades del mercado de comercio electrónico. Este es un fenómeno que no tiene marcha atrás. Así, lo único que nos diferencia de la distopía controlista orwelliana es que creemos estar seguros de que no existe tal cosa como un ente único que nos vigila y que es capaz de controlar toda nuestra actividad. Sin embargo, están surgiendo nuevos modelos de productos y servicios on-the-cloud que podrían poner en riesgo esta seguridad.

Hace unas semanas Amazon decidió unilateralmente (muy al estilo del Gran Hermano) borrar de todos los Kindles del mercado las copias electrónicas de las novelas 1984 y Rebelión en la granja de George Orwell. La compañía se justificó diciendo que dichas copias habían sido vendidas a través de la tienda virtual del Kindle por una compañía que no tenía los derechos suficientes para hacerlo. Primero se justificó y luego pidió abiertamente disculpas calificando de “estúpido su comportamiento. Pero en los hechos, una serie de personas que pagaron por descargar los libros se encontraron con que de la noche a la mañana estos habían sido borrados, el precio devuelto y las marcas y anotaciones que ellos habían hecho sobre el libro habían quedado inservibles. Esto ha motivado que dos usuarios afectados, bajo la asesoría de la Electronic Frontier Foundation, promuevan un class action (.pdf) para lograr que una corte se pronuncie sobre el tema y deje bien claros cuáles son los límites de los proveedores de servicios en casos como estos y las medidas que deberían adoptar a nivel de arquitectura de código para evitar que situaciones como esta se repitan.

Obviamente, no solo se trata de la infracción de Amazon de sus propios Términos de Servicio y de la legislación estatal sobre protección al consumidor. Amazon ha demostrado el inmenso poder de control que posee respecto de su producto. Pensemos que pasaría si en el futuro el ejercicio de dicho poder puede llegar a ser asumido por un hacker o es solicitado judicialmente respecto de ciertas obras, ya sea por infracción a los derechos de autor o porque a alguien le resultan injuriosas o indecentes. Ahora sumemos este ingrediente al hecho irrefutable de que cada vez una porción mayor de nuestras decisiones de consumo se volcarán sobre productos y servicios on-the-cloud. No solo se podrá tener acceso a buena parte de nuestros hábitos, sino que será facilísimo regularlos, perseguirlos y condenarlos. ¿Lejano? Como lo señala Zittrain, el Kindle, el Google Chrome OS y el AppStore del iPhone involucran exactamente el mismo riesgo.

Vivimos en una sociedad libre. Merecemos una red neutral con productos y servicios coherentes con nuestra libertad. No queremos DRMs que nos impidan hacer copias de seguridad de los ebooks que compramos. No queremos que un tercero nos diga cómo debemos usar un hardware que es enteramente de nuestra propiedad. Tenemos el derecho como consumidores a un lenguaje claro y distinto sobre los contratos que regulan nuestras relaciones de consumo, y a que estos se respeten. Necesitamos una arquitectura de red que asegure el respeto irrestricto de nuestro derechos. Veinticinco años después, no podemos intercambiar nuestra libertad por esclavitud, no podemos regresar a 1984.

Ilustración de Mike Licht, CC-BY

¿Es Internet como una carretera?

Es común utilizar términos como autopista y carretera para referirnos a Internet. Este modismo se popularizó en la década de los noventa gracias a la iniciativa del senador y luego vicepresidente de los Estados Unidos Al Gore al describir una serie de infraestructuras oficiales de comunicación de los Estados Unidos.

Pues bien, uno de los grandes problemas que enfrentaron las carreteras desde el tiempo incluso del viejo Imperio Romano fue la congestión. Roma era una ciudad comercial, bulliciosa y cosmopolita. Con casi un millón de habitantes sus calles estaban inundadas de carruajes y vehículos de todo tipo, tanto que con los primeros problemas de congestión aparecieron también las primeras regulaciones.

Julio César intentó poner orden al caos y prohibió que los carros tirados por animales circularan por las calles principales por las mañanas. También limitó el tráfico de estos vehículos por el Foro desde el amanecer hasta las cuatro de la tarde, permitiendo la circulación sólo de los peatones. Esta última prohibición no alcanzaba a los carros dedicados al culto, a las obras públicas, a los espectáculos y a la limpieza urbana. Al parecer, estas regulaciones no solucionaron el problema.

Sobre el problema del tráfico y cómo solucionarlo, Stephen J. Dubner escribió un par de posts en Freakonomics (Why You’ll Love Paying for Roads That Used to Be Free: A Guest Post y primera y segunda parte). Partamos de la premisa que estamos ante un problema incremental, si los viajeros urbanos de los Estados Unidos perdieron 14 horas en congestiones en el año 1982, esta cifra había aumentado hasta 38 horas en el 2005.

¿Cómo solucionar este problema? Pues con el pago de un peaje. Algunos economistas defienden el cobro de un peaje al transporte relacionado con el nivel de congestión de la carretera. A más congestión, mayor peaje. Sin embargo, esta propuesta tiene sus detractores, en la medida que se presentan argumentos del tipo ¿Por qué deberían los conductores pagar por utilizar una carretera que se ha hecho con sus impuestos? y también ¿No es una medida discriminatoria que sólo favorece a los ricos?

Sin embargo, el hecho que no se cobre un peaje no significa que el viaje sea gratis. En lugar de pagar dinero, los usuarios de las carreteras congestionadas pagan con esfuerzo y tiempo para llegar a su destino. El uso de peajes ayuda a internalizar la externalidad de la congestión en la medida que reduce el número de viajes realizados en las carreteras más congestionadas en las horas pico, traslada el tráfico a rutas menos congestionadas e incluso hace que algunos opten por no viajar. De esta manera, se reducen los costos de congestión.

Para Dubner la mejor solución es incorporar peajes de tiempo real sobre la base de un análisis de las actuales condiciones del tráfico. Existen proyectos piloto de telepeajes en algunas carreteras de Minnesota y California. A través de sensores en el pavimento se controla el número y la velocidad de los vehículos en marcha. Un programa calcula el importe del peaje para atraer sólo al número de automóviles que garantice una alta velocidad en el trayecto.

Sin embargo, dado que medidas de este tipo son impopulares políticamente y los funcionarios no tienen ningún deseo de perder sus puestos, una opción más realista, es cobrar peaje sólo en algunos carriles. Los otros se dejan libres y tambien para la congestión. Los conductores tienen entonces dos opciones: esperar o pagar.

Tim Hardford en su conocido betseller «El economista camuflado«, realiza un análisis parecido. En Inglaterra, para conducir es necesario pagar un impuesto de suma fija llamado vehicle exise duty, sin embargo, la congestión persiste y ello no se debe a que el impuesto tenga un valor por cada viaje realizado muy barato, sino por el hecho que en realidad el único viaje que tiene valor es el primero, luego todos son gratis.

Si revisan los posts de Stephen J. Dubner y las páginas pertinentes del libro de Tim Hardford notarán que a la imposición de peajes en las carreteras se le hacen la mismas objeciones que a la gestión de tráficos en Internet. En los dos casos las críticas no parecen válidas. En ambos casos tenemos un problema de externalidades y si estas no se internalizan no se solucionará el problema de la congestión. En esta línea cabría preguntarnos ¿Por qué no son válidas las políticas de gestión de carreteras en las superautopistas de la información?

¿Todos valemos lo mismo?

Desde hace unos años venimos discutiendo respecto de la conveniencia de introducir el principio de la Net neutrality en la regulación de Internet. Resumiendo, se pretende evitar que las empresas de telecomunicaciones no discriminen entre los distintos tipos de comunicaciones que se transportan por sus redes. Pero nada se dice cuando son los proveedores de contenidos -los campeones de la Net neutrality– los que discriminan entre sus usuarios en razón de su región de procedencia.

Un reciente artículo del The New York Times (In Developing Countries, Web Grows Without Profit) señala, como algunas empresas como Facebook o YouTube estarían preocupadas porque un importante porcentaje de sus usuarios son de fuera de Europa, Japón o los Estados Unidos. Es decir, viven en aquellas regiones donde proveer sus servicios es más caro y los ingresos por publicidad son magros.

De acuerdo con la nota, Facebook está en auge en Turquía e Indonesia, así como la audiencia de YouTube casi se duplica en la India y Brasil. Sin embargo, podría ser una de las principales razones por las que empresas web con grandes audiencias no estarían obteniendo beneficios. A este fenómeno se le llama la paradoja internacional.

El problema radica en que los países en vías de desarrollo es más caro brindar el servicio, dado que se necesitan más servidores para ofrecer contenidos a aquellas regiones con un ancho de banda limitado. En esos países, la exhibición de publicidad en línea es poco probable que se traduzca en resultados importantes.

Esta contradicción se ha convertido en un grave lastre para las cuentas de los sitios en línea para compartir fotos, redes sociales y distribuidores de video.

El año pasado, Veoh, una portal de distribución de videos decidió bloquear su servicio a los usuarios de África, Asia, América Latina y Europa oriental, tomando como excusa la débil perspectiva de ganar dinero y el alto costo de entregar los contenidos en dichas regiones.

La creación de nuevas empresas de Internet durante la era de la Web 2.0, aproximadamente desde 2004 hasta el comienzo de la recesión a finales de 2007, por lo general se adscribió a un modelo de negocio ampliamente aceptado: construir enormes audiencias mundiales entregando un servicio gratuito y dejar que la publicidad pague las cuentas.

Sin embargo, muchas de estas empresas se distancian de la realidad económica mundial. Puede haber mil 6oo millones de personas con acceso a Internet, pero menos de la mitad tienen los ingresos necesarios para interesar a los anunciantes.

Frente a este problema, MySpace -la red social con 130 millones de miembros, alrededor del 45 por ciento de ellos fuera de los Estados Unidos – está probando una característica para países con conexiones a Internet más lentas llamado Perfil Lite. Una versión reducida del sitio que es menos costosa y que requiere menor ancho de banda.

Quizás la empresa más afectada con esta paradoja es YouTube, un analista de Credit Suisse, Spencer Wang, estimó que podría perder US$ 470 millones en el 2009, en parte por el alto costo de entregar miles de millones de vídeos cada mes. Funcionarios de YouTube no descartaron restringir el ancho de banda para algunos países como una manera de controlar los costos brindando un servicio más lento y de menor calidad.

Facebook también está considerando reducir la calidad de los vídeos y las fotografías para algunas regiones. El 70 por ciento de sus miembros viven fuera de los Estados Unidos, muchos en regiones que no contribuyen a solventar sus costos, al mismo tiempo, se enfrenta al reto de almacenar 850 millones de fotos y 8 millones de videos cada mes.

Es curioso, pero los argumentos para discriminar a los usuarios de algunas regiones de algunos portales son los mismos que emplearon las empresas de telecomunicaciones para proponer canales de comunicación más rápidos y priorizados a los proveedores de contenidos. Pero lo que en este último caso se reveló en algunos sectores como una mounstruosa proposición, parece que no lo es tanto cuando se quiere dejar fuera de la Web 2.0 a los usuarios de Asia, África o América Latina.

Es el mismo argumento porque el trasfondo no es diferente, si los usuarios de las zonas más deprimidas del mundo generan pobres ingresos e importantes costos, es lógico que las empresas afectadas o retiren a estos usuarios o degraden el servicio hasta el nivel que los gastos se alinean con el nivel de ingresos. A fin de cuentas, como señala un comentario en el blog de ruizdequerol (¿Idealismo ferviente?: Anda ya!!!): «Tampoco me considero cliente ni de YouTube, ni Google. Ni tan solo de Spotify. Si cierran ¿qué derechos puedo reclamar? Ninguno.«

Nokia y las telcos, enemigos íntimos

Los equipos móviles gozan en la actualidad de gran popularidad y forman parte de una industria que compite constantemente en innovación y diseño. Son conocidos los equipos terminales con firma como los de Agatha Ruiz de la PradaGiorgio ArmaniDolce & GabbanaVictorio & Lucchino. Estos aparatos han evolucionado rápidamente desde aquellos «ladrillos» de los años ochenta hasta los nuevos equipos como el iPhone conjugan una gran cantidad de prestaciones y aplicativos con un diseño vanguardista e innovador.

Sin embargo, esta carrera innovativa podría estar ocasionando algunos problemas. Tal como detalla el diario español Expansión (Nokia se enfrenta a Telefónica por integrar Skype en sus móviles), en el Reino Unido se habría generado una controversia con ocasión del lanzamiento del Nokia N-97, el nuevo producto estrella del fabricante finlandés, que incluye la aplicación Skype, uno de los programas más conocidos para realizar llamadas de voz usando la red de Internet. A través de Skype es posible realizar llamadas telefónicas a una fracción de los costos tradicionales.

¿Cual es el origen del problema? Pues, que aprovechado que los nuevos terminales permiten el acceso a Internet, se pretende que a través del Skype se puedan realizar comunicaciones de voz que compitan directamente con el principal servicio ofrecido por los operadores, con lo cual los ingresos de las empresas móviles se podrían ver mermados.

Los operadores móviles temen que los fabricantes de equipos se introduzcan en los negocios de telecomunicaciones con mayor margen -y menor riesgo- desplazando a los operadores de telecomunicaciones tradicionales al papel de meros transportistas de señales. Es decir, los operadores móviles se limitarán únicamente a proporcionar capacidad de red mientras que otros actores que no invierten en la construcción de las redes, como Nokia, Microsoft o Google, se apoderan de los ingresos procedentes de los servicios de valor añadido y publicidad.

La polémica surgida en el Reino Unido se agudiza desde que la Comisión Europea anunció una investigación entre los operadores para averiguar si las prácticas para bloquear el uso de la voz IP en las redes de datos de 3G o con las conexiones Wi-Fi suponen una infracción de la legislación comunitaria. 

Como se podrá advertir el problema es sumamente complejo y aunque a primera vista podríamos deducir que el tráfico sobre las redes de Internet no es de competencia de los operadores móviles, un análisis más profundo nos podría llevar a una conclusión diametralmente distinta.

En principio nos encontramos ante un mercado de dos caras (Twosided market) donde se encuentran consumidores y proveedores de contenidos. Pero para que este encuentro sea factible es necesario que alguien desarrolle una plataforma. Esta plataforma no es otra cosa que la red de telecomunicaciones móvil. Sin esta red de telecomunicaciones el encuentro entre consumidores y proveedores de contenidos no sería factible. El inconveniente radica en que esta plataforma no es gratuita, es necesario que alguien invierta en su despliegue. Si los proveedores de contenidos proveen servicios distintos que los del operador móvil no hay mayor problema, pues ayuda a generar una mayor oferta de servicios. Sin embargo, si los contenidos compiten directamente con los servicios provistos por los operadores de telecomunicaciones nos encontraremos ante una caída en los rendimientos de operación y por consiguiente ante un encarecimiento del costo de la red. Lo cual en el largo plazo podría desincentivar el despliegue de nuevas redes. 

Los problemas continúan si consideramos que los operadores móviles prestan estos servicios en virtud de unas licencias otorgadas por los Estados. Licencias que en el caso europeo se pagaron a precio de oro en polvo con incrustaciones de diamantes. En este caso, parte de los precios suponían unos márgenes de explotación que no serían tales si los servicios con mayores ingresos son brindados por quienes no asumieron los costos de despliegue de la red y tampoco el pago de las licencias.

No perece saludable, en este escenario, que quien disfrutará de mayores ingresos no ayude a solventar los costos de las infraestructuras o de las licencias.

La responsabilidad de Cholotube

Cuatro suboficiales de la Policía Nacional del Perú se han visto involucradas la semana pasada en un escándalo mediático y cuasi político a raíz de un video difundido a través de Internet en el que aparecen desnudas. En concreto, el video fue subido a los servidores de Hard Sex Tube, una página de Estados Unidos que brinda el servicio de alojamiento de videos pornográficos no profesionales (amateur). Luego, el link del video fue propuesto por un usuario para ser embebido en la página Cholotube. En pocas horas, la aparición del video trascendió en diversos blogs y motivó que la recien juramentada Ministra del Interior tome la decisión de separarlas del cuerpo policial. A propósito del tema, resulta interesante el debate propuesto por Marco Sifuentes sobre qué puede hacerse con Cholotube. La pregunta que subyace a ello es, nuevamente, si es que resulta posible controlar Internet. Adelanto que no tengo una respuesta tajante a la cuestión, pero me parece importante tener en cuenta ciertos elementos sobre este caso.

En primer lugar, Cholotube solo embebe los videos alojados en los servidores de terceros. Esto significa que no los aloja en sus propios servidores, sino que a través de su página otorga a sus usuarios la posibilidad de publicar los links a videos que han sido alojados en otras páginas (que van desde Youtube o Megavideo hasta el referido Hard Sex Tube). Esto implica que por cada video que aparece en la página podríamos reconocer hasta cinco sujetos involucrados: (1) la persona que graba el video, (2) la persona que sube el video a Internet, (3) la persona o compañía que accede a alojar el video en sus servidores, (4) la persona que provee de la metadata necesaria a Cholotube para poder embeber el video; y, (5) Cholotube, que acepta embeber el video en su propia página e indexarlo en sus directorios. Visto así, ¿desaparecer Cholotube soluciona algo? No, porque Cholotube es el último eslabón de la cadena. Para estos efectos, la situación de Cholotube no es distinta a la del blog Doctor Monique o la de cualquier otra página que podría embeber el mismo video.

Sin embargo, ¿el que Cholotube solo embeba los videos no significa que esté exento de responsabilidad? Si alguno de los videos embebidos viola el derecho a la intimidad de las personas (como es el caso del video en controversia) o contiene pornografía infantil, por ejemplo, al embeberlo en su página web está realizando una comunicación pública del video a través de un medio social. Este extremo, sin embargo, es largamente discutido por académicos y tribunales. Embeber un video no es más que colocar un retazo de código HTML que contiene un hipervínculo a un video. Es decir, desde un punto de vista técnico, es igual que vincular una página web a través de un link. En casos relacionados a violaciones de derechos de autor, se ha resuelto en otra sede que hacer un link es tan solo una colaboración indirecta a la comisión de la falta. En el caso del delito de Violación de la Intimidad a través de un medio de comunicación social (artículo 154 del Código Penal Peruano), creo que debería apreciarse con cuidado la responsabilidad de Cholotube. ¿Acaso los blogs y los periódicos que han reproducido la noticia no han jugado un papel similar? Creo que el problema reside en que estamos atacando el brote en lugar de combatir la infección. El esfuerzo de la Policía debe enfocarse en rastrear a los responsables de la grabación y publicación del video, que viola el derecho a la intimidad de las personas que aparecen en él. La forma mediante la cual hayan sido difundidos masivamente es importante pero no es el tema central en el debate.

Ahora, frente a la propuesta del representante de la Red Peruana Contra la Pornografía Infantil de que sean los Proveedores de Internet (ISP, por sus siglas en inglés) quienes controlen el acceso a páginas que realicen la difusión de material ilegal, creo que sí es necesario pensar con mayor detenimiento el asunto. Dada la dinámica propia de la Internet, es altamente posible que frente a un panorama en el que se controle el acceso a ciertas páginas web desde los proveedores de Internet, se logre encriptar el contenido o la velocidad con la que aparezcan páginas espejo sea superior a la de la censura. Además, como lo han sostenido Brown y Adams, limitar la posibilidad de que los usuarios utilicen programas de encriptación es algo que vienen intentando las autoridades de Estados Unidos desde hace años y ha fallado espectacularmente. Peor aún, desde el punto de vista de la libertades informativas, es una decisión bastante sensible otorgar el poder de censura de la Internet a una entidad pública o privada. Finalmente, en el soñado supuesto en el que mediante estas medidas pueda detenerse la aparición de videos como estos, ello no significaría que éstos dejen de ser difundidos en centros comerciales populares en discos compactos o a través de correo electrónico, dado el progresivo abaratamiento del hardware de almacenamiento de datos.

No digo que la violación de normas sobre privacidad o que prohiben la pornografía infantil esté bien. Dichos hechos acarrean responsabilidad penal y el Estado debe preocuparse por perseguirlos, investigarlos y condenarlos. Esta labor, sin embargo, debe realizarse procurando la mínima interferencia a la libertad de los particulares no involucrados. Como decía Albert Camus, si el hombre fracasa en conciliar justicia y libertad, fracasa en todo.