Otro clavo para el martillo de la neutralidad de la red

Este último 15 de octubre casi 3 millones de abonados del servicio de televisión por cable de Cablevision (un operador de cable de los Estados Unidos) se quedaron en ascuas al no poder disfrutar de la programación de la cadena Fox (propiedad de News Corp.). La disputa, como era de imaginarse, se desencadenó luego que Cablevision y News Corp. no llegaron a un acuerdo respecto del monto que la primera debía pagar por los contenidos de Fox. Vencido el plazo estipulado en el contrato de provisión de señales sin que se alcanzara el acuerdo, News Corp. optó por el camino más agresivo y suprimió sus contenidos de la parrilla de programación de Cablevision. Esta decisión privó a los abonados de Cablevision de algunos programas de indudable valoración como los juegos de los Giants (importante si tenemos en cuenta que Cablevision sirve a la ciudad de Nueva York), del reality American Idol o de las populares series Los SimpsonsGlee y House.

Durante el lapso que duró el apagón de las señales de Fox, Cablevisión publicó un anuncio en el que afirmaba que pagaba a News Corp. más de US$ 70 millones al año por sus canales y por la renovación se exigía más de US$ 150 millones al año por la misma programación.

Hasta aquí nos encontramos ante una decisión empresarial en el marco de una disputa contractual y que no debió generar más problemas que el enfado normal de quien se ve incomodado por este tipo de conflictos.

Sin embargo, el altercado fue más lejos de lo que cabía esperar. News Corp. bloqueó adicionalmente para cualquier abonado del servicio de Internet de Cablevisión, el acceso a los contenidos de Fox desde los sitios Fox.com y Hulu (Hulu y el futuro de Youtube). Hulu es un sitio que permite vía streaming video ver una serie de programas de televisión y películas a la carta. El sitio nace de un joint venture entre ABCNBC Universal (NBC) y Fox Entertainment Group (Fox).

Este apagón generalizado tuvo importantes repercusiones. Era la primera vez que en este tipo de disputas un programador decidía restringir sus contenidos desde todas las plataformas. El mensaje que se pretendía dar era claro: no esperen ver las señales de Fox en Internet si no están disponibles en televisión, o para decirlo más crudamente, no disfrutarán de los contenidos de forma gratuita en Internet si no pagan por los de televisión.

La medida fue levantada casi inmediatamente, pues News Corp. se percató que al restringir el acceso a Fox.com y Hulu también se perjudicaba a aquellos abonados de Cablevision que sólo le habían contratado el acceso a Internet, mientras que los servicios de televisión por cable eran provistos por otros operadores, como DirecTV.

Sin embargo, algunas organizaciones como Public Knowledge (Public Knowledge Condemns Fox Internet Blocking) vieron en la disputa News Corp – Cablevisión como un ataque a la neutralidad de la red (TV blackout raises net-neutrality concerns). Así, en un comunicado, la organización condenó el bloqueo desde Internet de los contenidos de la cadena Fox: “El bloqueo de sitios web, está totalmente fuera de los límites de una controversia como ésta“. En otro pronunciamiento (Fox Steps Over The Internet Line) Public Knowledge consideró que se había “(…) cometido una de las más flagrantes violaciones a la apertura de Internet cometido por una empresa de EE.UU.

Contrariamente a lo que suele decirse, la neutralidad de la red no es un concepto bien definido y existen numerosas tendencias que intentan explicarlo. Podríamos definir a la neutralidad de la red, siguiendo a Wikipedia, como un principio que establece que si un determinado usuario paga por un determinado nivel de acceso, y otro paga por el mismo nivel, estos usuarios deben poder conectarse entre sí al nivel de acceso suscrito sin ninguna limitación. De esta forma, la neutralidad de la red constituye una respuesta al temor de que los proveedores de acceso de banda ancha utilicen su infraestructura para bloquear determinadas aplicaciones y contenidos en Internet. Sin embargo, desde hace algún tiempo este principio neutral empieza a retroalimentarse y a expandirse hacia casi todos los escenarios de Internet. En Blawyer hicimos en su oportunidad un recuento de todas las neutralidades de nuevo cuño (Que el portero marque tarjeta: Google Neutrality).

Desde este nuevo punto de vista, no serían los propietarios de los contenidos quienes deben determinar las condiciones bajo las cuales se accede a los mismos, serían los consumidores quienes tendrían un derecho sin restricciones para acceder a los contenidos de cualquier servidor con conexión a Internet.

No cabe duda que las restricciones que impuso News Corp. a los abonados de Cablevision, privándoles de acceder a Fox.com y Hulu, debe entrar más en el campo de la estupidez que en el de la racionalidad, sin embargo, la tesis de que nos encontramos ante una vulneración de la neutralidad de la red no puede tener una calificación menor. Creemos que es el propietario de los contenidos quien debe decidir quienes son los abonados que quiere recibir, estableciendo limitaciones vía pago, geográficas o de cualquier otra índole, aunque estas restricciones parezcan irrazonables o injustas.

Luego de más de quince días desde el apagón inicial News Corp. y Cablevision llegaron a un acuerdo el 1 de noviembre. Cablevision no se mostró conforme con el resultado de la negociación y señaló que había sido forzado a pagar un precio injusto por un paquete de canales que para muchos de sus clientes tienen poco o ningún interés.

Lo que aprendimos del Google-Verizon affair

Google trató de venderse durante mucho tiempo como el bastión de la libertad en Internet. Su Don’t be evil parecía resumir bien la política de una empresa dedicada a brindar los mejores servicios posibles a sus consumidores en forma “gratuita” y eficiente. Con el tiempo, su expansión lo hizo renunciar parcialmente a esta imagen: ahora tenía más activos e intereses en todo el mundo y no podía jugar al laissez-faire con cualquiera, digamos, el gobierno Chino. Pero la reciente propuesta legislativa sobre Neutralidad de Red que publicó junto a Verizon, su principal socio comercial en el mercado de móviles, ha terminado por convertir a Google en ese tipo ahora adinerado que se olvidó de sus viejos amigos. ¿Se vendió realmente Google?

Lo cierto es que el policy statement de Google/Verizon tiene muchas coincidencias con la propuesta que la FCC hizo pública el pasado octubre para comentarios. Ambas proscriben el bloqueo de contenido legal y la posibilidad de conectar aparatos legales a la red, al tiempo que promueven la transparencia en la gestión de red y la no discriminación arbitraria de contenidos o aplicaciones. Solo se distinguen cuando Google y Verizon pretenden excluir al mercado de acceso a Internet de banda ancha inalámbrico de este tipo de reglas y en lo que respecta al poder de la FCC para regular directamente el tema. Jonathan Zittrain tiene un extenso análisis del tema.

Pero el principal eslogan que se cayó el mes pasado es que la batalla por la Neutralidad de Red es de blancos y negros, de buenos y malos. Nadie, salvo alguien en completa ignorancia sobre el estado actual del mercado de servicios de acceso, puede sostener que todo trato diferenciado de paquetes de datos por parte de las operadoras es ilegal. La end-to-end architecture es vital para que Internet continúe siendo un campo fertil para la innovación pero en su traducción legal: la proscripción de que se establezcan vía código barreras de entrada al mercado de aplicaciones y servicios en Internet que reduzcan el nivel de competencia y de las cuales se deriven ineficiencias. Las normas de libre competencia cubren bien ese escenario. El problema cuando se abre la tapa de regular la Neutralidad de red son las normas que se pueden colar con ella, como son los casos donde la discriminación está permitida y peligro de captura.

De eso se trata el Google/Verizon affair: dos empresas con un plan de negocio en torno a los terminales con Android y el peligro de que la viabilidad del mismo sea eliminada por una norma de Neutralidad de Red aplicable al acceso inalámbrico buscando con locura un blindaje regulatorio. Con gran tacto, la FCC ha sabido aprovechar la coyuntura y ha dicho la semana pasada: OK, estamos llegando a ciertos consensos y aún debemos de explorar otros (como los de las redes móviles y los servicios especiales, que merecen un post aparte). Así, los primeros consensos que la FCC ha identificado son:

  1. que los proveedores de acceso no deben prohibir a sus usuarios enviar y recibir contenido “legal”, usando las aplicaciones “legales” de su preferencia o conectando los aparatos “legales” que consideren a la red, al menos en redes wireline;
  2. que los proveedores deben de transparentar sus prácticas de gestión de red;
  3. que, respecto del manejo de tráfico “legal”, debe de atacarse de alguna forma la discriminación;
  4. que los proveedores de acceso deben de poder llevar a cabo prácticas de gestión de red respecto de la congestión y tráfico no deseado o peligroso para la red; y,
  5. en un panorama cambiante, sería mejor hacer efectivas las obligaciones de la open Internet a través de un análisis caso por caso en lugar de reglas estrictas cuyas consecuencias son difíciles de medir.

Los que aprendimos del Google/Verizon affair, estemos de acuerdo o no con lo que proponen, es que las posturas extremas polarizan el debate. Y que este debate sobre ceros y unos, en particular en Estados Unidos, está muy lejos de ser uno en el que alguno de los extremos tenga la solución.

Foto: Steve Rhodes (CC BY NC-ND)

Lo que aprendimos del Google-Verizon affair

Google trató de venderse durante mucho tiempo como el bastión de la libertad en Internet. Su Don’t be evil parecía resumir bien la política de una empresa dedicada a brindar los mejores servicios posibles a sus consumidores en forma “gratuita” y eficiente. Con el tiempo, su expansión lo hizo renunciar parcialmente a esta imagen: ahora tenía más activos e intereses en todo el mundo y no podía jugar al laissez-faire con cualquiera, digamos, el gobierno Chino. Pero la reciente propuesta legislativa sobre Neutralidad de Red que publicó junto a Verizon, su principal socio comercial en el mercado de móviles, ha terminado por convertir a Google en ese tipo ahora adinerado que se olvidó de sus viejos amigos. ¿Se vendió realmente Google?

Lo cierto es que el policy statement de Google/Verizon tiene muchas coincidencias con la propuesta que la FCC hizo pública el pasado octubre para comentarios. Ambas proscriben el bloqueo de contenido legal y la posibilidad de conectar aparatos legales a la red, al tiempo que promueven la transparencia en la gestión de red y la no discriminación arbitraria de contenidos o aplicaciones. Solo se distinguen cuando Google y Verizon pretenden excluir al mercado de acceso a Internet de banda ancha inalámbrico de este tipo de reglas y en lo que respecta al poder de la FCC para regular directamente el tema. Jonathan Zittrain tiene un extenso análisis del tema.

Pero el principal eslogan que se cayó el mes pasado es que la batalla por la Neutralidad de Red es de blancos y negros, de buenos y malos. Nadie, salvo alguien en completa ignorancia sobre el estado actual del mercado de servicios de acceso, puede sostener que todo trato diferenciado de paquetes de datos por parte de las operadoras es ilegal. La end-to-end architecture es vital para que Internet continúe siendo un campo fertil para la innovación pero en su traducción legal: la proscripción de que se establezcan vía código barreras de entrada al mercado de aplicaciones y servicios en Internet que reduzcan el nivel de competencia y de las cuales se deriven ineficiencias. Las normas de libre competencia cubren bien ese escenario. El problema cuando se abre la tapa de regular la Neutralidad de red son las normas que se pueden colar con ella, como son los casos donde la discriminación está permitida y peligro de captura.

De eso se trata el Google/Verizon affair: dos empresas con un plan de negocio en torno a los terminales con Android y el peligro de que la viabilidad del mismo sea eliminada por una norma de Neutralidad de Red aplicable al acceso inalámbrico buscando con locura un blindaje regulatorio. Con gran tacto, la FCC ha sabido aprovechar la coyuntura y ha dicho la semana pasada: OK, estamos llegando a ciertos consensos y aún debemos de explorar otros (como los de las redes móviles y los servicios especiales, que merecen un post aparte). Así, los primeros consensos que la FCC ha identificado son:

  1. que los proveedores de acceso no deben prohibir a sus usuarios enviar y recibir contenido “legal”, usando las aplicaciones “legales” de su preferencia o conectando los aparatos “legales” que consideren a la red, al menos en redes wireline;
  2. que los proveedores deben de transparentar sus prácticas de gestión de red;
  3. que, respecto del manejo de tráfico “legal”, debe de atacarse de alguna forma la discriminación;
  4. que los proveedores de acceso deben de poder llevar a cabo prácticas de gestión de red respecto de la congestión y tráfico no deseado o peligroso para la red; y,
  5. en un panorama cambiante, sería mejor hacer efectivas las obligaciones de la open Internet a través de un análisis caso por caso en lugar de reglas estrictas cuyas consecuencias son difíciles de medir.

Los que aprendimos del Google/Verizon affair, estemos de acuerdo o no con lo que proponen, es que las posturas extremas polarizan el debate. Y que este debate sobre ceros y unos, en particular en Estados Unidos, está muy lejos de ser uno en el que alguno de los extremos tenga la solución.

Foto: Steve Rhodes (CC BY NC-ND)

Debate servido: Google, Verizon y Web 3.0

Ignoro si los chicos de Google hagan el mal, creo particularmente que no, pero lo cierto es que nunca aburren. Ayer Google y Verizon presentaron al alimón una propuesta (aquí) para mantener la neutralidad de Internet, en la que se muestran en principio opuestos a cualquier tipo de bloqueo o discriminación de contenidos legales en Internet. Con esta iniciativa Google y Verizon pretenden impulsar un diálogo para la implantación definitiva de la legislación sobre la Neutralidad de la Red (Net Neutrality) en los Estados Unidos, en un momento en el que el fuego del caso Comcast todavía no se ha extinguido (El ruido y la furia del caso Comcast (1) y (2)).

Este anuncio conjunto aparece sólo unos días después de que ambas empresas desmintieran un supuesto acuerdo por el que Verizon se comprometía a priorizar los contenidos de Google en sus redes de telecomunicaciones (aquí 1 y 2).

Uno de los aspectos más polémicos de la propuesta es el de reconocer la excepcionalidad, por su intrínseca naturaleza competitiva e innovadora, de la banda ancha inalámbrica. Es así, que echando mano a estas características proponen que la regulación de la Neutralidad de la Red no se extienda inicialmente a la banda ancha inalámbrica.

Las reacciones la propuesta de Google y Verizon no se han hecho esperar. Internet brama, bulle, se escandaliza y en este contexto el New York Times ha abierto rápidamente en su sección de debates un tópico sobre el tema: ¿Quién tiene prioridad en la Web? Los participantes son de lujo, como veremos a continuación.

Tim Wu, profesor de Columbia Law School: «Controlando el comercio y la opinión»

Internet y las comunicaciones están en la misma categoría que la energía, el transporte y las finanzas, porque son el alma del comercio y de la expresión de esta nación. Verizon o Google ubicadas encima de la web, pueden influir sobre qué empresas tendrán éxito o fracasarán, haciendo que los sitios se carguen más rápido, más lentamente o terminen en la página 10 del ranking de resultados.

El mayor peligro de una vía rápida es que cambia por completo la competencia en la red. Si hubiera habido una Internet de nivel 2 en 1995, probablemente, Barnes & Noble habría destruido a Amazon, Microsoft Search habría golpeado a Google y Skype no habría sino empezado. Todos seríamos perdedores.

Lawrence Lessig, profesor de Harvard Law School y director de la Fundación Centro Edmond J. Safra para la Ética: «Otra debacle desregulatoria».

El éxito económico de Internet proviene de su arquitectura. La arquitectura y las fuerzas competitivas que lo aseguran, es lo único interesante en juego en esta batalla por la Neutralidad de la Red. Sin embargo, los asesores económicos de más alto rango en la Casa Blanca no parecen saber lo que eso significa.

Los políticos, utilizan un marco económico establecido en la década de 1980, convencidos de su verdad y demasiado arrogantes para reconocer incluso su ignorancia, permitirán a los propietarios de los “tubos” destruir Internet.

David Gelernter, professor de Yale University: Llámalo «Irracionalidad de la Red».

La neutralidad es una política. A menudo es una mala política. “Neutralidad fiscal”, por ejemplo, es gravar cada dólar de ingresos de la misma forma; la “Neutralidad de las Carreteras”: todos los vehículos deben pagar el mismo peaje. El punto fuerte de la Neutralidad de la Red es su nombre.”Neutralidad” suena como el estilo americano. Sin embargo, “red irracional” sería un nombre más preciso para esta idea mal concebida.

Supongamos que una compañía aérea quiere comprar espacio adicional en el aeropuerto local para hacer su check-in más rápido. ¿Debemos decir, “lo siento, pero la neutralidad del aeropuerto exige que American Airlines y Southwest Peoria Air tengan exactamente la misma cantidad de espacio en LaGuardia”?

Edward W. Felten, profesor de la Universidad de Princeton: «”Neutralidad” es difícil de definir».

La cuestión no es si queremos mantener esta Internet neutral abierta, es si a partir de la elaboración de normas el Gobierno nos puede asegurar el resultado que queremos. “Neutralidad” es fácil de imaginar, pero difícil de definir. Los operadores de redes necesitan un margen razonable para gestionar sus redes. No queremos entorpecer sus complejas prácticas de gestión de red neutrales, pero tampoco permitir la discriminación o hacer posible una discriminación sutil envuelta en la jerga de la red.

Jim Harper, director de estudios de política de información del Cato Institute: «Un cautivo de la Industria».

La Comisión Federal de Comunicaciones (Federal Communications Commission – FCC) ha socavado el desarrollo y la inversión mediante su propuesta para regular Internet como solía hacerse con la industria telefónica. En lugar de llevar a cabo la regulación planteada por la industria, la FCC simplemente debería desaparecer. No debe participar en la regulación de Internet, incluso si la industria lo quiere.

Jonathan Zittrain, profesor de Harvard Law School: «Una red impenetrable de peajes».

Esta cuestión se plantea en medio de una economía muy confusa para el movimiento de bits a través de Internet. Con los teléfonos la norma era sencilla: el remitente paga. En Internet es más complicado: tanto emisor y receptor pagan a sus respectivos ISPs.

Google sería capaz de lograr un acuerdo con Verizon para tener un acceso más veloz, dejando a los proveedores de contenidos menos afortunados detrás. Cuando cada ISP puede hablar en nombre de sus suscriptores sin saberlo, en calidad de cobrador de peaje bajo el puente ofreciendo diferentes condiciones de acceso, la economía de la red estará a favor de la consolidación, de los influyentes y adinerados.

En un medio en el que muchos de los gigantes eran advenedizos ayer – eBay, Google, incluso la propia web – sería una parodia congelar la siguiente ronda de innovación por el despliegue de una red impenetrable de contratos y tarifas.

Marvin Ammori, profesor de la Universidad de Nebraska-Lincoln: «Regular al Rockefeller de hoy».

El gobierno puede y debe hacer cumplir la neutralidad de la red. La competencia y el debate democrático en el siglo 21 dependerán de la no discriminación, al igual que la evolución a la web 3.0 ó 4.0.

Las compañías de teléfono y de cable, ahora unidas a Google, están gastando millones para convertir a Internet en un servicio de todo pago. Internet es la infraestructura básica del comercio y las comunicaciones. La discriminación en Internet minará la innovación. Podemos hablar de estas versiones “nuevas” de la web (web 2.0 y 3.0) sólo porque Internet evoluciona rápidamente. No lo hace porque le de prioridad a las compañías telefónicas o de cable, sino más bien porque los usuarios determinan la mejor manera de utilizar Internet.

El ruido y la furia del caso Comcast (2)

En agosto de 2008, la Comisión hizo público su Memorandum Opinion and Order (.pdf) en el caso Comcast. La cuestión era si el bloqueo del tráfico peer-to-peer (p2p) constituía una práctica razonable de gestión de red por parte de Comcast. Si bien la FCC contaba con las reglas de la Net Neutrality enunciadas a manera de principios, no eran parte de ninguna regulación de fuente legal. En este caso, la Comisión afrontó el problema de bajo qué norma analizar y sancionar la conducta de Comcast. La decisión final fue ordenar a Comcast detener dicha práctica y ordenarle transparentar sus medidas de gestión de red, sin sancionarla. Contó con tres votos a favor, incluyendo el del presidente Kevin Martin, y dos en contra (3-2).

Los argumentos de la FCC

Como habíamos señalado, la provisión de acceso a Internet de banda ancha por parte de las empresas de cable no era considerada un servicio de telecomunicaciones y no estaba sujeto a reglas de no discriminación. La FCC intentó demostrar que es una prerrogativa de la agencia regulatoria la jurisdicción sobre temas no tratados expresamente en la regulación, pero comprendidos en ella en sentido lato (ancilliary jurisdiction). Para ello, expuso una serie de argumentos de derecho sobre la base de distintas secciones de la Telecommunications Act que en algún sentido lo autorizaban a supervisar cierta idoneidad y competitividad en el mercado de servicios de información.

En los hechos, la Comisión consideró adecuadamente probado a través de una serie de actuaciones presentadas por las asociaciones Free Press y Public Knowledge que Comcast enviaba reset packets –una práctica conocida como RST Injection— con la finalidad de interrumpir y terminar la conexión TCP establecida por los programas que conectados a redes p2p. Se demostró, además, que esta medida era insensible a la cantidad de ancho de banda que un usuario ocupaba o la proporción de este que ocupaba respecto de sus pares en la red local. Por ello, consideró probado que Comcast venía discriminando el tráfico p2p de sus usuarios y ello contravenía una de las Cuatro Libertades de Internet.

Sin embargo, la FCC admitió que podría estar equivocada al intentar sancionar a Comcast por discriminar el tráfico. Señaló que la existencia de una regulación explícita podría detener la innovación y por eso aplica una regla a un caso concreto (adjudication), creando un criterio decisorio que posteriormente podría revisar o terminar exigiendo legislativamente (como sucedió con el caso Carterphone). Explícitamente dijo que “las prácticas de gestión de red de los distintos ISPs llegan a ser tan distintas y especializadas en su naturaleza que resultaría imposible enmarcarlas en una regla general” (p. 19). La Comisión creía que no estaba abusando de su autoridad regulatoria, en tanto su adjudication no era del todo inesperada (si existían las Cuatro Libertades) y no estaba en contra de “la buena fe del mercado”.

De acuerdo con la FCC, no existió proporcionalidad entre las medidas tomadas por Comcast y el problema que intenta resolver: la congestión de tráfico. Así, pudo resultar afectando a usuarios que usen poco ancho de banda pero lo hagan a través de aplicaciones “desfavorecidas”, no se aplicó solamente durante los momentos del día en que hay mayor riesgo de congestión sino todo el tiempo, y no estuvo dirigida exclusivamente contra las áreas en los que existirían nodos congestionados sino al total de su planta de abonados. Para la Comisión existían soluciones más proporcionales al problema: (i) medir a los súper usuarios y cargarles un extra por el uso excesivo del ancho de banda, (ii) estrangular el ancho de banda solo de los súper usuarios, y no de la totalidad de la planta, (iii) trabajar soluciones conjuntas con los desarrolladores de las aplicaciones (ej. redes P4P). Aunque no la FCC no las patrocina expresamente, reconoce que son largamente más adecuadas a los propósitos que alega tener Comcast. Eso sí, la FCC reconoció que los ISPs tienen derecho de bloquear todo contenido ilegal (pornografía infantil, que viole derechos de autor) pero eligiendo soluciones neutrales que no alcancen a afectar tráfico legalmente cursado.

La Comisión señaló que el daño a la competencia perpetuado por las prácticas de Comcast radica en no haber transparentado sus criterios de gestión de red a sus usuarios, quienes podían pensar que las fallas en su servicio se debían a una falla de la propia aplicación y así afectar su mercado. Para la FCC, los términos de las Condiciones del Servicio que señalaban que el servicio estaba sujeto a “limitaciones de velocidad” eran demasiado vagos para el consumidor.

Como Remedio, la FCC ordenó a Comcast: (1) entregar a la Comisión toda la información referente a las prácticas de gestión de red investigadas, incluyendo los equipos que uso, cuándo y bajó que circunstancias fueron llevadas a cabo, los protocolos afectados y las zonas donde fueron implementadas; (2) enviar a la Comisión un plan de cumplimiento con puntos de referencia provisionales que describan cómo se pretende hacer la transición de las prácticas discriminatorias hacia las no discriminatorias; y (3) entregar a la Comisión y al público los detalles sobre sus prácticas de gestión de red futuras, incluyendo cualquier limitación de la forma en que sus usuarios acceden al servicio.

Reacciones

La decisión de la Comisión tuvo una respuesta mixta en los medios especializados. La EFF, aunque a favor de la Net Neutrality, vio con preocupación que la FCC pueda ampararse en la anciliary jurisdiction para imponer casi cualquier regla (como las de decencia en los contenidos). Por su parte, Wired señaló que la decisión de la FCC era una invitación abierta a filtrar Internet, al reconocer la posibilidad de que los ISPs actúen como policías y puedan filtrar cualquier tráfico considerado ilegal. Muchas empresas de telecomunicaciones, según reportó el New York Times, se mostraron de acuerdo con el fondo de la decisión pero también cuestionaron que esta regla venga a través de una decisión de la FCC y no de una ley del Congreso. Comcast, por su parte, señaló que apelaría la decisión ante la Corte de Apelaciones y, finalmente, lograría que se revoque. La historia de cómo una Corte de Apelaciones terminó diciéndole a la FCC que no tenía autoridad para exigir reglas de neutralidad de red a Comcast será el tema de la siguiente entrada de esta serie.

Foto: Alistair (CC BY-NC)

Neutralidad de red a la chilena

Leemos que Chile está a punto de aprobar una Ley para preservar la neutralidad de red. Luego de más de tres años en trámite, el Proyecto de ley que consagraría el principio de neutralidad en la red para los consumidores y usuarios de Internet (.doc) ha sido finalmente aprobado por ambas cámaras del Congreso y espera las observaciones del Tribunal Constitucional. La noticia sorprende por varias cosas. Primero, porque mientras en Estados Unidos y la Unión Europea existe un intenso debate por imponer esta obligación legal, Chile se adelantaría a cualquiera regulando la neutralidad de red. Segundo, porque el proceso legislativo no ha recibido la atención ni de la prensa ni de la academia que sí han recibido en otros estados iniciativas similares o que recibió la reforma de la Ley de Propiedad Intelectual. Finalmente, porque Chile es el país con más penetración de banda ancha en la región y sus políticas regulatorias sobre comunicaciones tienen capacidad de influir en el modelo a seguir por el resto de economías. La noticia, por ende, no puede tomarse a la ligera.

El Proyecto incluye tres artículos nuevos en la Ley de Telecomunicaciones. El primero impone cuatro obligaciones a las concesionarias de servicio público de telecomunicaciones que presten servicio a los ISPs y a los propios ISPs. El segundo le otorga la autoridad necesaria a la Subsecretaría de Telecomunicaciones para sancionar las infracciones a las obligaciones legales o reglamentarias al nuevo marco legal. El tercer artículo ordena que se establezcan vía reglamento las condiciones mínimas que deberán cumplir los prestadores de servicio de acceso a Internet (como la obligación de mantener publicada y actualizada en su sitio web información relativa al nivel del servicio necesaria para que el usuario conozca las restricciones, topes y condiciones en las que éste se oferta), así como las prácticas que serán consideradas como contrarias a la Ley.

El proyecto ha sido denominado de “neutralidad de red” pero en verdad señala obligaciones diversas para los ISPs y las empresas de telecomunicaciones que les provean de servicios, entre las cuales está la de no discriminación arbitraria en la capa de aplicaciones, servicios o contenidos legales con efectos anticompetitivos. Sin embargo, la no discriminación es una obligación que ya está presente en la regulación sectorial chilena. El proyecto, como señala Alejandro Clunes, restringe la obligación de no discriminación vigente según los criterios de arbitrariedad y legalidad. Solo está prohibida la discriminación “arbitraria”, otorgando espacio a que se introduzcan medidas de gestión de tráfico y administración de red. Bajo ese permiso, se invoca a que los ISPs “procuren” preservar la privacidad de los usuarios, la protección contra virus (¡!) y la seguridad de la red. Además, la protección de no discriminación alcanza solo a contenidos y servicios legales, sin que se precise claramente quién declarará la legalidad de los contenidos (¿se necesitaría de una orden judicial o la propia telco podría empezar a bloquear páginas web con supuesto contenido ilícito?). De la misma manera, se establece la prohibición de limitar el derecho de un usuario a incorporar o utilizar cualquier clase de hardware en la red, siempre que sean legales y que no dañen o perjudiquen la red o la calidad del servicio.

El Proyecto también incorpora otras dos obligaciones que poco tienen que ver con la neutralidad de red como: (1) la de ofrecer comercialmente controles parentales para contenidos que atenten contra la ley, la moral o las buenas costumbres; y, (2) la de publicar en su sitio web, toda la información relativa a las características del acceso a Internet ofrecido, su velocidad, calidad del enlace, diferenciando entre las conexiones nacionales e internacionales, así como la naturaleza y garantías del servicio.

Basta recordar que la autoridad de competencia chilena sancionó en el 2006 a Telefónica por precisamente impedir que una empresa que contrataba sus servicios de acceso a Internet preste el servicio de VoIP para empezar a dudar si en verdad es necesaria más regulación (Caso Voissnet v. Telefónica CTC). ¿Qué garantías adicionales ofrece esta ley que no puedan ser alcanzadas a través de la aplicación de las normas de libre competencia, de telecomunicaciones y protección al consumidor? Como señala el propio Clunes, cuyo artículo data del 2008 pero no ha perdido vigencia, quizás la mejor solución no sea regular sino atacar el problema, si se presenta, a través de una serie de intervenciones regulatorias que le den un mensaje claro al mercado: la discriminación en la capa de contenidos con fines anticompetitivos no es una opción. Por lo demás, lo de la protección contra virus y el control parental es una clara radiografía de que el tema no ha sido comprendido del todo por los legisladores.

Espero que la Ley de Neutralidad de Red, de aprobarse, no termine durmiendo el sueño de los justos como la peruana. No olvidemos que en Perú el artículo 7 del Reglamento de Calidad de los Servicios Públicos de Telecomunicaciones consagra una regla parecida y no ha sido aplicada desde su promulgación en el 2005 pese a que, al menos contractualmente, los operadores la han querido desconocer. Quizás la mejor lección que podamos extraer de eso es lo difícil de aplicar reglas de este tipo sin un regulador sólido o lo poco apropiado que resulta una regulación explícita cuando se tiene un mercado dinámico bajo reglas de libre competencia y de protección al consumidor. Ya en la nota curiosa, sería gracioso que en el futuro sumemos a las bizarras discusiones entre Perú y Chile la de qué país reguló primero la neutralidad de red.

Foto: Armando Lobos (CC BY NC-ND)

Que el portero marque tarjeta: Google Neutrality

Este 14 de julio el New York Times editorializó (The Google Algorithm) sobre la revolucionaria idea de regular a Google. De acuerdo con la tesis del Times, Google controla las dos terceras partes de las búsquedas en Internet y genera la mitad del tráfico en la mayoría de los sitios web. Así, una modificación de su algoritmo podría poner a un sitio web en posiciones poco destacadas del ranking de resultados (PageRank) lo cual significaría su perdición. Esta idea se torna creíble desde que Google decidió diversificar sus actividades a una serie de servicios en línea (Google Maps, YouTube, GMail y un largo etc.) con lo cual podría diseñar un algoritmo que favorezca sus propios negocios en perjuicio de los sitios de sus rivales. La solución a este problema: una agencia estatal que supervise al portero de Internet.

Esta idea constituiría un principio de nuevo cuño que se ha venido a llamar la Neutralidad de búsqueda o Search Neutrality, primo hermano de lo que hasta el hartazgo se conoce como Neutralidad de la red o Net Neutrality. Existen antecedentes. En febrero de este año FoundemCiao!, dos sitios de comparación de precios y E.justice, un buscador de recursos legales francés, denunciaron a Google ante la Comisión Europea por prácticas contrarias a la Libre Competencia. En todos estos casos la queja fue la misma, Google “fondea” las páginas de sus rivales en los ranking de resultados y privilegia sus actividades. Como era de esperar, la Comisión, más rápido que volando, inició la investigación (Telegraph: Google under investigation for alleged breach of EU competition rules y The New York Times: Sure, It’s Big. But Is That Bad?). Sobre este tema recomiendo la entrada de Mario Zúñiga en Enfoque Derecho (¿Tiene el buscador de Internet la obligación de implementar sistemas de búsqueda “neutrales”?).

La respuesta de Google al Editorial del Times fue inmediata y es una oda contra la neutralidad de las búsquedas en Internet (Our op-ed: Regulating what is “best” in search?). Curioso y paradójico pienso, que quien exige la neutralidad de la red no esté dispuesto a soportar los mismos principios cuando éstos le pegan directamente. Algo así como la paja en el ojo ajeno. Google cree que existen muchos motores de búsqueda y que los usuarios son libres de decidir y usar el algoritmo del motor de búsqueda que responda mejor a sus requerimientos de información. Entonces el concepto de Neutralidad de búsqueda constituye una amenaza a la competencia y, fundamentalmente, a la capacidad de innovar sobre la mejor forma de buscar la información.

Sobre el editorial del Times me han parecido particularmente interesantes, el titular de una entrada de Denken Über (El gobierno debería regular al New York Times) y el artículo que lo inspira, de Danny Sullivan (The New York Times Algorithm & Why It Needs Government Regulation). Con ironía, Sullivan utiliza el mismo análisis del Times para concluir sobre la necesidad de regularlo. El Times es el diario más influyente entre los líderes de opinión, de tal suerte que cuando ajusta hacia abajo los niveles de cobertura de determinada organización puede llegar incluso a quebrarla. El New York Times ha ramificado sus inversiones hacia diversos sectores y tiene por tanto incentivos para perjudicar a sus rivales. Entonces, para Sullivan, sólo una comisión gubernamental sería ser la mejor opción para limpiar al Times de cualquier sospecha.

Pero Sullivan nos recuerda otro aspecto interesante, los tribunales americanos ya se han pronunciado respecto de los resultados de las búsquedas de Google. En el caso seguido por KinderStart contra Google (C 06-2057 JF (N.D. Cal. March 16, 2007)) el Juez entendió que el ranking de Google es una opinión generada algorítmicamente y por este hecho arbitraria, por lo tanto no puede hablarse de un mal ranking. Incluso, Google podría optar por asignar PageRanks al azar, lo cual, según la interpretación del Juez no sería incorrecto .

Google realiza millones de búsquedas al día y una multitud de empresas sobreviven a sus resultados sin mayor problema. En la actualidad, no es acertado hablar de Google como el único portero de Internet, dado que empiezan a aparecer otros cancerberos que le quitan valor a esta afirmación. Ahí están Facebook y Twitter para demostrarlo.

El clamor del Times se enmarca dentro de un intento por crear una regulación extensiva, amplia y pulposa de la neutralidad. Limitada en un principio a las infraestructuras de telecomunicaciones (Net Neutrality y Wireless Net Neutrality) la neutralidad se cierne omnipresente para las demás capas de la Internet. Ahora nos encontramos con requerimientos de neutralidad en las búsquedas (Search Neutrality), neutralidad de los dispositivos (Device Neutrality), neutralidad de las aplicaciones (Application Neutrality) y así, se la empezará a invocar para las redes sociales, correo electrónico, mensajería instantánea, publicidad en línea, etc.  (The Day Real Internet Freedom Died: Our Forbes Op-Ed on Net Neutrality Regulation)

Imaginémonos por un momento que la descabellada propuesta del Times prospera. Primero —harto complicado-, habrá que decidir quien será el regulador: ¿Una agencia del gobierno de los Estados Unidos? ¿La Comisión Europea? ¿OSIPTEL? Podríamos llegar al absurdo de tener tantas regulaciones -y algoritmos- como lugares donde se puede consultar Google. Un pandemonio en toda regla. Supongamos que, luego de decidir al regulador, Google cree conveniente hacer una pequeña modificación de su algoritmo y comunica esta decisión al OSALG (Organismo Supervisor del ALgoritmo de Google) para que la apruebe. El OSALG, como no podía ser de otra forma que para eso está, rechaza la modificación por que no es lo suficientemente transparente y dado que, a su juicio, Google no ha demostrado que la modificación del algoritmo es mejor que la versión existente. Google tiene dos caminos, o se va a pelear a los tribunales —que resolverán luego de tres años- o sigue discutiendo con el OSALG. Decide hacer lo segundo y luego de ocho meses —con informes de consultoras y estudios de abogados de por medio- el OLSAG aprueba la modificación del algoritmo de Google.

Cuando Google haya perdido gran parte de su cuota de mercado, no creo necesario aclarar por qué, aparecerán los del OLSAG en los medios para sostener el modelo: la caida de cuota se debe a su intervención y a sus estrictas políticas procompetitivas.

Después, seguro que se dice que la neutralidad no afecta la innovación.

Algunas neutralidades en Blawyer

Application Neutrality

1984, veinticinco años después

Cien años después, Apple censura el Ulises

– Cómo detener el futuro de Internet

Nubes negras sobre el Internet generativo

Device Neutrality

– Diferencias entre el Carterphone y el iPhone Jailbreaking

– iPhone Jailbreaking

– Nokia y las telcos, enemigos íntimos

Net Neutrality

El ruido y la furia del caso Comcast (1)

¿Es Internet como una carretera?

Wireless Net Neutrality

¿Qué hay detrás del iPhone 3G de Claro?

El ruido y la furia del caso Comcast (1)

El debate sobre la Neutralidad de Red en Estados Unidos está más activo que nunca. Jules Genachowski, presidente de la FCC, ha asumido como un reto personal lograr que el regulador de las telecomunicaciones estadounidense pueda tratar a los proveedores de acceso de banda ancha bajo el régimen de common carriers en lo que él llama la lucha por preservar una Internet libre y abierta. Luego de que en abril una Corte de Apelaciones rechazara la jurisdicción de la Comisión sobre los proveedores de acceso de banda ancha en el caso Comcast, ahora la FCC pretende conseguir que el Congreso se lo autorice a través de una ley federal.

El resultado de este debate probablemente marque la pauta para el futuro del controvertido principio de Neutralidad de Red y el desarrollo del mercado de Internet en Estados Unidos. Esta es la primera entrega de una serie de entradas en las que leeré y analizaré los distintos elementos esta controversia. Si bien es un caso sobre derecho de la telecomunicaciones en Estados Unidos, la importancia de los temas que puede alcanzar tarde o temprano otras jurisdicciones.

El marco regulatorio de los proveedores de acceso de banda ancha

La provisión de acceso de banda ancha en Estados Unidos no está afecta al régimen de las public utilities (similar a nuesto régimen de servicio público). La intensidad de la regulación a la que está sujeta esta actividad, por ende, es considerablemente menor en comparación con la aplicable a las empresas de telefonía fija, por ejemplo. Las empresas que prestan servicios públicos de telecomunicaciones (common carrier) están bajo la supervisión directa de la FCC, tienen la obligación de cobrar tarifas razonables, están prohibidas de otorgar un acceso preferente y tienen una carga tributaria distinta.

El acceso a Internet a través de las redes telefónicas, incluyendo el acceso DSL, fue considerado desde el inicio como un servicio público de telecomunicaciones. En agosto de 2005, la FCC reclasificó a este tipo de servicio como servicios de información y los liberó de las obligaciones de los common carrier, pasando a estar regulados por el Título I de la Telecommunicatons Act. A la vez, publicó los famosos cuatro principios de Neutralidad de Red que intentaban compensar el efecto del cambio de regulación fijando ciertas limitaciones. Estos principios, sin embargo, eran una mera declaración de la FCC y no establecían obligaciones regulatorias exigibles administrativa o judicialmente. Cabe señalar que, desde entonces, la esencia de estos principios se ha volcado en distintos proyectos de ley federales que no han llegado a ser aprobadas por el Congreso.

Por otro lado, la provisión del servicio de acceso de banda ancha por parte de las empresas de cable siempre ha sido considerada como un servicio de información y no un servicio público de telecomunicaciones. Así lo estableció la Corte Suprema en el caso National Cable & Telecommunications Association v. Brand X Internet Services (2005). El desarrollo reciente del mercado en Estados Unidos ha hecho que sean estas empresas los mayores proveedores de Internet en el país y que, por lo señalado, no se encuentren sujetas a las regulaciones de un common carrier y fuera del ámbito de supervisión de la FCC.

Lo que pasó con Comcast

Comcast es el mayor proveedor de televisión por cable y acceso de banda ancha en Estados Unidos. Además, también participa del negocio del broadcasting como accionista mayoritario de la cadena NBC Universal. En el año 2007, Comcast fue denunciada ante la FCC por dos organizaciones de la sociedad civil por bloquear el tráfico peer-to-peer e impedir que sus usuarios utilicen las aplicaciones que se soportan en estas redes (como BitTorrent o Ares). La empresa inicialmente negó estas acusaciones y luego reconoció que solo estaba bloqueando dicho tráfico como una medida para descongestionar el flujo de datos en las redes en aquellos lugares donde el abuso de estas aplicaciones afectaba la calidad del servicio. Tras una serie de pruebas ofrecidas por la FCC, Comcast terminó reconociendo que dichas prácticas no se realizaban solamente en los lugares donde había congestión. Debido a la controversia que esto provocó, la empresa prometió públicamente abandonar dicha práctica. De cualquier forma, en agosto de 2008, la FCC determinó que Comcast había violando la ley federal y sus Cuatro Principios, ordenándole demostrar que había abandonado dichas prácticas y, en el futuro, hacer transparente con sus usuarios sus políticas respecto del manejo del tráfico (.pdf). La empresa, sin embargo, no fue sancionada económicamente. Antonio Rodriguez Lobatón siguió de cerca esta decisión.

La Comisión desestimó la tesis de Comcast, que sostenía que dichas prácticas constituían una forma razonable de gestión de red y que su único interés era contrarrestar la congestión de red. A contrario, la Comisión determinó que las medidas tomadas no necesariamente servían a el propósito alegado y tenían consecuencias que consideró contrarias al marco regulatorio. Así, el bloqueo del tráfico peer-to-peer: (1) afectaba a aquellos usuarios que usaban poco ancho de banda por el solo hecho de usar una aplicación desfavorecida, (2) no solo se usaba durante los períodos de congestión de red, (3) no se aplicaba únicamente en los lugares en los que se daba la congestión, y, (4) un usuario podría ser el causante de la congestión de red y no verse perjudicado si no usa una de las aplicaciones desfavorecidas.

La FCC dejó claro, sin embargo, que su intención era proteger el derecho de los consumidores a acceder a contenido legal (lawful content). En consecuencia, bloquear contenido ilegal como pornografía infantil o descargas ilegales de música sí sería consistente con la legislación federal sobre Internet. El problema con Comcast era que su sistema no era capaz de discriminar el contenido legal del ilegal.

En la siguiente entrada de esta serie analizaremos en detalle los argumentos de la Comisión.

Foto: Steve Garfield (CC BY-NC-SA)

Nubes negras sobre el Internet generativo

Cloud computing o computación en nube es el último grito de la moda y nadie debiera pasarla por alto.

Como definición, reproduzco una que leí en el blog de la CMT que me pareció buena (Subirse a la nube): “Cloud computing es un estilo de computación que proporciona recursos, dinámicamente escalables y a menudo virtualizados, como servicios”. Hablamos de la cloud como servicio, en la medida que los usuarios disponen de aplicaciones y almacenan su información en un servidor de Internet, en vez hacerlo en una PC.

Durante la era de las PC el dúo formado por Microsoft e Intel (Wintel) fue capaz de presentar un sistema indisoluble basado en una PC montada sobre un sistema operativo Windows y un microprocesador Intel. Muchos empiezan a afirmar que este paradigma tiene los días contados. Hace unos días Google anunció el lanzamiento de su Chrome OS (The Chromium Projects), que según algunos entendidos (error500: El sistemas operativo de Google y el regreso del terminal tonto) consiste en “(…) capar un sistema operativo, impedir que ejecute cualquier cosa que no sea un navegador, funcionar sobre un hardware seleccionado (nada de instalarlo en cualquier equipo que uno elija) y, eso sí, arrancar muy rápido“.

httpv://www.youtube.com/watch?v=0QRO3gKj3qw

Microsoft también mueve ficha en la misma dirección lanzando casi paralelamente dos nuevos y radicalmente diferentes productos (anunciados en la Professional Developers Conference del año pasado). El primero, la plataforma Azure, como un sistema operativo dentro de la nube. Luego, el sucesor del desafortunado Vista, Windows 7, que sirve como sistema operativo de Microsoft (OS).

The Economist (Clash of the clouds), ve al cloud computig inserto en un profundo cambio sistémico de la industria de la informática y de las comunicaciones electrónicas. No solo traslada el centro de gravedad de Microsoft. Hasta ahora, los avances tecnológicos movieron a la industria de dos ejes centrales, primero de los mainframes a los minicomputadores; y, luego a la PC. Ahora, una combinación de procesadores cada vez más potentes, baratos y rápidos y de redes más ubicuas, está impulsando el poder al centro, en algunos aspectos, y en otros alejándolo. Los centros de datos de la nube son enormes mainframes públicos. Al mismo tiempo, la PC está siendo reemplazada por una multitud de pequeños dispositivos, a menudo inalámbricos, como smartphones, netbooks y, pronto, tablets PC.

Pero no todo es luminoso en este panorama. Algunos ven con el cloud computing un regreso a los terminales tontos y a una pérdida de la generatividad de Internet.

Jonathan Zittrain (Cómo detener el futuro de Internet) en el Times (Lost in the Cloud) advierte alguno de los riesgos implícitos de este proceso. Por ejemplo, si un consumidor contrata un servicio de suscripción de música en línea en lugar de custodiarla en su propia PC, puede perderla si se atrasa en los pagos, si el proveedor quiebra o pierde interés en seguir participando en el negocio. No olvidemos que hace pocos meses Amazon decidió por su cuenta y riesgo borrar de todos los Kindles las copias electrónicas de las novelas 1984 y Rebelión en la granja de George Orwell (1984, veinticinco años después). Se pueden dar multitud de ejemplos de este tipo. Sin embargo, no son estos los peligros más importantes para Zittrain.

El mayor reto de la nube sería su efecto sobre la libertad para innovar. El legado fundamental de la PC es que permite a cualquier persona escribir código desde el extremo y utilizarlo de la forma que considere más conveniente. Los fabricantes de la PC o los creadores de su sistema operativo no tiene ninguna participación en este proceso. Sin embargo, esta libertad estaría en riesgo con la cloud, donde los proveedores de las plataformas de servicios y contenidos tienen un mayor control respecto del software escrito por terceros. Facebook, permite añadir funcionalidades al sitio, pero podría cambiar esta política en cualquier momento. Lo mismo se puede decir de Apple, que decide quién escribe código para el iPhone y qué programas se ejecutarán. Estas empresas pueden utilizar este poder de una forma nunca soñada por Bill Gates cuando era el rey de Windows.

No creo sinceramente que estos temores estén justificados. Cloud compunting es el camino natural para convertir a la nube en el servicio y es también una prueba de la generatividad de la red y no lo contrario. Apple, Microsoft, TiVo, Facebook y Google ofrecen servicios que cubren las necesidades de los consumidores. Si bien nadie puede estar de acuerdo con la patética actuación de Amazon al retirar la versión de 1984 de su Kindle, no debemos pasar por alto que a los propietarios de estas plataformas se les exige que hagan efectivo este control, recordemos el caso de “Mis observadores” de Facebook (Facebook y los observadores). Si funciona no lo arregles se suele señalar, seguiremos escribiendo sobre el tema en siguientes entradas.

[vsw id=”ae_DKNwK_ms” source=”youtube” width=”425″ height=”344″ autoplay=”no”]

[vsw id=”6PNuQHUiV3Q” source=”youtube” width=”425″ height=”344″ autoplay=”no”]

Net neutrality a consulta pública

Coincidiendo con el caso Medison River Communications en el 2005, algunos intelectuales y proveedores de contenidos en Internet lanzaron la idea de aprobar legislativamente el principio conocido como neutralidad de la red o Net neutrality. Desde aquel momento, openistas y regulacionistas han venido afilando el hacha y se han enfrentando regularmente, ya sea para negar o estimular la validez de esta pretensión.

Y así andaban, como Massé y Sifuentes en Radio Capital (Massé y Sifuentes a porrazos), hasta que el hoy presidente Barack Obama, rendido a los pies del ciberactivismo más radical, anunció durante la campaña electoral presidencial americana su firme compromiso con la Net neutrality. También prometió implementar, durante su primer año en funciones, el marco legislativo para asegurar su escrupuloso cumplimiento. De esta forma el movimiento pro neutralidad empezó a mover sus fichas.

httpv://www.youtube.com/watch?v=Vd8qY6myrrE

A finales del mes de junio Barack Obama nombró al defensor de la Net neutrality, Julius Genachowski, como presidente de la Federal Communications Commission (Comisión Federal de Comunicaciones – FCC), el regulador de las telecomunicaciones en los Estados Unidos (Cambios en la FCC). Una vez cumplido este trámite, lo único que cabía era esperar cuando se anunciarían las medidas legislativas en favor de la Net Neutrality.

Hace poco más de un mes, el pasado 21 de septiembre para ser exactos, el flamante presidente de la FCC pronunció un discurso ante The Brookings Institution, en el que desvelaba su programa para «preservar una Internet libre y abierta: una plataforma para la innovación, la oportunidad y la prosperidad». La propuesta de Genachowski significa en la práctica el incremento de la regulación y de las obligaciones que soportan los operadores de red de telecomunicaciones. Específicamente se pretende incorporar al marco regulatorio seis nuevas obligaciones para los operadores de red. Estas obligaciones parten del proceso de incorporar dos nuevas recomendaciones a las cuatro ya existentes sobre la neutralidad de red (New Principles Preserve and Promote the Open and Interconnected Nature of Public Internet), vigentes desde agosto de 2005, y de elevar todas a rango de ley. No nos olvidemos que estas recomendaciones, únicamente constituían principios informadores de las políticas de la FCC.

Las dos obligaciones adicionales serían: (5) Principio de no discriminación: Los proveedores de acceso no pueden discriminar contra contenidos o aplicaciones concretas, siempre que sean legales; y, (6) Principio de transparencia: los operadores de red deben informar de los mecanismos que utilicen para gestionar el tráfico en la red.

Siguiendo esta línea, el 22 de octubre, la FCC ha iniciado una consulta pública (Nota de prensa) sobre el proyecto de reglamento para complementar los principios de apertura existente en Internet (Propuesta de regulación). Pero como a toda acción le sigue una reacción, de acuerdo con la Tercera Ley de Newton, ya se están presentando en el congreso de los Estados Unidos diversas iniciativas para limitar el papel regulador de la FCC sobre Internet (McCain introduces bill to block Net neutrality).

En diciembre del año pasado Cord Blonquist en openmarket.org profetizaba que el 2009 vería el apaciguamiento de las posiciones de quienes defendían la Net nutrality (¿Habrá una ley pro Net Neutrality en USA?). Parece que acertó, no tendremos ley pro neutralidad de la red este año, pero es más que probable que se apruebe el año que viene. Creo que la principal virtud de quienes propusieron regular sobre la neutralidad de la red, ha sido traer al tapete aspectos tan importantes como la gestión del tráfico, el financiamiento de la red, la censura y la necesidad -o no- de mantener la arquitectura original de Internet. No mucho más.

Los regulacionistas no vociferan la necesidad de la Net neutrality para proteger a Internet de una epidemia moderna, lo hacen para evitar que determinadas organizaciones puedan imponer una serie de restricciones consideradas ilegítimas -o por lo menos cuestionables- en un futuro. Aclarando, no lo han hecho pero se presume que podrían hacerlo. Es decir, reconocen la maldad intrínseca de los operadores de red y por lo tanto es necesario reprimir su capacidad para dañar a Internet. No creo que nos encontremos ante un argumento plausible.

Todos los casos reportados como amenazas al Internet libre (Medison River Communications o Comcast), fueron solucionados por las instancias competentes sin necesidad de echar mano a ningún nuevo ordenamiento (Comcast incumplió las políticas de la FCC, pero no será multada). No parece pues necesario desplegar todo un cuerpo legislativo para componer algo que no está malogrado.

Desarrollaremos estas ideas en entradas posteriores.

[vsw id=”dF7rbOj-HPA” source=”youtube” width=”425″ height=”344″ autoplay=”no”]

Discruso de Julius Genachowski en el Brookings Institute