Lluvia de millones

Hace unos pocos meses nuestro mundo era feliz. La casi bancarrota de Fannie Mae y Freddie Mac y su posterior rescate por el gobierno americano, nos trajeron de un porrazo a una realidad penosa, difícil de asimilar y a mil por hora. Nada de anestesia o glide path, mazazo al mentón y a dormir o mejor dicho a despertar. Sobre el particular leí hace poco una frase de Tim Wu (Keynes 72 years ago) que me pareció fenomenal «… cuando el desarrollo del capital de un país se convierte en un subproducto de las actividades de un casino, es probable que el trabajo se haga mal«. 

En este mundo feliz -es decir, antes que descubriéramos que las finanzas mundiales se había convertido en una monumental timba- las empresas de telecomunicaciones y los Estados venían anunciando enormes inversiones para solventar los despliegues de las nuevas redes de banda ancha. Era de esperar que el tremendo desaguisado posterior, hiciera que estas inversiones se paralizaran o por lo menos se ralentizaran.

Pero si los gobiernos son liberales (neo liberales les dicen ahora) cuando las cosas van bien económicamente, fustigando las barreras creadas por el intervencionismo estatal se vuelven proteccionistas cuando aparecen fallos en el sistema. De Smith a Keynes y de Keynes a Smith. En esta danza muchos de los que antes exigían libertad son los que ahora piden intervención.

Este escenario aconsejaría ralentizar las inversiones en banda ancha. Pero no, por el contrario, en muchos lares del mundo desarrollado, se vienen anunciando millones de euros y dólares para financiar los nuevos proyectos de fibra.

En Europa Comunidad Europea aprobó, en noviembre del año pasado, un plan de medidas para enfrentar la crisis internacional (COM(2008) 800 final). Entre las medidas a impulsar por parte del ejecutivo europeo encontramos la necesidad de desplegar conexiones a Internet de alta velocidad, como una manera de promover la rápida difusión tecnológica que permita crear una demanda de productos y servicios innovadores. La estrategia contaría con el apoyo de fondos públicos para alcanzar la meta de 100% de cobertura de Internet de alta velocidad para el año 2010. Para lograrlo se dispondrá de un canal de € 1 mil millones. Poco dinero para tanta ambición, si notamos que sólo las holandesas KPN Reggefiber planean invertir entre € 6 y 7  mil millones para los próximos años.

En los Estados Unidos, con la tenaz resistencia de los republicanos en el Congreso, el Presidente Obama aprobó el pasado 17 de febrero en Denver la Ley para la Recuperación de América y la Reinversión (American Recovery and Reinvestment Act of 2009) conocida como «Stimulus Bill», que confía será suficiente para empezar a superar la crisis. El costo del plan es de 787.000 millones de dólares parte del cual será destinado a inversiones en infraestructuras, ayudas sociales y transferencias a los Estados. 

En lo que nos compete, el plan de Obama destinará un total de $7.85 mil millones (Arrancan los planes públicos para la banda ancha) para el desarrollo de las telecomunicaciones de la siguiente forma: $7.2 mil millones para el despliegue de una red de banda ancha y acceso a Internet inalábrico y $650 millones para la conversión a la Televisión Digital Terrestre (DTV). El proyecto intenta promover la implantación de la banda ancha en zonas sin servicio y ampliar su disponibilidad en zonas de baja penetración urbana. Cualquier entidad es elegible para solicitar una subvención (municipios, asociaciones público-privadas y empresas privadas), siempre que cumplan con la «neutralidad de la red» es decir, estas redes deben estar libres de restricciones con relación a los contenidos, sitios o plataformas, a los equipos que puedan conectarse y los modos de comunicación permitidos.

Como vemos a pesar de la verdadera lluvia de millones que las distintas administraciones están presupuestando para intentar revertir el ciclo económico adverso, el dinero que está destinado a desarrollar las redes de banda ancha no es que caiga a chorros. Cuando todas las industrias piden su plan de rescate –industria del porno incluida– parece que los fondos públicos destinados al desarrollo de la banda ancha no se condicen con las ambiciones expuestas.

Viva l’Italia

Un par de noticias difundidas en el último meses nos dicen mucho acerca de lo que bien podríamos llamar Net nutrality a la italiana.

Las autoridad de competencia italianas (Autorita´ garante della concorrenza e del mercato) ha impuesto una multa de 60 mil euros a la operadora de origen sueco Tele2 por filtrar el tráfico p2p de sus clientes sin advertir contractualmente de la realización de la práctica. La resolución -en Italiano- está colgada en la página de la AGCM.

La denuncia fue iniciada por la asociación de usuarios ADUC (Associazione per i diritti degli utenti e consumatori) que acusó a Tele2 de realizar publicidad engañosa, mientras que la web de Tele2 mencionaba expresamente que su ADSL no tenía límites de tráfico, la velocidad de los programas p2p se reducía drásticamente durante determinadas horas.

La autoridad de competencia consideró que Tele2 ocultó intencionalmente su política con relación al tráfico p2p.

La otra información es más importante. El Gobierno italiano preve adoptar un modelo similar al francés para bloquear el acceso a Internet de quienes descarguen cierto tipo de contenidos. Este modelo sancionará a aquellos usuarios que descargan música y películas sin tener los correspondientes derechos de autor. Una que el usuario infractor reciba determinado número de comunicaciones de advertencia por parte de la autoridad en las que se le recomendará dejar de realizar esta acción se procederá al corte del servicio de Internet.

Es curioso pero aún cuando se declara la relación de estas noticias con la Net neutrality, no parece en el fondo que nos los italianos estén discutiendo en realidad la introducción de este principio. Como veremos estamos ante dos situaciones completamente distintas.

El primer caso, nos encontramos claramente ante una situación de publicidad engañosa y de protección al consumidor. En un mundo donde el p2p está permitido lo mínimo que se le debe exigir a las empresas operadoras es que informen a sus abonados que van a restringir el uso de este tipo de conexiones  Este hecho, no informar debidamente un aspecto importante del servicio, es una conducta reprochable con Net neutrality o sin ella. Por el contrario la sanción pareciera que plantea que en Italia si es permitido realizar este tipo de prácticas contra las redes p2p por parte de las empresas operadoras, a diferencia de lo ocurrido en los Estados Unidos, cuando la FCC ordenó a Comcast (Comcast incumplió las políticas de la FCC, pero no será multada) que cesara de gestionar el tráfico hacia ciertas redes en la medida que estaba violando los principios de Powell.

La otra decisión pone en entredicho la figura tradicional y neutral de los operadores de telecomunicaciones con relación al tráfico que circula por la red. En lo particular es una iniciativa peligrosa  en la medida que obliga a que alguien realice determinado monitoreo y husmeo de las actividades de los internautas, lo cual puede considerarse como una vulneración de derechos fundamentales. Lo importante aquí no es si detecto algunas violaciones de los derechos de autor, sino, cuántas veces restringí el derecho a la intimidad o al secreto de las telecomunicaciones para saberlo.

Cambios en la FCC

De acuerdo con savetheinternet.com (Net Neutrality Advocate to Lead FCC), el Wall Street Journal (Obama to Tap Tech Adviser as FCC Chief) y el Washington Post (Obama Picks Julius Genachowski to Head FCC) el hoy presidente electo de los Estados Unidos Barack Obama estaría pensando en el defensor de los criterios de la Net neutrality, Julius Genachowski, para presidente de la Federal Communications Commission (Comisión Federal de Comunicaciones – FCC), el regulador de las telecomunicaciones en los Estados Unidos.

Genachowski es uno de los artífices de la campaña en línea de Obama y de su plataforma tecnológica en pro de la Net neutrality, por la que Obama se comprometió a «garantizar un pleno y libre intercambio de información» y de no cejar en su compromiso con la neutralidad de la Red.

Genachowski ha sido jefe legal de Reed Hundt, presidente de FCC durante el periodo del presidente Bill Clinton, más recientemente es co fundador de LaunchBox Digital, una empresa de capital de riesgo con sede en Washington. También trabajó para IAC/InterActive Corp. en varios cargos ejecutivos.

En octubre de 2007, Obama se comprometió en una entrevista en YouTube / MTV a establecer una norma que asegurara la Net neutrality durante su primer año en funciones y a nombrar como presidente de la FCC a alguien que estuviera comprometido con esta meta.

La FCC está dirigida por cinco comisionados nombrados por el Presidente y ratificados por el Senado para un periodo de 5 años. Es el presidente quien designa cual de los comisionados hará las veces de presidente. Sólo tres Comisarios pueden ser miembros del mismo partido político.

Esta es una noticia doméstica que no tendría mayor relevancia si no fuera por el impulso que aparentemente Obama pretende darle a la Net nutrality durante su gestión, ya sabemos de la influencia ideológica que ejerce sobre nuestros reguladores la FCC. En lo particular pienso que un esfuerzo de esta naturaleza traerá más problemas que beneficios, pero es posible que la apuesta que reprodujeramos en un post antetior (¿Habrá una ley pro Net Neutrality en USA?) no se vaya a cumplir.

Genachowski realizó donaciones a la campaña de Obama por un valor de US$ 500,000.

¿Habrá una ley pro Net Neutrality en USA?

Cord Blomquist hace una polla (en el Perú lo que en otros lares es apuesta o lotería): en este año no se aprobarán las tan deseadas leyes que aseguren la neutralidad de la red. Esta profecía, aparece sustentada en un extenso post (Prediction 2009: No Net Neutrality Regulation) de OpenMarket.org, blog del Competitive Enterprise Institute. A continuación resumimos la posición de Blomquist no sin antes recomendar su lectura.

Para el autor el 2009 podría ver la muerte de las posturas en favor de la regulación de la Net neutrality y veremos a algunos de los más ardientes partidarios de la neutralidad suavizar sus posturas, pues parece obvio que las soluciones no neutrales son el mejor camino para hacer frente al aumento de los contenidos en Internet. 

La mayor útilidad neta de la neutralidad ha sido generar discusión política sobre la censura, la cuestión de la priorización de tráfico y sobre la arquitectura física de la Internet.

Censura. La historia ha demostrado que ninguna ley asegura que los proveedores de servicios se mantengan neutrales con relación a los contenidos. Es la acción pública la que ha forzado a los proveedores de Internet a caminar hacia la neutralidad. Como ejemplo, en setiembre de 2007 Verizon denegó una solicitud de la National Abortion Rights Action League (NARAL) para enviar un mensaje SMS a aquellos de sus miembros que habían autorizado su recibo. La decisión se interpretó como un ataque contra el movimiento. El clamor público generó un cambio en las políticas de Verizon, que finalmente concedió a NARAL la posibilidad de enviar sus mensajes y el mismo trato se dio a los grupos pro-vida.

Priorizar Tráfico. Un sofisticado proceso de priorización de datos ha acompañado el crecimiento de Internet, lo cual permite dar una respuesta a la dinámica de la demanda y reducir los abusos de prácticas como el spam. Los impulsores de la neutralidad creen que las técnicas de gestión de red son inaceptables. Sin embargo, el Internet comercial ha sido siempre un sistema de prioridades. Como ejemplo señala el caso de Comcast -que hemos seguido en este blog (Los seguidores de la Net Neutrality se anotan una victoriaComcast podría ser sancionada en agostoComcast incumplió las políticas de la FCC, pero no será multada), donde la operadora fue finalmente obligada a detener la práctica de bloquear el tráfico de BitTorrent y a asociarse con ésta para abordar el problema de la gestión de la red. La presión pública fue tan grande que Comcast cambió su política y aprobó un tope mensual de 250 gigabytes de tráfico para los usuarios.

Arquitectura de la Red. Internet está físicamente construido por muchas pequeñas redes. Estas redes intercambian datos entre sí para formar Internet. Este modelo de red, sin embargo, se ha construdo a través de lo que se conoce comúnmente como «lineas cortas» y «vías rápidas». Las líneas cortas son utilizadas por compañías como Akamai y Google para brindar un mejor servicio, colocando los datos cerca a los usuarios. Las vías rápidas permiten burlar rápidamente las vías con mayor tráfico. Durante los Juegos Olímpicos de Beijing, los servidores del Comité Organizador enviaban los videos de los Juegos sobre su propia red mundial de fibra óptica a los servidores de los proveedores de servicios de Internet. Los partidarios de la neutralidad creen que un acuerdo de este tipo representa una ventaja injusta a las empresas más poderosas.

Algunos partidarios de la neutralidad se están apartando de la causa. A pesar del reciente artículo del Wall Street Journal (Google se pasa al lado oscuro, ahora es elooG), que señalaba que Google estaba construyendo su propia vía rápida, fue inexacto (en realidad se trataba de una línea corta), la historia era en parte cierta. Muchos de los partidarios de la neutralidad como Microsoft, Yahoo y Amazon han cambiado de tono. Estas empresas están realizando acuerdos con proveedores de servicios de Internet para ofrecer sus contenidos de manera más eficiente.

La muerte de la reglamentación de la neutralidad representa el reconocimiento de que el tribunal de la opinión pública es mucho más rápido y justo que cualquier regulador. La política pública debe centrarse en asegurar que haya más lugares para los consumidores. Incrementar la competencia en los mercados de banda ancha a través de la flexibilización de las restricciones a las redes inalámbricas sería un buen comienzo. Ya sea a través de la ampliación de los bienes comunes o (preferiblemente) con la creación de propiedad privada sobre grandes franjas del espectro. No es necesario para ello una ley pro Net neutrality.

La RIAA deja los juicios, ahora corta el servicio

Luego del supuesto abandono de Google de los criterios de la Net Neutrality o neutralidad de la red (Google se pasa al lado oscuro, ahora es elooG) el Wall Street Journal publica otra noticia importante (Music Industry to Abandon Mass Suits). Según el diario la Recording Industry Association of America (RIAA), luego de varios años de demandar a miles de ciudadanos por descargar supuestamente música a través de Internet, está dispuesta a abandonar esta estrategia en la medida que ahora estima que existen formas más eficaces de luchar contra estas actividades.

A partir del año 2003 la RIAA inició una serie de demandas contra los supuestos infractores de sus derechos de autor hasta alcanzar la suma de 35.000 personas, estas acciones no sólo afectaron de forma importante la imagen de la industria sino que tampoco hicieron gran cosa para evitar que los usuarios de Internet continuaran descargando música masivamente. Como se recordará, gracias al modelo empleado para emplazar a los demandados conocido como «John Doe«, la RIAA inculpó a menores de edad, ancianos, una impresora láser y hasta a una persona que había fallecido. Esta seguidilla de demandas, no sólo ha desgastado a la industria sino que tampoco puede exhibir ningún precedente judicial importante a su favor. 

Según la nota, la RIAA pretende alcanzar una serie de alianzas con los ISPs más importantes, a partir de las cuales desarrollar un procedimiento, similar al de la Digial Millennium Copyright Act (DMCA), que suponga un freno para las descargas ilegales en Internet. De acuerdo con la nota, una vez que se ha detectado al infractor, se le enviará un correo electrónico al proveedor. Dependiendo del acuerdo alcanzado, el ISP alertará a sus clientes suspendan la actividad, si éstos continúan con la práctica, recibirán un par de mensajes más, o quizá aletargando su servicio de acceso a Internet. Por último, el ISP podrá cortar el acceso por completo. El modelo no es original, se ha implementado en Francia por el gobierno del presidente Sarkozy y se está discutiendo en Inglaterra.

Es posible que en esta oportunidad los ISPs tengan una mayor predisposición a colaborar con la RIAA que en años anteriores, pues vienen desarrollando modelos de negocio con sellos discográficos propios que podrían colisionar directamente con la descarga de contenidos por parte de sus usuarios. Por otro lado, el hecho que sean ahora los propios ISPs quienes se comunicarán con sus abonados, evita que revelen la identidad de los infractores, lo cual suaviza uno de los aspectos más polémicos de la anterior estrategia.

Sobre el particular, existen demasiados puntos oscuros que tal vez se vayan aclarando hasta conocer el verdadero alcance de los acuerdos, cuando existan, de la industria con los ISP. Una cuestión importante es determinar hasta qué punto los ISPs están dispuestos a colaborar con la RIAA sólo porque sus abonados desarrollan una actividad que estaría colisionando con un nuevo modelo de negocio sustentado en los contenidos, pues no olvidemos que la DMCA tiene una serie de disposiciones del tipo puerto seguro que relevan a los ISPs de mayor responsabilidad en estos casos. Mehan Jayasuriya (RIAA Strikes a ‘Three Strikes’ Deal, Everybody Loses) cree que esta colaboración se podría entender desde que de esta forma los ISPs podrían disciplinar a sus usuarios que consumen un mayor ancho de banda, dado que, cuando quisieron desarrollar algún tipo de gestión del tráfico, los activistas de la neutralidad de la red lo impidieron.

He leido por allí que bastaría que un ISP señalara que no está dentro del acuerdo para que todos los usuarios se vayan con él. Reconozco que al principio pensé que esta era una alternativa plausible, pero es un error, los usuarios que consumen una gran cantidad de ancho de banda son como los glotones en un servicio de hostelería del tipo «todo incluido», mientras más glotones tenga mi local la media de alimentos que tengo que comprar aumenta y con ello también el precio medio y por ende el margen disminuye. Con lo cual el mejor de los mundos es aquél donde pueda sacarme a los glotones de encima y tener hospedados sólo a consumidores con un consumo promedio. En Internet ocurre lo mismo, no existe un negocio del tipo de acceso que sólo pueda sostenerse sólo con heavy users, por ello parece razonable que los ISPs se vean tentados a aceptar la propuesta de la RIAA.

Sobre las posibles alegaciones de vulneración a la neutralidad de la red que podría tener la medida, rescato uno de los comentarios que sobre el particular aparece en el blog Denken Über (La RIAA abandona la estrategia de juicios por «piratería») que no tiene desperdicio: «la neutralidad de la red … no existe… nunca existió… ya basta con esto«.

Google se pasa al lado oscuro, ahora es elooG

¿Quién ha dicho que en occidente las religiones han muerto? Al menos en Internet esta sería una afirmación, por decir lo menos, cuestionable. Porque Internet es en sí misma una religión, con su ciudad sagrada (Sillicon Vally), sus sumos sacerdotes, fieles (millones), conversos, congregaciones (Google), demonios (Microsoft y las telcos), libros sagrados (Neuromante y la Declaración de Independencia del Ciberespacio), reliquias (Netscape) y por supuesto sus mandamientos, elevados a dogma de fe, verdades reveladas, incorruptibles, inalterables, inquebrantables e inmutables. Eterno fuego para el que ose quebrantarlos. Una de estas verdades es, sin lugar a dudas, la neutralidad de la red o Net Neutrality. 

Google es la congregación más poderosa de esta religión -algo así como los Jesuitas en la Contrarreforma- que a punto está de perder algunos de sus más fieles devotos. Éstos se han sentido tan desilusionados -ya vienen perdiendo la fe desde hace tiempo- con algunas de las últimas acciones, que hasta la amenazan en blogs y foros con dejar de seguirla, de usar sus servicios y de migrar a otra congregación que respete a pie firme la letra del catecismo vulnerado. Sólo podrá evitar esta maldición si se retracta públicamente y demuestra que sigue fiel a los principios eternos de la neutralidad de la red. ¿Qué es lo que ha pasado?

El lunes 15 de este mes, el diario neoyorkino The Wall Street Journal publicó un artículo (Google Wants Its Own Fast Track on the Web) donde nos señalaba como Google se había puesto en contacto con una serie de empresas de telecomunicaciones para proponerles la creación de un carril rápido que privilegie sus contenidos en Internet. Lo cual no debiera ser un problema, si no fuera porque Google ha sido tradicionalmente uno de los más acérrimos defensores de la neutralidad de la red, aparentemente la noticia la ponía vulnerando este credo que tanto había ayudado a construir, para decirlo en contexto fue descubierta blasfemando contra su prédica. El revuelo en el templo ha sido tremendo y desproporcionado: Lessig, Wired, Wu, Bennett, Dans y BusinessWeek por citar algunos casos.

Sobre este aquelarre podemos sacar dos conclusiones, a tenor de uno de los últimos post (Net neutrality and the benefits of caching) publicado en el blog de Google. La primera conclusión, es que la noticia es cierta -lo de los contactos con las telecos- y la segunda que Google no abandona la neutralidad de la red. Al parecer, lo que Google pretende es crear una red de distribución de contenidos (Content Delivery Network – CDN) propia del tipo Akamai. Las redes del tipo CDN operan a través de unos servidores que se encuentran físicamente más cerca de los usuarios. Al solicitarse un contenido, en lugar de responder los servidores centrales, la solicitud es atendida por el servidor más cercano al usuario.

La neutralidad de la red es un principio tan ambiguo y etéreo que es difícil tener unanimidad con respecto a qué se quiere decir cuando se lo invoca. Algunas veces parece que estamos ante una frase en Wookle, idioma de los jedis o para darle contenido local, de nuestro hoy popular cuy mágico. Existen, según uno se encuentre, dos tendencias con relación a la neutralidad de la red. Al ala izquierda de la doctrina están quienes afirman que cualquier intervención es negativa y todo el tráfico de la red tiene que tener el mismo trato independientemente de quien lo origine y a donde vaya. Por otro lado tenemos a quienes propugnan que es una limitación para que quienes dominan ciertos elementos de red no prioricen determinado tráfico en beneficio propio y en perjuicio de sus competidores.

No parece que la posición del ala izquierda sea plausible, en la medida que ataría de manos tanto a proveedores de contenidos como a operadores de servicios de telecomunicaciones para desarrollar tecnologías que permitan aligerar el tráfico de Internet. La posición del ala derecha parece más razonable (Lessig), lo que no está permitido es limitar los contenidos de los competidores y priorizar los propios. Desde este punto de vista es válido que los proveedores de contenidos pacten con los operadores de servicios de telecomunicaciones soluciones más eficientes o rutas preferentes para su tráfico. No olvidemos que en Internet uno de los criterios de competencia es claramente la velocidad con que los servicios llegan al usuario, es más, en algunos casos la latencia es crítica incluso para recibir el servicio en sí mismo (vídeos, juegos). No encuentro ninguna razón que amerite castigar a Google por intentar alcanzar soluciones que eliminan externalidades y benefician a los usuarios. Tal vez porque no creo en la neutralidad de la red como un dogma de fe.

Reguladores y cambio tecnológico

Hace unas semanas los países de la Unión Europea (UE) llegaron a un acuerdo para reformar su sector de las telecomunicaciones. Este paquete busca armonizar las prácticas regulatorias de los Estados miembros y fomentar la competencia.

Sobre este tema ya escribimos recientemente un post (Unión Europea regula SMS), en particular con relación a la nueva regulación del roaming en el mercado del servicio de mensajes móviles (Short Message Service – SMS). Pero la reforma es mucho más profunda y ya habrá tiempo para escribir sobre ella. 

Con ocasión de la aprobación de dicha dicha reforma – anunciada el 27 de noviembre del mes pasado-, Dean Bubley de Disruptive Wireless ha realizado algunas notas (EU intervention in mobile – a double-edged sword) que me parecen de lo más oportunas y que no se aplican solamente a la reforma que impulsa la comisaria Viviane Reding, sino también a las iniciativas y tentaciones que suelen tener la mayoría de los organismos reguladores. Nos encontramos también ante una crítica razonable al propio Estado, que entiende muchas veces que la inventiva y el desarrollo se pueden implementar de espaldas al mercado, cuando lo cierto es que las más de las veces los esfuerzos privados progresan a pesar del propio Estado.

Para Bubley, muchas de las decisiones gubernamentales sobre cuál es la tecnología más conveniente o los intentos por armonizar las legislaciones de la UE se sustentan en posiciones pasadas de moda. El llamado «paquete de telecomunicaciones» incluye muchas demandas onerosas, y, autoritarias. Pero, afortunadamente, el Consejo de Ministros de Telecomunicaciones de la UE ha descartado algunos de los más ridículos aspectos de la propuesta, incluyendo la sugerencia de crear un regulador centralizado europeo y la política de espectro.

En particular, debe tenerse en cuenta que nos encontramos en el cambio de un modelo verticalmente integrado y centrado en la industria de las telecomunicaciones vocales a un modelo de capas, datos/Internet, íntimamente ligado con las tecnologías de la información y la industria del entretenimiento. De esta forma los intentos para imponer requisitos legales en las capas tecnológicas puede introducir sobrecostos, retrasos y fallas de mercado. Como ejemplo, señala la intervención en el mercado de televisión móvil, donde la insistencia en el formato DVB-H contradice la política de «neutralidad tecnológica».

Los últimos esfuerzos de la Comisión para entrometerse en el mercado se sitúan en torno a la armonización de la política del espectro radioeléctrico. Si bien es un objetivo que podría ayudar a crear economías de escala a los proveedores, desconoce que cada mercado europeo es muy diferente, dadas las distintas preferencias tecnológicas, la psicología del cliente y las políticas de Estado. La creación de una autoridad centralizada con sede en Bruselas que pueda vetar algunas regulaciones nacionales, es un anatema para la mayoría de los observadores.

Para Bubley algunas de las ideas en torno a la «net neutrality» parecen bastante cuestionables, teniendo en cuenta el surgimiento de innovadores modelos de negocio en los mercados más competitivos. No hay nada de malo en la no neutralalidad si los modelos permiten cambiar de proveedor. Por tanto, la legislación sobre apertura y transparencia de la no-neutralidad sería bienvenida, lo que es una distinción muy importante -estamos de acuerdo-.

La Comisión Europea y Viviane Reding en general, deben limitarse a atender aquellas cuestiones que limitan la protección de los consumidores y la competencia. En este contexto, la reciente declaración de la comisaria Reding es otra garantía de fracaso: «Debemos asegurarnos de que la Web 3.0 se realize y utilice en Europa«. Para Bubley, es la declaración más megalómana que ha escuchado de un burócrata en largo tiempo, y es casi una segura garantía de que no se va a producir. El único paso que Europa tiene que tomar para responder a la próxima ola de la revolución de la información es salir del camino, y dejar la innovación a los innovadores.

¿Está en peligro Internet?

Lima, como todas las ciudades latinoamericanas, es una ciudad extraña. Tengo la impresión que su carácter deriva de sus origenes y confluencias hasta convertirla en un resumen con ingredientes andinos, criollos, europeos, borbónicos, populares, urbanos, cosmopolitas, cucufatos y aldeanos. Es decir, quien pasee por la ciudad tendrá la sensación de estar en un concierto con los cumbiamberos del Grupo 5, The Doors y Beethoven todos tocando en el escenario al mismo tiempo. Una de las rarezas más notorias que tenemos los limeños es nuestra relación con el mar. La ciudad besa literalmente el Pacífico, sin embargo, sus playas no se cuidan con esmero. Esta situación ocasiona, que se cuenten por miles los que huyen de ella los fines de semana estivales para refugiarse en los clubes y urbanizaciones de la Comunidad Campesina de Asia situada a unos cien kilómetros de la ciudad. Lógicamente, esta estampida hace que la autopista Panamericana Sur se atasque y que el trayecto sea una tortura. Algunos piensan que esto podría  pasar con Internet.

Hace poco dimos cuenta de cómo la Federal Communications Commission (FCC) obligó a Comcast (Comcast incumplió las políticas de la FCC, pero no será multada) a dejar de lado su política de gestión del tráfico de Internet. Los defensores de este tipo de prácticas sostienen que las nuevas aplicaciones de Internet generan tal tráfico que si no se gestiona de forma eficiente, Internet podría ralentizarse de forma importante. En esta línea se pronuncia Robert M. McDowell, consejero de la FCC que votó por la legalidad de la práctica realizada por Comcast, en un artículo publicado en el Washington Post (Who Should Solve This Internet Crisis?) dos días antes de la votación del Memorando de Opinión y Orden que censuró la gestión del operador.

McDowell cree que Internet pasa por una crisis similar a la de 1987 cuando tenía 35 mil usuarios. En aquella oportunidad, los ingenieros se encontraron con la disyuntiva de permitir que la red se embotellara o buscar una solución. Esta historia, se solucionó priorizando los contenidos de las aplicaciones en tiempo real sobre aquellos usos que no sufrirían por causa del retardo. Estos esfuerzos desatascaron Internet. Hoy, cuando los usuarios de las redes p2p transfieren música o vídeos, llaman a miles de computadoras. Consecuentemente, las conexiones se atascan y la Red se ralentiza. De acuerdo con este artículo, en hora pico, sólo el 5 por ciento de los consumidores de Internet consumiría el 90 por ciento del ancho de banda. Sin embargo, este problema no debe solucionarse desde la esfera del gobierno, por el contrario, debemos dejar que los ingenieros y los grupos de interés continúen haciendo lo que han hecho por años, ponerse de acuerdo sobre la mejor forma de gestionar Internet.

La posición de McDowell no complace a todos. Por ejemplo, en el blog de la iniciativa Save the Internet (StI) (Who Shouldn’t Solve This Internet Crisis) se señala que el comisionado intenta excusar el comportamiento Comcast sobre la base un posible atasco de Internet, pero, de acuerdo con los examenes independientes conducidos por Associated Press, la Electronic Frontier Foundation y el Instituto Max Planck, Comcast bloqueó los protocolos p2p en todo momento, no sólo en las horas pico y sin importarle el tamaño de los archivos transferidos. Para StI en lugar de reinvertir en más capacidad, Comcast se rembolsa los beneficios mientras que explota el control que tiene sobre la red para socavar la competencia. Interesante discusión seguiremos atentos cómo se va desenvolviendo.

Comcast incumplió las políticas de la FCC, pero no será multada

La FCC (Federal Communications Commission) aprobó el pasado 1 de agosto un Memorando de Opinión y Orden para que Comcast dejara su polémica práctica de administrar Internet a través del mecanismo conocido como throttling (ver nuestro post: Compast podría ser sancionada en agosto). La Comisión, sin imponer sanciones monetarias, otorgó un plazo de 30 días para que la operadora divulgara sus métodos de administración del tráfico de Internet.  La orden, aprobada en una votación ajustada de 3 a 2, concluyó que Comcast monitoreó el contenido de las conexiones de Internet de sus abonados y bloqueó selectivamente sus conexiones p2p. «Esencialmente, Comcast abre cada correo y lo abre no para entregarlo sobre la base de la dirección que aparece en el sobre sino por el tipo de letra de sus clientes”; señaló un vocero de la Comisión.

En la práctica, Comcast revisaba cada paquete de tráfico de Internet de sus clientes y los encaminaba según su contenido, no de su destino. La práctica de extrangular las conexiones p2p realizada por Comcast era particularmente extensa, incluso llegó a alcanzar en ciertas áreas las tres cuartas partes de todas las conexiones de p2p.

La orden puede interpretarse como una defensa de las libertades de Internet sancionadas por la FCC en el año 2005 en línea con el criterio de Net Neutrality, que como se sabe prohíbe que los operadores de acceso restrinjan o limiten el tráfico que fluye por Internet.

El presidente de la Comisión, el republicano Kevin Martin y los demócratas Jonatan Adelstein y Michael Copps, se mostraron favorables a la orden; votaron en contra, los comisionados republicanos Robert McDowell y Deborah Taylor Tate. Para el republicano McDowell la decisión politiza Internet: «La mayoría ha empujado a políticos y a burócratas en decisiones de ingeniería (…). Será interesante ver cómo la FCC manejará su recién creado poder porque, como institución, somos incapaces de decidir cualquier acción en los nanosegundos del tiempo de Internet. Además, pedir que nuestro gobierno tome estas decisiones significará que cada dos a cuatro años los principios de base podrían cambiar dependiendo de los resultados electorales.» Asimismo, agregó que la decisión de la Agencia podía dañar en última instancia la capacidad de los usuarios para utilizar la web. «(…) Irónicamente, la acción de hoy puede dar lugar realmente a velocidades en línea más lentas para el 95 por ciento de los consumidores de Internet en América «.

Sena Fitzmaurice, Directora de Comunicaciones Corporativas y Asuntos Gubernamentales de Comcast en un comunicado público señaló que aun cuando se complace de que la Comisión no haya encontrado ninguna conducta que justifique una multa, “(…) nos decepciona la conclusión dividida de la Comisión porque creemos que nuestras elecciones en la gestión de redes fueron razonables, completamente consistentes con las prácticas de la industria y que no bloqueamos el acceso a sitios web o aplicaciones online, incluyendo servicios peer-to-peer”. Se espera que Comcast cuestione la decisión de la FCC ante los tribunales.

Los partidarios de la Net Neutrality han tomado esta decisión como una importante victoria (savetheinternet.com y Art Brodsky), la cual tendrá probablemente más implicancias que las del mero caso Comcast, teniendo en cuenta la influencia de la FCC como espejo de otras regulaciones y la popularidad que están teniendo las prácticas de gestionar el tráfico de Internet mediante técnicas que retan el criterio de la Net Neutrality.

Los seguidores de la Net Neutrality se anotan una victoria

El regulador de las telecomunicaciones de los Estados Unidos, la FCC (Federal Communications Commission), a través de su presidente  Kevin J. Martin, amenazó el pasado 10 de julio con sancionar a las compañías de Internet que limitaran o entorpecieran el acceso de sus abonados a programas como BitTorrent o eMule acusados de demandar intensamente recursos de ancho de banda.

De acuerdo con Martin, Comcast, el proveedor de acceso a Internet más importante de los Estados Unidos, violó las libertades de Internet al interferir intencionalmente las conexiones de sus abonados cuando éstos intercambiaban ficheros. La práctica repudiada consistía en que cuando Comcast advertía que sus abonados utilizaban el programa BitTorrent procedía a limitarles la velocidad de acceso. La compañía admitió que llevaba a cabo esta práctica, muy utilizada por toda la industria, dado que estas conexiones consumen buena parte de la capacidad de sus usuarios y solo una mínima proporción de éstos las usan. Es decir, buscaba imponer limitaciones a los usuarios que más congestión producían para mantener estable el nivel de acceso de los demás.

Si bien la el presidente de la FCC advirtió que de momento no pensaba tomar medidas sancionadoras, los proveedores de acceso deberan tener cuidado al realizar este tipo de prácticas si no quieren verse obligados a pagar alguna multa. Cabe recordar que en el año 2005 la FCC impuso una sanción por un hecho similar cuando Madison River Communications, un pequeño proveedor de acceso a Internet de Carolina del Norte, bloqueó el acceso de sus suscriptores al servicio de voz sobre IP de Vonage.

Además de ordenar la restitución de la conexión la FCC multó a Madison River con US$ 15 mil dólares.

De acuerdo con estas declaraciones, la FCC estaría alineando sus políticas con el principio de Net Neutrality o Neutralidad de la Red. Como indica el profesor Tim Wu, de la Universidad de Columbia y presidente de Free Press, grupo que denunció el caso de Comcast ante la FCC: Si dos personas quieren intercambiar un archivo, los operadores no deben intervenir para nada.

Esta es sólo una batalla más del enfrentamiento que vienen sosteniendo desde hace unos años partidarios y detractores del principio de la Net Neutrality cuyo campo más cruento se encuentra sobre todo en los Estados Unidos, aunque sus repercusiones ya se empiezan a sentir en otras latitudes. Como se sabe el principio de la Net Nutrality se parece mucho al tradicional principio de no discriminación que rige la industria de las telecomunicaciones, puede definirse como la obligación de los agentes operadores de acceso a dar el mismo tratamiento al tráfico que circula por Internet, con independencia del contenido específico y de quien lo emita o lo reciba.

Para los defensores de la Net neutrality permitir la priorización de determinado tráfico por los operadores de acceso constituye un modelo de negocio al más puro estilo “Tony Soprano” (Tim WU: Why You Should Care About Network Neutrality) donde campeará la arbitrariedad y el despliegue de comportamientos potencialmente ilegales como por ejemplo privilegiar los contenidos propios en detrimento de los servicios de los competidores, lo que en última instancia sería la destrucción de Internet como fue concebido y como se lo conoce hoy. Frente a estos argumentos, los opositores de la Net neutrality consideran que el mercado asegura que los usuarios cuenten con un acceso libre a los distintos contenidos sin otra limitación que sus propios gustos o la información que poseen. La imposición de un principio como el de Net neutrality provocaría cuando menos una disminución de los niveles de inversión e innovación, generaría una administración ineficiente de la Red por parte de los operadores para gestionar la demanda de los consumidores, ya que no se podrían atender sus necesidades de manera ágil e innovativa.

En resumen, nos encontramos ante un round más de una controversia que promete ser larga y sinuosa. En juego no sólo está el mantenimiento de Internet tal como lo conocemos hoy sino también su propia viabilidad económica.