¿Habrá una ley pro Net Neutrality en USA?

Cord Blomquist hace una polla (en el Perú lo que en otros lares es apuesta o lotería): en este año no se aprobarán las tan deseadas leyes que aseguren la neutralidad de la red. Esta profecía, aparece sustentada en un extenso post (Prediction 2009: No Net Neutrality Regulation) de OpenMarket.org, blog del Competitive Enterprise Institute. A continuación resumimos la posición de Blomquist no sin antes recomendar su lectura.

Para el autor el 2009 podría ver la muerte de las posturas en favor de la regulación de la Net neutrality y veremos a algunos de los más ardientes partidarios de la neutralidad suavizar sus posturas, pues parece obvio que las soluciones no neutrales son el mejor camino para hacer frente al aumento de los contenidos en Internet. 

La mayor útilidad neta de la neutralidad ha sido generar discusión política sobre la censura, la cuestión de la priorización de tráfico y sobre la arquitectura física de la Internet.

Censura. La historia ha demostrado que ninguna ley asegura que los proveedores de servicios se mantengan neutrales con relación a los contenidos. Es la acción pública la que ha forzado a los proveedores de Internet a caminar hacia la neutralidad. Como ejemplo, en setiembre de 2007 Verizon denegó una solicitud de la National Abortion Rights Action League (NARAL) para enviar un mensaje SMS a aquellos de sus miembros que habían autorizado su recibo. La decisión se interpretó como un ataque contra el movimiento. El clamor público generó un cambio en las políticas de Verizon, que finalmente concedió a NARAL la posibilidad de enviar sus mensajes y el mismo trato se dio a los grupos pro-vida.

Priorizar Tráfico. Un sofisticado proceso de priorización de datos ha acompañado el crecimiento de Internet, lo cual permite dar una respuesta a la dinámica de la demanda y reducir los abusos de prácticas como el spam. Los impulsores de la neutralidad creen que las técnicas de gestión de red son inaceptables. Sin embargo, el Internet comercial ha sido siempre un sistema de prioridades. Como ejemplo señala el caso de Comcast -que hemos seguido en este blog (Los seguidores de la Net Neutrality se anotan una victoriaComcast podría ser sancionada en agostoComcast incumplió las políticas de la FCC, pero no será multada), donde la operadora fue finalmente obligada a detener la práctica de bloquear el tráfico de BitTorrent y a asociarse con ésta para abordar el problema de la gestión de la red. La presión pública fue tan grande que Comcast cambió su política y aprobó un tope mensual de 250 gigabytes de tráfico para los usuarios.

Arquitectura de la Red. Internet está físicamente construido por muchas pequeñas redes. Estas redes intercambian datos entre sí para formar Internet. Este modelo de red, sin embargo, se ha construdo a través de lo que se conoce comúnmente como «lineas cortas» y «vías rápidas». Las líneas cortas son utilizadas por compañías como Akamai y Google para brindar un mejor servicio, colocando los datos cerca a los usuarios. Las vías rápidas permiten burlar rápidamente las vías con mayor tráfico. Durante los Juegos Olímpicos de Beijing, los servidores del Comité Organizador enviaban los videos de los Juegos sobre su propia red mundial de fibra óptica a los servidores de los proveedores de servicios de Internet. Los partidarios de la neutralidad creen que un acuerdo de este tipo representa una ventaja injusta a las empresas más poderosas.

Algunos partidarios de la neutralidad se están apartando de la causa. A pesar del reciente artículo del Wall Street Journal (Google se pasa al lado oscuro, ahora es elooG), que señalaba que Google estaba construyendo su propia vía rápida, fue inexacto (en realidad se trataba de una línea corta), la historia era en parte cierta. Muchos de los partidarios de la neutralidad como Microsoft, Yahoo y Amazon han cambiado de tono. Estas empresas están realizando acuerdos con proveedores de servicios de Internet para ofrecer sus contenidos de manera más eficiente.

La muerte de la reglamentación de la neutralidad representa el reconocimiento de que el tribunal de la opinión pública es mucho más rápido y justo que cualquier regulador. La política pública debe centrarse en asegurar que haya más lugares para los consumidores. Incrementar la competencia en los mercados de banda ancha a través de la flexibilización de las restricciones a las redes inalámbricas sería un buen comienzo. Ya sea a través de la ampliación de los bienes comunes o (preferiblemente) con la creación de propiedad privada sobre grandes franjas del espectro. No es necesario para ello una ley pro Net neutrality.

Born Digital

Born Digital es el nuevo libro de John Palfrey y Urs Gasser del Berkman Center for Internet & Society de la Harvard Law School como parte del progecto Digital Natives.

De acuerdo con las reseñas que se han hecho y de la información colgada en la web del libro, los autores intentan describir la generación de aquellos jóvenes nacidos después de 1980 (nativos digitales), es decir de aquellos que han crecido rodeados por la tecnología digital. Al contrario que las generaciones nacidas antes (inmigrantes digitales), los nativos digitales se relacionan socialmente, consumen información y ven al mundo condicionados por los medios digitales.

Según su web, el libro intenta responder a preguntas como: ¿Qué significa la identidad para los jóvenes que tienen docenas de perfiles y avatars en internet? ¿Tenemos que preocuparnos por las cuestiones de privacidad – o es la privacidad siquiera una cuestión para los nativos digitales? ¿Cuál es el impacto de internet sobre la capacidad y el aprendizaje? ¿A qué va a atenerse esta generación -socialmente, profesionalmente y psicológicamente?

Cómo se pueden abodar estos problemas, hay una sola solución – sostienen-, y es la educación. Los autores desean que los padres, educadores y legisladores participen y dialogen con la generación digital, en lugar de dejarlos a su suerte. 

Algunas reseñas de este libro se pueden encontrar en: apophenia («Born Digital» by John Palfrey and Urs Gasser), cadaunadas (Born Digital), elia (presentación sobre los nativos digitales), periodismociudadano (nacidos en la era digital) y The Technology Liberation Front (book review: Palfrey & Gasser’s «Born Digital»).

Lessig quiere demoler la FCC

En una reciente columna de la revista Newsweek (Reboot the FCC) el profesor Larence Lessig sostiene que la Comisión Federal de las Telecomunicaciones (Federal Communications Commission – FCC), regulador de los Estados Unidos de las Telecomunicaciones, en lugar de proteger la innovación, ha sucumbido a un irresistible deseo de proteger a los más poderosos. Es decir, cree que la FCC es un ejemplo perfecto de cómo los reguladores, creados a inicios del siglo pasado, son un freno para el desarrollo.

La FCC se ha convertido en el centro que coordina casi todos los aspectos importantes relacionados con la tecnología. Es el protector de Internet y regulador de la radio, televisión y de las comunicaciones satelitales. En las próximas décadas, Lessig cree que podría convertirse en el regulador por defecto de cada nueva tecnología de las comunicaciones y especialmente, de las nuevas formas de utilizar las comunicaciones inalámbricas, que hoy portan las señales de televisión, radio, internet y telefonía celular, las que podrán proporcionar acceso a Internet de alta velocidad.

El inconveniente de la FCC es que, con tantas facultades a su alcance, se ha convertido en blanco de campañas de enorme influencia. Sus comisionados tienen que ser «expertos» e «independientes», pero en la realidad, para el autor, nunca han sido realmente expertos y ahora están abiertamente influenciados por el juego político. La solución. Como las inconsistencias de la FCC son estructurales, están en su ADN no se pueden maquillar, la FCC se tiene que enterrar. No es la primera vez que Lessig aboga por su destrucción, en marzo de este año sostuvo una posición similar en una entrevista para National Review Online (Professor Lessig Is In). La alternativa es crear una institución diferente, que Lessig llama Innovation Environment Protection Agency (IEPA), algo así como Agencia de la Protección para el Fomento de la Innovación, la cual tendría una misión muy simple: «mínima intervención para incrementar al máximo la innovación«.

La primera tarea de la IEPA, sería frenar el poder incontrolado de los monopolios. Como ejemplo, gran parte del espectro radioeléctrico ha sido subastado en los Estados Unidos a monopolios de telecomunicaciones, sobre la base de que sólo mediante este monopolio las empresas podrán emprender la costosa tarea de construir una red de estaciones de radiodifusión. La IEPA pondría a prueba esta hipótesis. De esta forma, un organismo fortalecido con la prohibición de cualquier tipo de vínculos con la industria se podría evitar la cultura de favoritismo que viene definiendo el accionar de la FCC. Y si logra alcanzar credibilidad en el control de los monopolios, la agencia podría aplicar esta experiencia en otras áreas como patentes y derechos de autor.

El título del artículo de Lessig nos da la idea de una crítica al sistema de regulación, o mejor dicho una crítica institucional, sin embargo nos encontramos ante un cuestionamiento meramente formal: la FCC no sirve hay que crear otro organismo que lo reemplace, «desvestir a un santo para vestir a otro» decimos por estos lares. Pero cabe preguntarnos, «quis custodiet ipsos custodes» (¿quien vigila a los vigilantes?), es una conocida locución latina del poeta Juvenal. La idea de crear un nuevo regulador libre de los vicios que se suelen imputarse a las diferentes agencias gubernamentales es conmovedora por su inocencia. El problema de los fallos regulatorios, que los hay y muchos, no es formal es estructural y la noticia más desalentadora -y es un apunte particular- es que una nueva institución no los solucionará, pues el defecto está en el ADN de la propia burocracia que sirve a estos organismos.

Sobre el particular recomiendo leer el post de Adam Thierer (Lessig on Building a Better Bureaucrat) en Technology Liberation Front cuando nos dice que muchos expertos y políticos creen tontamente que todo sería mejor, como por arte de magia, una vez que las normas sean aplicadas por infalibles reyes-filósofos, personas que caminarán por los pasillos del nuevo IEPA. Es claro, la burocracia estatal tiene su propia lógica. No existe ninguna razón que nos lleve a pensar que estos reyes-filósofos de la IEPA tendrán un mejor desempeño que sus antecesores de la FCC.

Esta observación es también aplicable a otras realidades. Por ejemplo en el caso peruano aparecen de cuando en vez críticas importantes para con el accionar de los organismos reguladores (OSIPTEL, OSITRAN, OSINERGMIN y SUNASS). Una de las formas que se levantan para resolver estos inconvenientes es la creación de una superintendencia que realice las funciones agregadas de todos ellos. Creemos que no es la salida, la única ventaja si se crara una Superintendencia sería un pequeño ahorro presupuestal, sin embargo, se perdería en especialización y sería más sencillo para el poder político captar a esta nueva institución que a las cuatro anteriores.

El turno de Google Transit

Desde hace algún tiempo el destino de Google parece estar marcado por el signo del enfrentamiento. Hagamos un breve recuento: el sistema de búsqueda de imágenes en miniatura (thumbnails) ha sido cuestionado en Alemania (Google se estrella contra el muro alemán); Google News ha chocado duramente con los editores de diarios e incluso perdió -aunque el fallo no es definitivo- un juicio con la Société de Gestion de Droits des Éditeurs de Presse Quotidienne Francophone et Germanophone Belge (Copiepresse), que agrupa a los editores de prensa belgas; la implementación del Google books – la biblioteca digital de Google- le ha valido un enfrentamiento con la industria editorial; Youtube, su popular portal de videos ha sido profundamente discutido por la industria de contenidos (YouTube en la telearañaYouTube debe retirar videos de Telecinco, pero…) por vulnerar sus derechos de autor; hasta su propio motor de búsquedas está sometido a análisis por una demanda en Barcelona (Google y la sentencia de la Audiencia de Barcelona). El imperio Google avanza y con él también los celos, pasiones y quejas de quienes se sientes afectados. Algunas veces como en el caso de la industria editorial los reclamos parecen tener un trasfondo razonable -aunque perdamos una gran oportunidad de masificar la cultura y la información- pero otros cuestionamientos son sólo reflejo de actitudes oportunistas que intentan meter como sea diente a los cuantiosos ingresos de la transnacional americana. 

Todos los problemas reseñados han tenido como actores a empresas privadas, las cuales alegan que los servicios del gigante de Mountain View, vulneran algún tipo de derecho patrimonial. Sin embargo, parece que las entidades del Estado tampoco serían ajenas a esta tendencia. La Autoridad de Tránsito del Área Metropolitana de Washington (Metropolitan Area Transit AuthorityWMATA) es una agencia gubernamental que opera el servicio de transporte en el área metropolitana de Washington DC y el servicio cuestionado, de acuerdo con el Wall Street Journal (Google Vs Washington D.C.’s Public Transit System), es el Google Transit, como no podía ser de otra forma en etapa beta.

Google Transit permite saber cuál es la ruta más eficiente paso a paso utilizando las unidades de transporte público. Proporciona un mapa de la ruta, la duración del viaje y un cuadro comparativo con los costos entre el servicio público y hacer la ruta en auto privado, incluyendo el precio de la gasolina. El servicio puede utilizarse desde una PC y dispositivos móviles. El inconveniente es que el servicio, se soporta en los datos de las autoridades de transporte y en el caso de la ciudad de Washington con la WMATA. 

La WMATA, ha decidido dejar de proporcionar sus datos a Google Transit. Un representante de la entidad advirtió que no habían podido ponerse de acuerdo con el mecanismo de repartición de ingresos. Al parecer, el gran inconveniente es que la WMATA acaba de actualizar su sitio web y su plan de viajes. La WMATA pretende impulsar que sus usuarios visiten su sitio web. 

Lo discutible del caso es cómo la información elaborada por una entidad de la administración que brinda un servicio público la retacea sólo para rentabilizar su sitio web. Recordemos con en el Perú de forma similar, el Diario Oficial El Peruano cuestionó la publicación por parte de Gaceta Jurídica de una versión digitalizada del boletín de normas en su web. Nos encontramos ante un peligroso precedente, básicamente porque patrimonializa información que siempre debe tener carácter público, es decir no sólo la autoridad administrativa no debería limitar su acceso a quien quiera explotarla, sino que tampoco está habilitada a entregarla en exclusiva.

Sólo las ciudades latinoamericanas de Belo Horizonte y São Paulo en Brasil están por el momento dentro del programa. ¿Cuándo aparecerá en el Google Transit nuestra querida ruta Cocharcas – José Leal?

La RIAA deja los juicios, ahora corta el servicio

Luego del supuesto abandono de Google de los criterios de la Net Neutrality o neutralidad de la red (Google se pasa al lado oscuro, ahora es elooG) el Wall Street Journal publica otra noticia importante (Music Industry to Abandon Mass Suits). Según el diario la Recording Industry Association of America (RIAA), luego de varios años de demandar a miles de ciudadanos por descargar supuestamente música a través de Internet, está dispuesta a abandonar esta estrategia en la medida que ahora estima que existen formas más eficaces de luchar contra estas actividades.

A partir del año 2003 la RIAA inició una serie de demandas contra los supuestos infractores de sus derechos de autor hasta alcanzar la suma de 35.000 personas, estas acciones no sólo afectaron de forma importante la imagen de la industria sino que tampoco hicieron gran cosa para evitar que los usuarios de Internet continuaran descargando música masivamente. Como se recordará, gracias al modelo empleado para emplazar a los demandados conocido como «John Doe«, la RIAA inculpó a menores de edad, ancianos, una impresora láser y hasta a una persona que había fallecido. Esta seguidilla de demandas, no sólo ha desgastado a la industria sino que tampoco puede exhibir ningún precedente judicial importante a su favor. 

Según la nota, la RIAA pretende alcanzar una serie de alianzas con los ISPs más importantes, a partir de las cuales desarrollar un procedimiento, similar al de la Digial Millennium Copyright Act (DMCA), que suponga un freno para las descargas ilegales en Internet. De acuerdo con la nota, una vez que se ha detectado al infractor, se le enviará un correo electrónico al proveedor. Dependiendo del acuerdo alcanzado, el ISP alertará a sus clientes suspendan la actividad, si éstos continúan con la práctica, recibirán un par de mensajes más, o quizá aletargando su servicio de acceso a Internet. Por último, el ISP podrá cortar el acceso por completo. El modelo no es original, se ha implementado en Francia por el gobierno del presidente Sarkozy y se está discutiendo en Inglaterra.

Es posible que en esta oportunidad los ISPs tengan una mayor predisposición a colaborar con la RIAA que en años anteriores, pues vienen desarrollando modelos de negocio con sellos discográficos propios que podrían colisionar directamente con la descarga de contenidos por parte de sus usuarios. Por otro lado, el hecho que sean ahora los propios ISPs quienes se comunicarán con sus abonados, evita que revelen la identidad de los infractores, lo cual suaviza uno de los aspectos más polémicos de la anterior estrategia.

Sobre el particular, existen demasiados puntos oscuros que tal vez se vayan aclarando hasta conocer el verdadero alcance de los acuerdos, cuando existan, de la industria con los ISP. Una cuestión importante es determinar hasta qué punto los ISPs están dispuestos a colaborar con la RIAA sólo porque sus abonados desarrollan una actividad que estaría colisionando con un nuevo modelo de negocio sustentado en los contenidos, pues no olvidemos que la DMCA tiene una serie de disposiciones del tipo puerto seguro que relevan a los ISPs de mayor responsabilidad en estos casos. Mehan Jayasuriya (RIAA Strikes a ‘Three Strikes’ Deal, Everybody Loses) cree que esta colaboración se podría entender desde que de esta forma los ISPs podrían disciplinar a sus usuarios que consumen un mayor ancho de banda, dado que, cuando quisieron desarrollar algún tipo de gestión del tráfico, los activistas de la neutralidad de la red lo impidieron.

He leido por allí que bastaría que un ISP señalara que no está dentro del acuerdo para que todos los usuarios se vayan con él. Reconozco que al principio pensé que esta era una alternativa plausible, pero es un error, los usuarios que consumen una gran cantidad de ancho de banda son como los glotones en un servicio de hostelería del tipo «todo incluido», mientras más glotones tenga mi local la media de alimentos que tengo que comprar aumenta y con ello también el precio medio y por ende el margen disminuye. Con lo cual el mejor de los mundos es aquél donde pueda sacarme a los glotones de encima y tener hospedados sólo a consumidores con un consumo promedio. En Internet ocurre lo mismo, no existe un negocio del tipo de acceso que sólo pueda sostenerse sólo con heavy users, por ello parece razonable que los ISPs se vean tentados a aceptar la propuesta de la RIAA.

Sobre las posibles alegaciones de vulneración a la neutralidad de la red que podría tener la medida, rescato uno de los comentarios que sobre el particular aparece en el blog Denken Über (La RIAA abandona la estrategia de juicios por «piratería») que no tiene desperdicio: «la neutralidad de la red … no existe… nunca existió… ya basta con esto«.

Bajas música, videojuegos y porno: paga

De acuerdo con una nota que publica la BBC (Cash demand over ‘porn downloads’) y que recoge bandaancha.eu, (Protestas de los internautas británicos poniendo el caso español Promusicae vs. Telefónica como ejemplo) en el Reino Unido seis millones de personas descargan música y archivos de películas de forma gratuita cada año, más de la mitad de éstos son menores de 25 años y las redes más utilizadas: Gnutella, eDonkey y BitTorrent.

Esta noticia no tiene nada de novedosa, pero lo curioso de ella ver cómo en la mayoría de países la industria musical o del entretenimiento sigue el mismo patrón para intentar disciplinar a aquellas personas que bajan contenidos de Internet sin pagar los correspondientes derechos de autor. La polémica empezó cuando la Corte Suprema británica decidió que los ISP estaban obligados a proporcionar los datos personales de los clientes que intercambiaban archivos protegidos de una serie videojuegos. Recordemos que en España, la Asociación de Productores de Música de España (Promusicae) intentó hacer lo mismo pero el Tribunal de Justicia de las Comunidades Europeas no lo permitió. Ya comentamos este caso en su oportunidad (Operadores de acceso pueden mantener el anonimato de quienes decargan música).

Con estos datos, las empresas propietarias de los contenidos tienen todo un abanico de posibilidades para presionar a los internautas para que paguen por los videos que han descargado. El método empleado en Inglaterra, de forma similar a las políticas seguidas por la Recording Industry Association of America (RIAA) en los Estados Unidos, consiste en el envío de cartas por correo en las que se acusa al destinatario de intercambiar archivos ilegalmente y exigiendo por ello el pago de 500 libras por concepto de compensación. Estas comunicaciones advierten que si no se realiza el pago se tomarán las medidas legales correspondientes, las cuales podrían derivar en un pago superior.

Lo interesante del caso es que mientras que, de acuerdo con la experiencia de los Estados Unidos, en la mayoría de los casos los denunciados se han negado a pagar por el material que han bajado gratuitamente, en Inglaterra podría ocurrir lo contrario, en la medida que una de las compañías que está enviando las comunicaciones es la alemana DigiProtect, la cual acusa a los destinatarios de descargar películas para adultos, en otras palabras de bajar pornografía. Una cosa es que se acuse a las personas de bajar canciones o películas y otra de formar parte de una red que intercambia porno duro.

Una de los principales problemas de la industria del porno antes de la aparición de las nuevas tecnologías era su carácter marginal. Sin embargo, si alguna industria de contenidos puede sentirse satisfecha, en alguna medida, con la aparición de Internet es la del porno. Los portales de Internet y las redes P2P han tomado el lugar de revistas, DVDs y videos VHS. Las posibilidades de búsqueda casi infinita de material porno, el aumento en la cantidad del material sexual transmitido a los usuarios, la velocidad de entrega y la privacidad que se percibe al consumir este tipo productos en Internet han logrado un aumento considerable de la demanda de productos pornográficos (Fabio D’Orlando).

Si el anonimato es una de las características que más valora el usuario que consume pornografía a través de Internet, coincidiremos que DigiProtect es consciente que gran parte de los que han recibido sus comunicaciones pagarán sin chistar el importe requerido, ello por el pánico que tienen de ser relacionados como consumidores de pornografía.

Sin embargo, el problema del tipo de mecanismo empleado por DigiProtect para identificar el uso de sus películas es su falta de confiabilidad. Por ejemplo, tal como señala la nota de la BBC, la creciente popularidad de las tecnologías inalámbricas, Wi-Fi o home networks implican la posibilidad de compartir una conexión de internet con una serie de personas, lo cual dificulta la plena identificación de los posibles consumidores de las películas de DigiProtect.

Si bien es comprensible y hasta entendible que las empresas exijan el pago de estos derechos, el mecanismo empleado por DigiProtect para exigirlos es cuestionable pues afecta una serie de derechos fundamentales como a la reputación y la privacidad. No son los únicos problemas. La perdida de la lealtad de sus posibles consumidores es otro, aunque tratándose de la industria del porno esta última afectación no creo que le importe mucho a DigiProtect.

Google se pasa al lado oscuro, ahora es elooG

¿Quién ha dicho que en occidente las religiones han muerto? Al menos en Internet esta sería una afirmación, por decir lo menos, cuestionable. Porque Internet es en sí misma una religión, con su ciudad sagrada (Sillicon Vally), sus sumos sacerdotes, fieles (millones), conversos, congregaciones (Google), demonios (Microsoft y las telcos), libros sagrados (Neuromante y la Declaración de Independencia del Ciberespacio), reliquias (Netscape) y por supuesto sus mandamientos, elevados a dogma de fe, verdades reveladas, incorruptibles, inalterables, inquebrantables e inmutables. Eterno fuego para el que ose quebrantarlos. Una de estas verdades es, sin lugar a dudas, la neutralidad de la red o Net Neutrality. 

Google es la congregación más poderosa de esta religión -algo así como los Jesuitas en la Contrarreforma- que a punto está de perder algunos de sus más fieles devotos. Éstos se han sentido tan desilusionados -ya vienen perdiendo la fe desde hace tiempo- con algunas de las últimas acciones, que hasta la amenazan en blogs y foros con dejar de seguirla, de usar sus servicios y de migrar a otra congregación que respete a pie firme la letra del catecismo vulnerado. Sólo podrá evitar esta maldición si se retracta públicamente y demuestra que sigue fiel a los principios eternos de la neutralidad de la red. ¿Qué es lo que ha pasado?

El lunes 15 de este mes, el diario neoyorkino The Wall Street Journal publicó un artículo (Google Wants Its Own Fast Track on the Web) donde nos señalaba como Google se había puesto en contacto con una serie de empresas de telecomunicaciones para proponerles la creación de un carril rápido que privilegie sus contenidos en Internet. Lo cual no debiera ser un problema, si no fuera porque Google ha sido tradicionalmente uno de los más acérrimos defensores de la neutralidad de la red, aparentemente la noticia la ponía vulnerando este credo que tanto había ayudado a construir, para decirlo en contexto fue descubierta blasfemando contra su prédica. El revuelo en el templo ha sido tremendo y desproporcionado: Lessig, Wired, Wu, Bennett, Dans y BusinessWeek por citar algunos casos.

Sobre este aquelarre podemos sacar dos conclusiones, a tenor de uno de los últimos post (Net neutrality and the benefits of caching) publicado en el blog de Google. La primera conclusión, es que la noticia es cierta -lo de los contactos con las telecos- y la segunda que Google no abandona la neutralidad de la red. Al parecer, lo que Google pretende es crear una red de distribución de contenidos (Content Delivery Network – CDN) propia del tipo Akamai. Las redes del tipo CDN operan a través de unos servidores que se encuentran físicamente más cerca de los usuarios. Al solicitarse un contenido, en lugar de responder los servidores centrales, la solicitud es atendida por el servidor más cercano al usuario.

La neutralidad de la red es un principio tan ambiguo y etéreo que es difícil tener unanimidad con respecto a qué se quiere decir cuando se lo invoca. Algunas veces parece que estamos ante una frase en Wookle, idioma de los jedis o para darle contenido local, de nuestro hoy popular cuy mágico. Existen, según uno se encuentre, dos tendencias con relación a la neutralidad de la red. Al ala izquierda de la doctrina están quienes afirman que cualquier intervención es negativa y todo el tráfico de la red tiene que tener el mismo trato independientemente de quien lo origine y a donde vaya. Por otro lado tenemos a quienes propugnan que es una limitación para que quienes dominan ciertos elementos de red no prioricen determinado tráfico en beneficio propio y en perjuicio de sus competidores.

No parece que la posición del ala izquierda sea plausible, en la medida que ataría de manos tanto a proveedores de contenidos como a operadores de servicios de telecomunicaciones para desarrollar tecnologías que permitan aligerar el tráfico de Internet. La posición del ala derecha parece más razonable (Lessig), lo que no está permitido es limitar los contenidos de los competidores y priorizar los propios. Desde este punto de vista es válido que los proveedores de contenidos pacten con los operadores de servicios de telecomunicaciones soluciones más eficientes o rutas preferentes para su tráfico. No olvidemos que en Internet uno de los criterios de competencia es claramente la velocidad con que los servicios llegan al usuario, es más, en algunos casos la latencia es crítica incluso para recibir el servicio en sí mismo (vídeos, juegos). No encuentro ninguna razón que amerite castigar a Google por intentar alcanzar soluciones que eliminan externalidades y benefician a los usuarios. Tal vez porque no creo en la neutralidad de la red como un dogma de fe.

¿Viene el exaflood?

Exaflood es el término acuñado para definir el posible colapso de Internet por la sobrecarga de tráfico de Internet. Sobre el tema el conocido diario británico The Economist, la prestigiosa revista británica, ha publicado y colgado el 4 de diciembre un artículo (Surviving the exaflood) donde nos detalla tanto las más dramáticas profecías como aquellas posiciones que las desmienten. No debo señalar que vale la pena leerlo.

El neologismo (del exabyte, 1018 bytes o mil millones de giga bytes) fue acuñado por Brett Swanson, del Discovery Institute, que predijo en enero del año 2007 (The Coming Exaflood) que Internet no está ni remotamente preparado para manejar el diluvio de datos que está procesando en la actualidad. Swanson, trabaja hoy en Washington en la Fundación para la Libertad y el Progreso (Progress and Freedom Foundation) considera que existen varias tecnologías que son capaces de generar extremadamente una gran cantidad de tráfico, como los sitios de video sharing, videoconferencia, descargas de películas, juegos en línea, televisión sobre protocolo de Internet, los video teléfonos, imágenes médicas a distancia y servicios de back-up que almacenan documentos en línea. YouTube generó solo más tráfico en Internet en el año 2006 que todo el Internet en el año 2000.

No es el primer caso, tampoco será el último. En 1995 Robert Metcalfe, el famoso ingeniero que elaboró la Ley de  Metcalfe y fundador de 3Com, predijo en un artículo que Internet sufriría un colapso aproximadamente en los próximos años. Para reforzar su apuesta, prometió comerse sus palabras si esto no legaba a suceder, al parecer las tomó literalmente. En 1997 con ocasión de la Sexta conferencia internacional de la World Wide Web, Metcalfe tomó una hoja con su columna y tras mezclarla con un liquido amenazó con comérsela. Finalmente no se la comió por las protestas del respetable que decidieron liberarlo finalmente de tal carga.

Anécdotas a parte, Nemertes, una consultora de investigación de mercados, publicó un documento (Internet Interrupted: Why Architectural Limitations Will Fracture the ‘Net) a fines del año pasado donde advertía que la demanda de los usuarios de Internet podría superar la capacidad de aquí al 2010. El costo global de mejorar la red para evitar una disminución en la calidad del servicio ha sido calculado por Nemertes en $ 137 mil millones de dólares (una bicoca si vemos los que está costando la crisis del sistema financiero americano) para los operadores de redes de los Estados Unidos, los cuales estarían invirtiendo un 60-70% menos de lo que debieran para mantener Internet indemne de riesgos. 

Sin embargo, tal como señala la nota, carece de sentido exponer datos sobre el crecimiento del tráfico de forma aislada, si no se tiene en cuenta la capacidad. Según TeleGeography, una consultora con sede en Washington, el crecimiento del tráfico superó el crecimiento de la red durante varios años después de 2002. Lo cual no era de extrañar por el exceso de capacidad resultante luego de la explosión de la burbuja de Internet. Sin embargo, apuntan, en los años  2007 y 2008, esta situación se ha revertido y la capacidad crece más velozmente que el tráfico.

Sin embargo, en los dos últimos años ha habido una inversión sustancial en infraestructuras en todo el mundo, lo cual puede traer otro problema. La verdadera amenaza puede provenir de una reducción en el crecimiento del tráfico de Internet. De acuerdo con Andrew Odlyzko, del Minnesota Internet Traffic Studies de la Universidad de Minnesota una tasa de crecimiento de tráfico del 50%, combinada con una disminución constante en los costos de los equipos y el estancamiento de los ingresos medios apenas animan a la industria. Si el crecimiento del tráfico desciende se frenan tanto la demanda de conexiones de alta velocidad como la de nuevos equipos.

¿En qué quedamos? Exaflood o parálisis por inanición. La discusión es compleja pues existen muchos intereses en juego, por un lado tenemos a las empresas de telecomunicaciones que vienen desplegando infraestructura y por el otro a los proveedores de contenidos desarrollando servicios cada vez más demandantes de ancho de banda, en el medio tenemos a la administración que está empezando a solventar cada vez con mayor recurrencia el gasto de estas nuevas redes. La época no es buena, por razones que todos conocemos, para discusiones académicas, en este contexto no sonará descabellado uando algunos Estados volteen la cara para mirar a los proveedores de contenidos y les digan: – ¡Y cómo es! Paga tu también… 

Separación funcional de Telecom Italia

Este último 11 de diciembre el regulador italiano de las telecomunicaciones, AGCOM (Autorità per le Garanzie nelle Comunicazioni – Autoridad para la Garantía de las Comunicaciones), anunció un paquete de medidas conducentes a que el operador dominante de la telefonía fija, Telecom Italia, desagregue en dos unidades de negocio su red troncal y los accesos mayoristas de los accesos locales. De esta forma se pone fin a una larga disputa entre la compañía de teléfonos y el regulador italiano, que de no haber tomado la iniciativa Telecom Italia, habría terminado irremediablemente con la desagregación de las actividades mayorista y minorista de la empresa, sólo que impuesta manu militare. 

Open Access di Telecom (Open Access), será la nueva división encargada de de gestionar de forma independientela la red de Telecom Italia. El objetivo de esta iniciativa es garantizar en igualdad de condiciones el acceso a la red mayorista por parte de los competidores de Telecom Italia. Esta medida empezará a materializarse a partir del próximo 1 de enero. 

Algunos analistas ven en la decisión del Grupo, una forma para liderar el proceso antes que entregárselo al regulador, también un mecanismo con el cual financiar su nueva red de alta velocidad valorizada en unos 6.500 millones de euros para los próximos diez años y finalmente, con la cual exigir a AGCOM que disminuya la presión regulatoria en la comercialización.

Si bien este modelo como un mecanismo para evitar prácticas anticompetitivas ha generado importantes debates desde hace muchos años, recién se llevó a la práctica cuando en el mercado británico se separaron las redes minorista y mayorista de British Telecom en el 2005. OpenReach, es la encargada de controlar y operar las fibras, los hilos de cobre y otros recursos no electrónicos de la red de acceso, lo que ha venido a llamarse la primera milla (Brochure corporativo). Para asegurar la transparencia del proceso se han establecido una serie de procesos del tipo muralla china entre Openreach y el resto de las operaciones y sistemas del Grupo British Telecom. Esta unidad está supervisada por un «Consejo de Igualdad de Acceso» con directores independientes. Modelos similares se vienen discutiendo en Australia (Telstra), Nueva Zelanda (TNZ), Suecia (Telia Sonera) y Singapur (SingTel). Nótese que salvo los casos sueco e italiano -en Italia todo es particular- el efecto contagio viene afectando principalmente a países de la esfera de la Commonwealth, donde la influencia británica es más que evidente.

¿Son necesarias estas medidas? Particularmente creemos que mientras los beneficios de la separación estructural son cuestionables, los costos de esta decisión son más que evidentes. Una serie de investigaciones para el caso británico señalan que la medida sigue siendo cuestionable en la medida que muchos de los éxitos alcanzados se habrían producido a través de remedios regulatorios.

Sin embargo, los inconvenientes de la separación funcional son más claros. Como se sabe es una tendencia en el mundo desarrollado sustituir del cobre por redes de banda ancha como el Fiber to Home (FTH). De tal suerte que los operadores no invierten en una red de fibra hasta que identifican las zonas donde la inversión es rentable. Si la operación está desintegrada se quiebra la coordinación entre la inversión y las necesidades de comercialización. En este escenario las opciones para invertir no parecen las más aconsejables, para qué hacerlo si se tiene una red explotada monopólicamente que no puede ser retada.

Por otro lado, la separación parte por entender a la red como un ente estático, lo cual no es cierto. Como se sabe los avances tecnológicos son capaces de modificar el mercado en un breve período de tiempo, sin embargo una estructura de esta naturaleza puede constituirse en un límite para el desarrollo de nuevas plataformas que reten a la existente. 

Finalmente, esta medida parece más destinada a asegurar la existencia misma del regulador antes que destinada a fomentar la competencia. Al privatizar los servicios de telecomunicaciones, se pensó que después de un determinado lapso de tiempo con la introducción de cada vez más competencia en los diferentes mercados éstos se irían liberalizando progresivamente. Por el contrario la separación estructural como reta este concepto, pues al existir un sólo operador monopólico de la primera milla, siempre será necesaria la existencia de un regulador que lo supervise.

Cabe recordar que en la reciente reunión de ministros de telecomunicaciones de la Unión Europea (Reguladores y cambio tecnológico y Unión Europea regula SMS) uno de los temas de agenda fue la posible separación funcional de la red de los operadores de telecomunicaciones, al final se acordó que las autoridades regulatorias podían aplicar esta decisión sólo como una «medida extraordinaria».

Wi-Fi, las Administraciones Públicas y la CMT

Con ocasión de las consultas que presentaran los municipios españoles de Motril y Avilés a la CMT (Comisión del Mercado de las Telecomunicaciones), el blog del regulador español ha publicado un extenso post (Wifi, muniWifi, Wifi gratis, Wifi local… y la CMT) donde analiza la problemática relacionada con el hecho que los municipios puedan ofrecer servicios de Wi-Fi. Sana envidia no sólo por el blog, sino también por el hecho de publicar en su web las Resoluciones del Consejo de la CMT, cosa que hacía Osiptel hasta que descubrió que la transparencia perjudicaba su labor y dejó de hacerlo (La trasparencia en los actos de Osiptel, ¡Media vuelta y avancen!).

De acuerdo con el blog de la CMT, cualquier Administración Pública puede intervenir en el mercado y explotar redes o prestar servicios de comunicaciones electrónicas, al igual que lo hacen los operadores privados. Para ello, las Administraciones Públicas (AAPP) tienen que cumplir determinados requisitos. Los más básicos: inscripción en el registro de la CMT (notificación fehaciente); separación de cuentas con arreglo a los principios de neutralidad, transparencia y no discriminación; respetar las reglas de la libre competencia y atenerse a las condiciones especiales que la CMT les pueda fijar para garantizar que no se distorsiona la competencia.

Con relación al hecho de brindar acceso Wi-Fi gratuito, se señala que la CMT ha reiterado en numerosas ocasiones que esta situación podría, producir distorsiones a la libre competencia. Es decir, si un Municipio instala una red Wi-Fi en una zona en la que los operadores privados han realizado inversiones y ofrecen servicio, y presenta una oferta a precio de cero o por debajo de los precios de mercado, sufragando esa red vía impuestos, parece evidente que no se están respetando las reglas del libre mercado. Esto no significa que un Ayuntamiento nunca pueda ofrecer gratuitamente estos servicios. Cuando un Ayuntamiento apueste por la gratuidad del servicio deberá: comunicárselo previamente a la CMT; explicar durante cuánto tiempo tiene intención de hacerlo y someterse a las condiciones que la CMT le pueda imponer.

La participación de las AAPP en la prestación de servicios públicos es un tema de particular relevancia en la actualidad y la forma en la ésta participación se materializa está generando un intenso debate. En anteriores posts hemos destacado algunas de estas discusiones (Banda ancha y propiedad, El Estado está de regreso, Monticello, de la escasez a la abundancia, !Chim Pum¡ Internet).

En el caso del Perú esta discusión recién empieza, les mantendremos informados.