¿Viene el exaflood?

Exaflood es el término acuñado para definir el posible colapso de Internet por la sobrecarga de tráfico de Internet. Sobre el tema el conocido diario británico The Economist, la prestigiosa revista británica, ha publicado y colgado el 4 de diciembre un artículo (Surviving the exaflood) donde nos detalla tanto las más dramáticas profecías como aquellas posiciones que las desmienten. No debo señalar que vale la pena leerlo.

El neologismo (del exabyte, 1018 bytes o mil millones de giga bytes) fue acuñado por Brett Swanson, del Discovery Institute, que predijo en enero del año 2007 (The Coming Exaflood) que Internet no está ni remotamente preparado para manejar el diluvio de datos que está procesando en la actualidad. Swanson, trabaja hoy en Washington en la Fundación para la Libertad y el Progreso (Progress and Freedom Foundation) considera que existen varias tecnologías que son capaces de generar extremadamente una gran cantidad de tráfico, como los sitios de video sharing, videoconferencia, descargas de películas, juegos en línea, televisión sobre protocolo de Internet, los video teléfonos, imágenes médicas a distancia y servicios de back-up que almacenan documentos en línea. YouTube generó solo más tráfico en Internet en el año 2006 que todo el Internet en el año 2000.

No es el primer caso, tampoco será el último. En 1995 Robert Metcalfe, el famoso ingeniero que elaboró la Ley de  Metcalfe y fundador de 3Com, predijo en un artículo que Internet sufriría un colapso aproximadamente en los próximos años. Para reforzar su apuesta, prometió comerse sus palabras si esto no legaba a suceder, al parecer las tomó literalmente. En 1997 con ocasión de la Sexta conferencia internacional de la World Wide Web, Metcalfe tomó una hoja con su columna y tras mezclarla con un liquido amenazó con comérsela. Finalmente no se la comió por las protestas del respetable que decidieron liberarlo finalmente de tal carga.

Anécdotas a parte, Nemertes, una consultora de investigación de mercados, publicó un documento (Internet Interrupted: Why Architectural Limitations Will Fracture the ‘Net) a fines del año pasado donde advertía que la demanda de los usuarios de Internet podría superar la capacidad de aquí al 2010. El costo global de mejorar la red para evitar una disminución en la calidad del servicio ha sido calculado por Nemertes en $ 137 mil millones de dólares (una bicoca si vemos los que está costando la crisis del sistema financiero americano) para los operadores de redes de los Estados Unidos, los cuales estarían invirtiendo un 60-70% menos de lo que debieran para mantener Internet indemne de riesgos. 

Sin embargo, tal como señala la nota, carece de sentido exponer datos sobre el crecimiento del tráfico de forma aislada, si no se tiene en cuenta la capacidad. Según TeleGeography, una consultora con sede en Washington, el crecimiento del tráfico superó el crecimiento de la red durante varios años después de 2002. Lo cual no era de extrañar por el exceso de capacidad resultante luego de la explosión de la burbuja de Internet. Sin embargo, apuntan, en los años  2007 y 2008, esta situación se ha revertido y la capacidad crece más velozmente que el tráfico.

Sin embargo, en los dos últimos años ha habido una inversión sustancial en infraestructuras en todo el mundo, lo cual puede traer otro problema. La verdadera amenaza puede provenir de una reducción en el crecimiento del tráfico de Internet. De acuerdo con Andrew Odlyzko, del Minnesota Internet Traffic Studies de la Universidad de Minnesota una tasa de crecimiento de tráfico del 50%, combinada con una disminución constante en los costos de los equipos y el estancamiento de los ingresos medios apenas animan a la industria. Si el crecimiento del tráfico desciende se frenan tanto la demanda de conexiones de alta velocidad como la de nuevos equipos.

¿En qué quedamos? Exaflood o parálisis por inanición. La discusión es compleja pues existen muchos intereses en juego, por un lado tenemos a las empresas de telecomunicaciones que vienen desplegando infraestructura y por el otro a los proveedores de contenidos desarrollando servicios cada vez más demandantes de ancho de banda, en el medio tenemos a la administración que está empezando a solventar cada vez con mayor recurrencia el gasto de estas nuevas redes. La época no es buena, por razones que todos conocemos, para discusiones académicas, en este contexto no sonará descabellado uando algunos Estados volteen la cara para mirar a los proveedores de contenidos y les digan: – ¡Y cómo es! Paga tu también… 

Separación funcional de Telecom Italia

Este último 11 de diciembre el regulador italiano de las telecomunicaciones, AGCOM (Autorità per le Garanzie nelle Comunicazioni – Autoridad para la Garantía de las Comunicaciones), anunció un paquete de medidas conducentes a que el operador dominante de la telefonía fija, Telecom Italia, desagregue en dos unidades de negocio su red troncal y los accesos mayoristas de los accesos locales. De esta forma se pone fin a una larga disputa entre la compañía de teléfonos y el regulador italiano, que de no haber tomado la iniciativa Telecom Italia, habría terminado irremediablemente con la desagregación de las actividades mayorista y minorista de la empresa, sólo que impuesta manu militare. 

Open Access di Telecom (Open Access), será la nueva división encargada de de gestionar de forma independientela la red de Telecom Italia. El objetivo de esta iniciativa es garantizar en igualdad de condiciones el acceso a la red mayorista por parte de los competidores de Telecom Italia. Esta medida empezará a materializarse a partir del próximo 1 de enero. 

Algunos analistas ven en la decisión del Grupo, una forma para liderar el proceso antes que entregárselo al regulador, también un mecanismo con el cual financiar su nueva red de alta velocidad valorizada en unos 6.500 millones de euros para los próximos diez años y finalmente, con la cual exigir a AGCOM que disminuya la presión regulatoria en la comercialización.

Si bien este modelo como un mecanismo para evitar prácticas anticompetitivas ha generado importantes debates desde hace muchos años, recién se llevó a la práctica cuando en el mercado británico se separaron las redes minorista y mayorista de British Telecom en el 2005. OpenReach, es la encargada de controlar y operar las fibras, los hilos de cobre y otros recursos no electrónicos de la red de acceso, lo que ha venido a llamarse la primera milla (Brochure corporativo). Para asegurar la transparencia del proceso se han establecido una serie de procesos del tipo muralla china entre Openreach y el resto de las operaciones y sistemas del Grupo British Telecom. Esta unidad está supervisada por un «Consejo de Igualdad de Acceso» con directores independientes. Modelos similares se vienen discutiendo en Australia (Telstra), Nueva Zelanda (TNZ), Suecia (Telia Sonera) y Singapur (SingTel). Nótese que salvo los casos sueco e italiano -en Italia todo es particular- el efecto contagio viene afectando principalmente a países de la esfera de la Commonwealth, donde la influencia británica es más que evidente.

¿Son necesarias estas medidas? Particularmente creemos que mientras los beneficios de la separación estructural son cuestionables, los costos de esta decisión son más que evidentes. Una serie de investigaciones para el caso británico señalan que la medida sigue siendo cuestionable en la medida que muchos de los éxitos alcanzados se habrían producido a través de remedios regulatorios.

Sin embargo, los inconvenientes de la separación funcional son más claros. Como se sabe es una tendencia en el mundo desarrollado sustituir del cobre por redes de banda ancha como el Fiber to Home (FTH). De tal suerte que los operadores no invierten en una red de fibra hasta que identifican las zonas donde la inversión es rentable. Si la operación está desintegrada se quiebra la coordinación entre la inversión y las necesidades de comercialización. En este escenario las opciones para invertir no parecen las más aconsejables, para qué hacerlo si se tiene una red explotada monopólicamente que no puede ser retada.

Por otro lado, la separación parte por entender a la red como un ente estático, lo cual no es cierto. Como se sabe los avances tecnológicos son capaces de modificar el mercado en un breve período de tiempo, sin embargo una estructura de esta naturaleza puede constituirse en un límite para el desarrollo de nuevas plataformas que reten a la existente. 

Finalmente, esta medida parece más destinada a asegurar la existencia misma del regulador antes que destinada a fomentar la competencia. Al privatizar los servicios de telecomunicaciones, se pensó que después de un determinado lapso de tiempo con la introducción de cada vez más competencia en los diferentes mercados éstos se irían liberalizando progresivamente. Por el contrario la separación estructural como reta este concepto, pues al existir un sólo operador monopólico de la primera milla, siempre será necesaria la existencia de un regulador que lo supervise.

Cabe recordar que en la reciente reunión de ministros de telecomunicaciones de la Unión Europea (Reguladores y cambio tecnológico y Unión Europea regula SMS) uno de los temas de agenda fue la posible separación funcional de la red de los operadores de telecomunicaciones, al final se acordó que las autoridades regulatorias podían aplicar esta decisión sólo como una «medida extraordinaria».

Foro sobre protección de datos en el Congreso

El día 12 de noviembre se desarrollará por iniciativa del despacho del congresista Víctor Isla Rojas y la Asociación Nacional de Defensa del Consumidor (ANDC), el Foro «Privacidad, Seguridad y Protección de Datos del Consumidor«, desde las 15 horas, en la Sala Grau del Palacio Legislativo (Plaza Bolivar s/n -Cercado de Lima).

Dada la escasa relevancia y difusión que suelen tener la defensa de los derechos de los ciudadanos en la discusión cotidiana, nos encontramos ante una buena iniciativa que vale la pena destacar.

El evento será presentado por el congresista Víctor Isla Rojas y tendrá como expositores al Dr. Raúl Chanamé Orbe (Derecho a la privacidad en la jurisprudencia peruana); Dr. Cedric Laurant (Evolución histórica del derecho a la privacidad y la protección de datos personales en el mundo); Dra. Rosa María Apaza Estaño (Defensa de la intimidad del consumidor y la protección de datos); Jeimy Cano Martínez (Gestión de Seguridad de la Información y su relación con la Ley de Protección de Datos) y los blawyers Antonio Rodríguez Lobatón (Institucionalidad y protección de datos) y Oscar Montezuma Panes (La defensa de los datos personales en Europa, Estados Unidos y Latinomérica).

El ingreso será libre.

El copyleft no es anarquista

Imagen con licencia implícita por ACido.

(Artículo publicado en el Suplemento de Actualidad Cultural «El Dominical» del diario «El Comercio» el 8 de junio de 2008 como parte de una edición especial sobre industrias culturales)

En el Perú el marco normativo de los derechos de autor está contenido en el Decreto Legislativo 822, mismo que protege todas las creaciones que tengan un grado determinado de originalidad. Cuando alguien crea una obra original obtiene, de manera automática, derechos patrimoniales y morales. Dentro de la lista de derechos morales destacan los referidos a la paternidad (reconocimiento al autor como creador de la obra), y a la integridad, es decir que nadie puede alterar o modificar esta creación. Los derechos morales son indisponibles. En el caso de los derechos patrimoniales, se trata de derechos disponibles que permiten al autor la explotación, reproducción y distribución de la creación. Estos derechos patrimoniales tienen un plazo temporal de protección que es la vida del autor, más 70 años. Luego de este tiempo la obra pasa al dominio publico y puede ser usada sin mediar autorización salvo algunas excepciones.Este modelo de protección funcionaba bien en el mundo analógico, donde la mayoría de las industrias culturales y de entretenimiento basaban sus negocios en el control de la copia o la reproducción de la obra original, sin embargo en el mundo digital en que vivimos las creaciones pueden ser distribuidas y transformadas gracias a la tecnología existente, con mayor rapidez y facilidad generando nuevas formas de innovación y creatividad (por ejemplo el caso de Wikipedia). En ese contexto nacen nuevas tendencias de protección más flexibles como el copyleft.

El copyleft se basa en las normas de derecho de autor vigentes y ofrece al autor la posibilidad de autorizar de manera previa ciertos usos acordes con la realidad tecnológica vigente sobre sus creaciones. Un ejemplo clásico es la industria musical, donde el tradicional modelo de negocio basado en el control de la copia ya no es rentable, y al parecer lo que funciona mejor para artistas y músicos se centra ya no en la venta del soporte físico que contiene la música sino en un modelo integral de promoción basado en conciertos, merchandising y en todas las formas creativas que tienen hoy los músicos para comunicarse con su público gracias al uso de la tecnología.

Algunos sostienen que el copyleft es una propuesta anarquista que busca vulnerar los derechos de autor, cuando lo que realmente busca es adaptar legalmente estos derechos a la realidad y permitir un uso inteligente de las creaciones. Por ejemplo, un autor puede ceder los derechos de libre difusión de su obra, pero mantener otros de manera que nadie pueda transformarla ni comercializarla. Finalmente, más allá de la discusión jurídica, lo importante parece estar en la definición del modelo de negocio de las industrias culturales y de entretenimiento, al cual el Derecho tendrá que adecuarse (y no al revés). En todo caso los cambios parecen orientarse hacia un modelo de protección más flexible que represivo.