Born Digital

Born Digital es el nuevo libro de John Palfrey y Urs Gasser del Berkman Center for Internet & Society de la Harvard Law School como parte del progecto Digital Natives.

De acuerdo con las reseñas que se han hecho y de la información colgada en la web del libro, los autores intentan describir la generación de aquellos jóvenes nacidos después de 1980 (nativos digitales), es decir de aquellos que han crecido rodeados por la tecnología digital. Al contrario que las generaciones nacidas antes (inmigrantes digitales), los nativos digitales se relacionan socialmente, consumen información y ven al mundo condicionados por los medios digitales.

Según su web, el libro intenta responder a preguntas como: ¿Qué significa la identidad para los jóvenes que tienen docenas de perfiles y avatars en internet? ¿Tenemos que preocuparnos por las cuestiones de privacidad – o es la privacidad siquiera una cuestión para los nativos digitales? ¿Cuál es el impacto de internet sobre la capacidad y el aprendizaje? ¿A qué va a atenerse esta generación -socialmente, profesionalmente y psicológicamente?

Cómo se pueden abodar estos problemas, hay una sola solución – sostienen-, y es la educación. Los autores desean que los padres, educadores y legisladores participen y dialogen con la generación digital, en lugar de dejarlos a su suerte. 

Algunas reseñas de este libro se pueden encontrar en: apophenia («Born Digital» by John Palfrey and Urs Gasser), cadaunadas (Born Digital), elia (presentación sobre los nativos digitales), periodismociudadano (nacidos en la era digital) y The Technology Liberation Front (book review: Palfrey & Gasser’s «Born Digital»).

El turno de Google Transit

Desde hace algún tiempo el destino de Google parece estar marcado por el signo del enfrentamiento. Hagamos un breve recuento: el sistema de búsqueda de imágenes en miniatura (thumbnails) ha sido cuestionado en Alemania (Google se estrella contra el muro alemán); Google News ha chocado duramente con los editores de diarios e incluso perdió -aunque el fallo no es definitivo- un juicio con la Société de Gestion de Droits des Éditeurs de Presse Quotidienne Francophone et Germanophone Belge (Copiepresse), que agrupa a los editores de prensa belgas; la implementación del Google books – la biblioteca digital de Google- le ha valido un enfrentamiento con la industria editorial; Youtube, su popular portal de videos ha sido profundamente discutido por la industria de contenidos (YouTube en la telearañaYouTube debe retirar videos de Telecinco, pero…) por vulnerar sus derechos de autor; hasta su propio motor de búsquedas está sometido a análisis por una demanda en Barcelona (Google y la sentencia de la Audiencia de Barcelona). El imperio Google avanza y con él también los celos, pasiones y quejas de quienes se sientes afectados. Algunas veces como en el caso de la industria editorial los reclamos parecen tener un trasfondo razonable -aunque perdamos una gran oportunidad de masificar la cultura y la información- pero otros cuestionamientos son sólo reflejo de actitudes oportunistas que intentan meter como sea diente a los cuantiosos ingresos de la transnacional americana. 

Todos los problemas reseñados han tenido como actores a empresas privadas, las cuales alegan que los servicios del gigante de Mountain View, vulneran algún tipo de derecho patrimonial. Sin embargo, parece que las entidades del Estado tampoco serían ajenas a esta tendencia. La Autoridad de Tránsito del Área Metropolitana de Washington (Metropolitan Area Transit AuthorityWMATA) es una agencia gubernamental que opera el servicio de transporte en el área metropolitana de Washington DC y el servicio cuestionado, de acuerdo con el Wall Street Journal (Google Vs Washington D.C.’s Public Transit System), es el Google Transit, como no podía ser de otra forma en etapa beta.

Google Transit permite saber cuál es la ruta más eficiente paso a paso utilizando las unidades de transporte público. Proporciona un mapa de la ruta, la duración del viaje y un cuadro comparativo con los costos entre el servicio público y hacer la ruta en auto privado, incluyendo el precio de la gasolina. El servicio puede utilizarse desde una PC y dispositivos móviles. El inconveniente es que el servicio, se soporta en los datos de las autoridades de transporte y en el caso de la ciudad de Washington con la WMATA. 

La WMATA, ha decidido dejar de proporcionar sus datos a Google Transit. Un representante de la entidad advirtió que no habían podido ponerse de acuerdo con el mecanismo de repartición de ingresos. Al parecer, el gran inconveniente es que la WMATA acaba de actualizar su sitio web y su plan de viajes. La WMATA pretende impulsar que sus usuarios visiten su sitio web. 

Lo discutible del caso es cómo la información elaborada por una entidad de la administración que brinda un servicio público la retacea sólo para rentabilizar su sitio web. Recordemos con en el Perú de forma similar, el Diario Oficial El Peruano cuestionó la publicación por parte de Gaceta Jurídica de una versión digitalizada del boletín de normas en su web. Nos encontramos ante un peligroso precedente, básicamente porque patrimonializa información que siempre debe tener carácter público, es decir no sólo la autoridad administrativa no debería limitar su acceso a quien quiera explotarla, sino que tampoco está habilitada a entregarla en exclusiva.

Sólo las ciudades latinoamericanas de Belo Horizonte y São Paulo en Brasil están por el momento dentro del programa. ¿Cuándo aparecerá en el Google Transit nuestra querida ruta Cocharcas – José Leal?

La RIAA deja los juicios, ahora corta el servicio

Luego del supuesto abandono de Google de los criterios de la Net Neutrality o neutralidad de la red (Google se pasa al lado oscuro, ahora es elooG) el Wall Street Journal publica otra noticia importante (Music Industry to Abandon Mass Suits). Según el diario la Recording Industry Association of America (RIAA), luego de varios años de demandar a miles de ciudadanos por descargar supuestamente música a través de Internet, está dispuesta a abandonar esta estrategia en la medida que ahora estima que existen formas más eficaces de luchar contra estas actividades.

A partir del año 2003 la RIAA inició una serie de demandas contra los supuestos infractores de sus derechos de autor hasta alcanzar la suma de 35.000 personas, estas acciones no sólo afectaron de forma importante la imagen de la industria sino que tampoco hicieron gran cosa para evitar que los usuarios de Internet continuaran descargando música masivamente. Como se recordará, gracias al modelo empleado para emplazar a los demandados conocido como «John Doe«, la RIAA inculpó a menores de edad, ancianos, una impresora láser y hasta a una persona que había fallecido. Esta seguidilla de demandas, no sólo ha desgastado a la industria sino que tampoco puede exhibir ningún precedente judicial importante a su favor. 

Según la nota, la RIAA pretende alcanzar una serie de alianzas con los ISPs más importantes, a partir de las cuales desarrollar un procedimiento, similar al de la Digial Millennium Copyright Act (DMCA), que suponga un freno para las descargas ilegales en Internet. De acuerdo con la nota, una vez que se ha detectado al infractor, se le enviará un correo electrónico al proveedor. Dependiendo del acuerdo alcanzado, el ISP alertará a sus clientes suspendan la actividad, si éstos continúan con la práctica, recibirán un par de mensajes más, o quizá aletargando su servicio de acceso a Internet. Por último, el ISP podrá cortar el acceso por completo. El modelo no es original, se ha implementado en Francia por el gobierno del presidente Sarkozy y se está discutiendo en Inglaterra.

Es posible que en esta oportunidad los ISPs tengan una mayor predisposición a colaborar con la RIAA que en años anteriores, pues vienen desarrollando modelos de negocio con sellos discográficos propios que podrían colisionar directamente con la descarga de contenidos por parte de sus usuarios. Por otro lado, el hecho que sean ahora los propios ISPs quienes se comunicarán con sus abonados, evita que revelen la identidad de los infractores, lo cual suaviza uno de los aspectos más polémicos de la anterior estrategia.

Sobre el particular, existen demasiados puntos oscuros que tal vez se vayan aclarando hasta conocer el verdadero alcance de los acuerdos, cuando existan, de la industria con los ISP. Una cuestión importante es determinar hasta qué punto los ISPs están dispuestos a colaborar con la RIAA sólo porque sus abonados desarrollan una actividad que estaría colisionando con un nuevo modelo de negocio sustentado en los contenidos, pues no olvidemos que la DMCA tiene una serie de disposiciones del tipo puerto seguro que relevan a los ISPs de mayor responsabilidad en estos casos. Mehan Jayasuriya (RIAA Strikes a ‘Three Strikes’ Deal, Everybody Loses) cree que esta colaboración se podría entender desde que de esta forma los ISPs podrían disciplinar a sus usuarios que consumen un mayor ancho de banda, dado que, cuando quisieron desarrollar algún tipo de gestión del tráfico, los activistas de la neutralidad de la red lo impidieron.

He leido por allí que bastaría que un ISP señalara que no está dentro del acuerdo para que todos los usuarios se vayan con él. Reconozco que al principio pensé que esta era una alternativa plausible, pero es un error, los usuarios que consumen una gran cantidad de ancho de banda son como los glotones en un servicio de hostelería del tipo «todo incluido», mientras más glotones tenga mi local la media de alimentos que tengo que comprar aumenta y con ello también el precio medio y por ende el margen disminuye. Con lo cual el mejor de los mundos es aquél donde pueda sacarme a los glotones de encima y tener hospedados sólo a consumidores con un consumo promedio. En Internet ocurre lo mismo, no existe un negocio del tipo de acceso que sólo pueda sostenerse sólo con heavy users, por ello parece razonable que los ISPs se vean tentados a aceptar la propuesta de la RIAA.

Sobre las posibles alegaciones de vulneración a la neutralidad de la red que podría tener la medida, rescato uno de los comentarios que sobre el particular aparece en el blog Denken Über (La RIAA abandona la estrategia de juicios por «piratería») que no tiene desperdicio: «la neutralidad de la red … no existe… nunca existió… ya basta con esto«.

Bajas música, videojuegos y porno: paga

De acuerdo con una nota que publica la BBC (Cash demand over ‘porn downloads’) y que recoge bandaancha.eu, (Protestas de los internautas británicos poniendo el caso español Promusicae vs. Telefónica como ejemplo) en el Reino Unido seis millones de personas descargan música y archivos de películas de forma gratuita cada año, más de la mitad de éstos son menores de 25 años y las redes más utilizadas: Gnutella, eDonkey y BitTorrent.

Esta noticia no tiene nada de novedosa, pero lo curioso de ella ver cómo en la mayoría de países la industria musical o del entretenimiento sigue el mismo patrón para intentar disciplinar a aquellas personas que bajan contenidos de Internet sin pagar los correspondientes derechos de autor. La polémica empezó cuando la Corte Suprema británica decidió que los ISP estaban obligados a proporcionar los datos personales de los clientes que intercambiaban archivos protegidos de una serie videojuegos. Recordemos que en España, la Asociación de Productores de Música de España (Promusicae) intentó hacer lo mismo pero el Tribunal de Justicia de las Comunidades Europeas no lo permitió. Ya comentamos este caso en su oportunidad (Operadores de acceso pueden mantener el anonimato de quienes decargan música).

Con estos datos, las empresas propietarias de los contenidos tienen todo un abanico de posibilidades para presionar a los internautas para que paguen por los videos que han descargado. El método empleado en Inglaterra, de forma similar a las políticas seguidas por la Recording Industry Association of America (RIAA) en los Estados Unidos, consiste en el envío de cartas por correo en las que se acusa al destinatario de intercambiar archivos ilegalmente y exigiendo por ello el pago de 500 libras por concepto de compensación. Estas comunicaciones advierten que si no se realiza el pago se tomarán las medidas legales correspondientes, las cuales podrían derivar en un pago superior.

Lo interesante del caso es que mientras que, de acuerdo con la experiencia de los Estados Unidos, en la mayoría de los casos los denunciados se han negado a pagar por el material que han bajado gratuitamente, en Inglaterra podría ocurrir lo contrario, en la medida que una de las compañías que está enviando las comunicaciones es la alemana DigiProtect, la cual acusa a los destinatarios de descargar películas para adultos, en otras palabras de bajar pornografía. Una cosa es que se acuse a las personas de bajar canciones o películas y otra de formar parte de una red que intercambia porno duro.

Una de los principales problemas de la industria del porno antes de la aparición de las nuevas tecnologías era su carácter marginal. Sin embargo, si alguna industria de contenidos puede sentirse satisfecha, en alguna medida, con la aparición de Internet es la del porno. Los portales de Internet y las redes P2P han tomado el lugar de revistas, DVDs y videos VHS. Las posibilidades de búsqueda casi infinita de material porno, el aumento en la cantidad del material sexual transmitido a los usuarios, la velocidad de entrega y la privacidad que se percibe al consumir este tipo productos en Internet han logrado un aumento considerable de la demanda de productos pornográficos (Fabio D’Orlando).

Si el anonimato es una de las características que más valora el usuario que consume pornografía a través de Internet, coincidiremos que DigiProtect es consciente que gran parte de los que han recibido sus comunicaciones pagarán sin chistar el importe requerido, ello por el pánico que tienen de ser relacionados como consumidores de pornografía.

Sin embargo, el problema del tipo de mecanismo empleado por DigiProtect para identificar el uso de sus películas es su falta de confiabilidad. Por ejemplo, tal como señala la nota de la BBC, la creciente popularidad de las tecnologías inalámbricas, Wi-Fi o home networks implican la posibilidad de compartir una conexión de internet con una serie de personas, lo cual dificulta la plena identificación de los posibles consumidores de las películas de DigiProtect.

Si bien es comprensible y hasta entendible que las empresas exijan el pago de estos derechos, el mecanismo empleado por DigiProtect para exigirlos es cuestionable pues afecta una serie de derechos fundamentales como a la reputación y la privacidad. No son los únicos problemas. La perdida de la lealtad de sus posibles consumidores es otro, aunque tratándose de la industria del porno esta última afectación no creo que le importe mucho a DigiProtect.

Google se pasa al lado oscuro, ahora es elooG

¿Quién ha dicho que en occidente las religiones han muerto? Al menos en Internet esta sería una afirmación, por decir lo menos, cuestionable. Porque Internet es en sí misma una religión, con su ciudad sagrada (Sillicon Vally), sus sumos sacerdotes, fieles (millones), conversos, congregaciones (Google), demonios (Microsoft y las telcos), libros sagrados (Neuromante y la Declaración de Independencia del Ciberespacio), reliquias (Netscape) y por supuesto sus mandamientos, elevados a dogma de fe, verdades reveladas, incorruptibles, inalterables, inquebrantables e inmutables. Eterno fuego para el que ose quebrantarlos. Una de estas verdades es, sin lugar a dudas, la neutralidad de la red o Net Neutrality. 

Google es la congregación más poderosa de esta religión -algo así como los Jesuitas en la Contrarreforma- que a punto está de perder algunos de sus más fieles devotos. Éstos se han sentido tan desilusionados -ya vienen perdiendo la fe desde hace tiempo- con algunas de las últimas acciones, que hasta la amenazan en blogs y foros con dejar de seguirla, de usar sus servicios y de migrar a otra congregación que respete a pie firme la letra del catecismo vulnerado. Sólo podrá evitar esta maldición si se retracta públicamente y demuestra que sigue fiel a los principios eternos de la neutralidad de la red. ¿Qué es lo que ha pasado?

El lunes 15 de este mes, el diario neoyorkino The Wall Street Journal publicó un artículo (Google Wants Its Own Fast Track on the Web) donde nos señalaba como Google se había puesto en contacto con una serie de empresas de telecomunicaciones para proponerles la creación de un carril rápido que privilegie sus contenidos en Internet. Lo cual no debiera ser un problema, si no fuera porque Google ha sido tradicionalmente uno de los más acérrimos defensores de la neutralidad de la red, aparentemente la noticia la ponía vulnerando este credo que tanto había ayudado a construir, para decirlo en contexto fue descubierta blasfemando contra su prédica. El revuelo en el templo ha sido tremendo y desproporcionado: Lessig, Wired, Wu, Bennett, Dans y BusinessWeek por citar algunos casos.

Sobre este aquelarre podemos sacar dos conclusiones, a tenor de uno de los últimos post (Net neutrality and the benefits of caching) publicado en el blog de Google. La primera conclusión, es que la noticia es cierta -lo de los contactos con las telecos- y la segunda que Google no abandona la neutralidad de la red. Al parecer, lo que Google pretende es crear una red de distribución de contenidos (Content Delivery Network – CDN) propia del tipo Akamai. Las redes del tipo CDN operan a través de unos servidores que se encuentran físicamente más cerca de los usuarios. Al solicitarse un contenido, en lugar de responder los servidores centrales, la solicitud es atendida por el servidor más cercano al usuario.

La neutralidad de la red es un principio tan ambiguo y etéreo que es difícil tener unanimidad con respecto a qué se quiere decir cuando se lo invoca. Algunas veces parece que estamos ante una frase en Wookle, idioma de los jedis o para darle contenido local, de nuestro hoy popular cuy mágico. Existen, según uno se encuentre, dos tendencias con relación a la neutralidad de la red. Al ala izquierda de la doctrina están quienes afirman que cualquier intervención es negativa y todo el tráfico de la red tiene que tener el mismo trato independientemente de quien lo origine y a donde vaya. Por otro lado tenemos a quienes propugnan que es una limitación para que quienes dominan ciertos elementos de red no prioricen determinado tráfico en beneficio propio y en perjuicio de sus competidores.

No parece que la posición del ala izquierda sea plausible, en la medida que ataría de manos tanto a proveedores de contenidos como a operadores de servicios de telecomunicaciones para desarrollar tecnologías que permitan aligerar el tráfico de Internet. La posición del ala derecha parece más razonable (Lessig), lo que no está permitido es limitar los contenidos de los competidores y priorizar los propios. Desde este punto de vista es válido que los proveedores de contenidos pacten con los operadores de servicios de telecomunicaciones soluciones más eficientes o rutas preferentes para su tráfico. No olvidemos que en Internet uno de los criterios de competencia es claramente la velocidad con que los servicios llegan al usuario, es más, en algunos casos la latencia es crítica incluso para recibir el servicio en sí mismo (vídeos, juegos). No encuentro ninguna razón que amerite castigar a Google por intentar alcanzar soluciones que eliminan externalidades y benefician a los usuarios. Tal vez porque no creo en la neutralidad de la red como un dogma de fe.

¿Viene el exaflood?

Exaflood es el término acuñado para definir el posible colapso de Internet por la sobrecarga de tráfico de Internet. Sobre el tema el conocido diario británico The Economist, la prestigiosa revista británica, ha publicado y colgado el 4 de diciembre un artículo (Surviving the exaflood) donde nos detalla tanto las más dramáticas profecías como aquellas posiciones que las desmienten. No debo señalar que vale la pena leerlo.

El neologismo (del exabyte, 1018 bytes o mil millones de giga bytes) fue acuñado por Brett Swanson, del Discovery Institute, que predijo en enero del año 2007 (The Coming Exaflood) que Internet no está ni remotamente preparado para manejar el diluvio de datos que está procesando en la actualidad. Swanson, trabaja hoy en Washington en la Fundación para la Libertad y el Progreso (Progress and Freedom Foundation) considera que existen varias tecnologías que son capaces de generar extremadamente una gran cantidad de tráfico, como los sitios de video sharing, videoconferencia, descargas de películas, juegos en línea, televisión sobre protocolo de Internet, los video teléfonos, imágenes médicas a distancia y servicios de back-up que almacenan documentos en línea. YouTube generó solo más tráfico en Internet en el año 2006 que todo el Internet en el año 2000.

No es el primer caso, tampoco será el último. En 1995 Robert Metcalfe, el famoso ingeniero que elaboró la Ley de  Metcalfe y fundador de 3Com, predijo en un artículo que Internet sufriría un colapso aproximadamente en los próximos años. Para reforzar su apuesta, prometió comerse sus palabras si esto no legaba a suceder, al parecer las tomó literalmente. En 1997 con ocasión de la Sexta conferencia internacional de la World Wide Web, Metcalfe tomó una hoja con su columna y tras mezclarla con un liquido amenazó con comérsela. Finalmente no se la comió por las protestas del respetable que decidieron liberarlo finalmente de tal carga.

Anécdotas a parte, Nemertes, una consultora de investigación de mercados, publicó un documento (Internet Interrupted: Why Architectural Limitations Will Fracture the ‘Net) a fines del año pasado donde advertía que la demanda de los usuarios de Internet podría superar la capacidad de aquí al 2010. El costo global de mejorar la red para evitar una disminución en la calidad del servicio ha sido calculado por Nemertes en $ 137 mil millones de dólares (una bicoca si vemos los que está costando la crisis del sistema financiero americano) para los operadores de redes de los Estados Unidos, los cuales estarían invirtiendo un 60-70% menos de lo que debieran para mantener Internet indemne de riesgos. 

Sin embargo, tal como señala la nota, carece de sentido exponer datos sobre el crecimiento del tráfico de forma aislada, si no se tiene en cuenta la capacidad. Según TeleGeography, una consultora con sede en Washington, el crecimiento del tráfico superó el crecimiento de la red durante varios años después de 2002. Lo cual no era de extrañar por el exceso de capacidad resultante luego de la explosión de la burbuja de Internet. Sin embargo, apuntan, en los años  2007 y 2008, esta situación se ha revertido y la capacidad crece más velozmente que el tráfico.

Sin embargo, en los dos últimos años ha habido una inversión sustancial en infraestructuras en todo el mundo, lo cual puede traer otro problema. La verdadera amenaza puede provenir de una reducción en el crecimiento del tráfico de Internet. De acuerdo con Andrew Odlyzko, del Minnesota Internet Traffic Studies de la Universidad de Minnesota una tasa de crecimiento de tráfico del 50%, combinada con una disminución constante en los costos de los equipos y el estancamiento de los ingresos medios apenas animan a la industria. Si el crecimiento del tráfico desciende se frenan tanto la demanda de conexiones de alta velocidad como la de nuevos equipos.

¿En qué quedamos? Exaflood o parálisis por inanición. La discusión es compleja pues existen muchos intereses en juego, por un lado tenemos a las empresas de telecomunicaciones que vienen desplegando infraestructura y por el otro a los proveedores de contenidos desarrollando servicios cada vez más demandantes de ancho de banda, en el medio tenemos a la administración que está empezando a solventar cada vez con mayor recurrencia el gasto de estas nuevas redes. La época no es buena, por razones que todos conocemos, para discusiones académicas, en este contexto no sonará descabellado uando algunos Estados volteen la cara para mirar a los proveedores de contenidos y les digan: – ¡Y cómo es! Paga tu también… 

Wi-Fi, las Administraciones Públicas y la CMT

Con ocasión de las consultas que presentaran los municipios españoles de Motril y Avilés a la CMT (Comisión del Mercado de las Telecomunicaciones), el blog del regulador español ha publicado un extenso post (Wifi, muniWifi, Wifi gratis, Wifi local… y la CMT) donde analiza la problemática relacionada con el hecho que los municipios puedan ofrecer servicios de Wi-Fi. Sana envidia no sólo por el blog, sino también por el hecho de publicar en su web las Resoluciones del Consejo de la CMT, cosa que hacía Osiptel hasta que descubrió que la transparencia perjudicaba su labor y dejó de hacerlo (La trasparencia en los actos de Osiptel, ¡Media vuelta y avancen!).

De acuerdo con el blog de la CMT, cualquier Administración Pública puede intervenir en el mercado y explotar redes o prestar servicios de comunicaciones electrónicas, al igual que lo hacen los operadores privados. Para ello, las Administraciones Públicas (AAPP) tienen que cumplir determinados requisitos. Los más básicos: inscripción en el registro de la CMT (notificación fehaciente); separación de cuentas con arreglo a los principios de neutralidad, transparencia y no discriminación; respetar las reglas de la libre competencia y atenerse a las condiciones especiales que la CMT les pueda fijar para garantizar que no se distorsiona la competencia.

Con relación al hecho de brindar acceso Wi-Fi gratuito, se señala que la CMT ha reiterado en numerosas ocasiones que esta situación podría, producir distorsiones a la libre competencia. Es decir, si un Municipio instala una red Wi-Fi en una zona en la que los operadores privados han realizado inversiones y ofrecen servicio, y presenta una oferta a precio de cero o por debajo de los precios de mercado, sufragando esa red vía impuestos, parece evidente que no se están respetando las reglas del libre mercado. Esto no significa que un Ayuntamiento nunca pueda ofrecer gratuitamente estos servicios. Cuando un Ayuntamiento apueste por la gratuidad del servicio deberá: comunicárselo previamente a la CMT; explicar durante cuánto tiempo tiene intención de hacerlo y someterse a las condiciones que la CMT le pueda imponer.

La participación de las AAPP en la prestación de servicios públicos es un tema de particular relevancia en la actualidad y la forma en la ésta participación se materializa está generando un intenso debate. En anteriores posts hemos destacado algunas de estas discusiones (Banda ancha y propiedad, El Estado está de regreso, Monticello, de la escasez a la abundancia, !Chim Pum¡ Internet).

En el caso del Perú esta discusión recién empieza, les mantendremos informados.

Reguladores y cambio tecnológico

Hace unas semanas los países de la Unión Europea (UE) llegaron a un acuerdo para reformar su sector de las telecomunicaciones. Este paquete busca armonizar las prácticas regulatorias de los Estados miembros y fomentar la competencia.

Sobre este tema ya escribimos recientemente un post (Unión Europea regula SMS), en particular con relación a la nueva regulación del roaming en el mercado del servicio de mensajes móviles (Short Message Service – SMS). Pero la reforma es mucho más profunda y ya habrá tiempo para escribir sobre ella. 

Con ocasión de la aprobación de dicha dicha reforma – anunciada el 27 de noviembre del mes pasado-, Dean Bubley de Disruptive Wireless ha realizado algunas notas (EU intervention in mobile – a double-edged sword) que me parecen de lo más oportunas y que no se aplican solamente a la reforma que impulsa la comisaria Viviane Reding, sino también a las iniciativas y tentaciones que suelen tener la mayoría de los organismos reguladores. Nos encontramos también ante una crítica razonable al propio Estado, que entiende muchas veces que la inventiva y el desarrollo se pueden implementar de espaldas al mercado, cuando lo cierto es que las más de las veces los esfuerzos privados progresan a pesar del propio Estado.

Para Bubley, muchas de las decisiones gubernamentales sobre cuál es la tecnología más conveniente o los intentos por armonizar las legislaciones de la UE se sustentan en posiciones pasadas de moda. El llamado «paquete de telecomunicaciones» incluye muchas demandas onerosas, y, autoritarias. Pero, afortunadamente, el Consejo de Ministros de Telecomunicaciones de la UE ha descartado algunos de los más ridículos aspectos de la propuesta, incluyendo la sugerencia de crear un regulador centralizado europeo y la política de espectro.

En particular, debe tenerse en cuenta que nos encontramos en el cambio de un modelo verticalmente integrado y centrado en la industria de las telecomunicaciones vocales a un modelo de capas, datos/Internet, íntimamente ligado con las tecnologías de la información y la industria del entretenimiento. De esta forma los intentos para imponer requisitos legales en las capas tecnológicas puede introducir sobrecostos, retrasos y fallas de mercado. Como ejemplo, señala la intervención en el mercado de televisión móvil, donde la insistencia en el formato DVB-H contradice la política de «neutralidad tecnológica».

Los últimos esfuerzos de la Comisión para entrometerse en el mercado se sitúan en torno a la armonización de la política del espectro radioeléctrico. Si bien es un objetivo que podría ayudar a crear economías de escala a los proveedores, desconoce que cada mercado europeo es muy diferente, dadas las distintas preferencias tecnológicas, la psicología del cliente y las políticas de Estado. La creación de una autoridad centralizada con sede en Bruselas que pueda vetar algunas regulaciones nacionales, es un anatema para la mayoría de los observadores.

Para Bubley algunas de las ideas en torno a la «net neutrality» parecen bastante cuestionables, teniendo en cuenta el surgimiento de innovadores modelos de negocio en los mercados más competitivos. No hay nada de malo en la no neutralalidad si los modelos permiten cambiar de proveedor. Por tanto, la legislación sobre apertura y transparencia de la no-neutralidad sería bienvenida, lo que es una distinción muy importante -estamos de acuerdo-.

La Comisión Europea y Viviane Reding en general, deben limitarse a atender aquellas cuestiones que limitan la protección de los consumidores y la competencia. En este contexto, la reciente declaración de la comisaria Reding es otra garantía de fracaso: «Debemos asegurarnos de que la Web 3.0 se realize y utilice en Europa«. Para Bubley, es la declaración más megalómana que ha escuchado de un burócrata en largo tiempo, y es casi una segura garantía de que no se va a producir. El único paso que Europa tiene que tomar para responder a la próxima ola de la revolución de la información es salir del camino, y dejar la innovación a los innovadores.

Berlusconi quiere regular Internet

Leyendo la prensa de hoy nos encontramos con la noticia (adn, la Repubblica y abc) que el Primer Ministro italiano, en una visita al parque tecnológico de Roma de la empresa de correos Poste Italiane, habría adelantado su intención incluir en la próxima cumbre del G8 una propuesta para establecer una regulación internacional de Internet.

Berlusconi plantea llevar a la cumbre, que tendrá lugar en la isla italiana de la Magdalena el próximo mes de julio de 2009, la idea de «reglamentar el sistema de internet en el mundo. A internet le hace falta una reglamentación«.

La regulación de Internet es un tópico sobre el que se han escrito un número inemnso de documentos por los más variopintos ponentes. Allí tenemos a Lessig y su Código y Perry Barlow y su famosa declaración de independencia del ciberespacio. Pero más allá de que en los inicios de la Red se anunciara lo dificil e imprevisible que sería su legislación, lo cierto es que nos encontramos ante un ecosistema bastante regulado.

Haciendo un recuento, tenemos normas específicas contra la piratería de música y software, que prohíben la apropiación de dominios, penas elevadas para el fraude cibernético y los delitos Informáticos, límites a la publicidad en Internet en especial contra el spam, normas que regulan el comercio electrónico, sentencias que modelan el despido de trabajadores por uso de elementos informáticos en el centro de trabajo (Internet y correo electrónico), también existe legislación para proteger la intimidad y los datos personales. Como normas emblemáticas tenemos a la española la Ley de Servicios de la Sociedad de la Información y de Comercio Electrónico (LSSI), la Directiva sobre Comercio Electrónico de la Unión Europea, la Anticybersquatting Consumer Protection Act (ACPA), la alucinante USA Patriot Act, la Digital Millennium Copyright Act (DMCA), tambièn la Children’s Online Privacy Protection Act (COPPA) o la fallida Child Online Protection Act (COPA). La lista es enorme.

Es curioso, pero hace sólo unos meses Berlusconi reconocía abiertamente que Internet era un medio que no conocía. Parece que en pocos meses la situación ha cambiado. Habrá que ver la propuesta, pero poco crédito tiene el magnate italiano, si tomamos nota que hace unos días (El País) su Gobierno subió el IVA a los clientes de la televisión paga y a los canales que emiten por Internet. Nótese que las empresas de Berlusconi compiten directamente con estos medios. Como decía el Mariscal Óscar R. Benavides, militar peruano que llegó a ser presidente (1914-1915 / 1933-1939), «para mis amigos todo, para mis enemigos la ley«.

Banda ancha y propiedad

«La banda ancha se ha convertido como la maternidad y la torta de manzana; nadie está en contra de que le den más«. La frase es de Robert Atkinson y está citada en un reciente paper de Tim Wu y Derek Slater (Homes with Tails, What if you Could Own your Internet Connection?), donde desarrollan un nuevo mecanismo para incentivar el acceso de banda ancha en los hogares. El problema es cómo obtener un mayor ancho de banda agregado nacional, sin utilizar dinero público o destruir los incentivos privados para desplegarla.

Existen básicamente tres enfoques para el despliegue de banda ancha en el mundo. El de Corea y Japón, con incentivos fiscales e inversión pública para el despliegue de fibra, principalmente por parte de empresas nacionales de telecomunicaciones, como Korea Telecom o NTT. En Europa, se permite el acceso a las instalaciones del titular de la red de transporte, con la esperanza que el mercado estimule la demanda de banda ancha. En Estados Unidos se ha reducido al mínimo la participación del gobierno.

Wu y Slater proponen otro enfoque: que los hogares inviertan en fibra a partir de lo que han llamado «Homes with Tails» (casas con cola). Los usuarios adquieren las conexiones de fibra hasta sus hogares y podrán conectarse a una gran variedad de servicios como: Internet, televisión, telefonía, así como ultra-ancho de banda para futuros servicios. 

Los aspectos más importantes de este enfoque incluyen:

1. Un régimen de «condominio» en la titularidad de la fibra, donde se venden conexiones de fibra individuales a los consumidores y el mantenimiento se gestiona conjuntamente,

2. Las empresas privadas y los municipios podrían considerar la venta de conexiones de fibra sobre este modelo, y

3. Los gobiernos podrían utilizar diversos mecanismos para apoyar la compra de fibra por los usuarios, incluyendo un crédito fiscal a los que adquieren una conexión de banda ancha.

En este modelo, un cable de fibra óptica se convierte en la cola del hogar y pasa a formar parte de la casa como un accesorio. Pero un cable troncal, debe atravesar todo un barrio con el fin de servir a muchos hogares. La fibra requiere una estructura de propiedad, tanto individual como colectiva. El régimen de propiedad en este modelo es un condominio. Cada usuario sería titular de su propia línea, pero con relación a la red troncal que atraviesa el barrio sería una propiedad colectiva. Después de instalada la fibra, la comunidad debe suscribir un contrato con una sociedad de gestión para su mantenimiento. 

Para demostrar la viabilidad de la propuesta citan el experimento de 400 casas que está siendo probado en el centro de Ottawa, donde se ha desplegado una red troncal y puntos para la distribución de las conexiones domiciliarias. La venta de fibra parte de una iniciativa entre una empresa de construcción y revendedores de electricidad.