Derecho fundamental a la banda ancha (I)

Este 4 de noviembre el Partido Aprista presentó una iniciativa legislativa (04434/2010-CR) que pretende declarar como derecho fundamental el acceso a la banda ancha para todo ciudadano peruano residente en el territorio nacional. Dedicaremos esta entrada a comentar la norma y sus posibles efectos.

En principio, toda preocupación para masificar el acceso a Internet a través de conexiones de banda ancha debe ser aplaudida, sin embargo, creemos que los efectos de esta norma, en el improbable caso que sea aprobada, serán más bien escasos por no decir irrelevantes.

Que la mayoría de ciudadanos en distintas latitudes consideran que el acceso a Internet es un derecho fundamental es una realidad incontrastable. En un estudio (BBC: Internet es un derecho fundamental) realizado por Globescan entre noviembre de 2009 y febrero de 2010 para el Servicio Mundial de la BBC, reveló que el 79 por ciento de los encuestados consideraban que el acceso a Internet era efectivamente un derecho fundamental. Como era de esperarse siete de cada diez personas que carecían de Internet consideraron que deberían tener derecho al acceso a la Red. El número de encuestados, 27 mil adultos de 26 países. Los países latinoamericanos donde se llevó a cabo la encuesta fueron Brasil, Chile, Costa Rica, El Salvador, Guatemala, Honduras, México, Nicaragua y Panamá.

Sin embargo, tengo serias dudas de que el acceso a la banda ancha pueda considerarse como un derecho fundamental; y; por otro lado, estimo que no es con esta declaración como las naciones han logrado su masificación.

La iniciativa parlamentaria señala como antecedentes que diversos Estados ya habrían declarado el acceso a la banda ancha como un Derecho, refiriéndose puntualmente a los casos de Finlandia, Costa Rica, España, Grecia y Francia. Está bien si se quiere ostentar el prurito de ser pioneros en incorporar el acceso a la banda ancha como un derecho como fundamental, sin embargo, no es correcto decir que los países mencionados han elevado el acceso a la banda ancha como un derecho fundamental. Vayamos por partes.

España no reconoce el acceso a la banda ancha como un derecho fundamental. Lo que existe es un proceso de consulta en marcha para incorporar a la banda ancha dentro del paquete del servicio universal (aquí). El caso de Grecia pareciera ser similar al español -la banda ancha dentro de las obligaciones del servicio universal-, aunque no he podido encontrar una referencia seria sobre el particular.

Aun cuando Suiza no está en la lista de países pioneros en reconocer este derecho que nos presenta el Proyecto, suele citarse como ejemplo de declaración del acceso a la banda ancha como derecho fundamental. Sin embargo, esta referencia no es correcta. En el año 2006 el regulador suizo de las telecomunicaciones (Federal Office of Communications) ajustó (aquí) las obligaciones del servicio universal e incluyó como parte de la oferta de servicios indispensables a aplicarse desde el 2008, un acceso a Internet a una velocidad de transmisión mínima de 600/100 kbps.

Tampoco Costa Rica ha declarado el acceso a la banda ancha como derecho fundamental como parece señalarse en el Proyecto. Lo que existe es un fallo de la Sala Constitucional (aquí) en el marco de un recurso de amparo interpuesto contra el Ministerio de Ambiente, Energía y Telecomunicaciones para que asumiera sus obligaciones en el marco del Tratado de Libre Comercio entre la República Dominicana, Centro América y Estados Unidos (CAFTA), en particular que se acelerara el proceso de subasta y asignación de determinadas frecuencias para telefonía celular. La Sala, no considera el acceso a Internet como un derecho fundamental, advierte que en los actuales momentos «(…) el acceso a estas tecnologías se convierte en un instrumento básico para facilitar el ejercicio de derechos fundamentales«. En lo que importa, la Sala ordenó que se procediera al concurso de las licencias.

El caso de Francia es similar, una sentencia judicial del Consejo Constitucional (Conseil constitutionnel) dispuso, al examinar la constitucionalidad de la conocida ley Hadopi, que Internet es una herramienta indispensable para el ejercicio de la libertad de expresión, consagrado como un derecho fundamental y por ello su acceso debe ser garantizado plenamente. Por tanto, de acuerdo con el Consejo, corresponde a un juez, y no a una autoridad administrativa, decidir si procede aplicar determinada sanción por descargas ilegales de contenidos por Internet.

El caso de Finlandia fue muy sonado y se presentó como el primer país que reconocía el acceso a Internet a través de la banda ancha como un derecho fundamental (Applause For Finland: First Country To Make Broadband Access A Legal Right). Tampoco la información es correcta. En diciembre de 2008, el Gobierno finlandés aprobó el Plan Nacional de Banda Ancha para el período 2009-2015. El Plan, incorporó a las conexiones de 1 Mbps como parte del servicio universal para el año 2010 (aquí). En mayo de 2009 se modificó la Ley del Mercado de Comunicaciones (393/2003) para permitir que la regulación de la velocidad mínima de conexión a Internet por el Ministerio de Transportes y Comunicaciones (Liikenne- ja viestintäministeriö). En octubre de 2009 el Ministerio de Transportes y Comunicaciones emitió un Decreto relativo a la velocidad mínima de conexión a Internet. Según este Decreto, la velocidad de conexión mínima para el tráfico de entrada debía ser de 1 Mbps. para todo ciudadano residente en Finlandia (aquí y aquí). Es decir, las autoridades finesas han ajustado las obligaciones del servicio universal incorporando un mínimo de velocidad para el tráfico de Internet, lo que en sentido estricto no es reconocer al acceso a Internet como un derecho fundamental.

Como hemos visto, ninguno de los países citados por el Proyecto han elevado el acceso a Internet al nivel de derecho fundamental. En los ejemplos español, griego y finlandés nos encontramos ante un afinamiento de las políticas del servicio universal y en los casos francés y costarricense tenemos una declaración en el marco de sendas sentencias judiciales.

De aprobarse el Proyecto bajo comentario el Perú sería el primer país del mundo en reconocer el acceso a Internet, a la banda ancha en particular, como un derecho fundamental. En una siguiente entrada seguiremos comentando sobre el particular.

Wi Fi a bordo

En 1973 el consorcio «Metrolima» elaboró un estudio de factibilidad del que habría sido el «Sistema de Transporte Rápido Masivo de Pasajeros en el Área Metropolitana de Lima-Callao«. Lamentablemente, la crisis económica en la que se sumergió el Perú en las postrimeras del gobierno de Velasco impidió encontrar financiamiento para este proyecto (aproximadamente US$ 317 millones de la época) y como tantos otros propósitos en este país, terminó por archivarse.

El Metrolima contemplaba un total de cuatro (4) líneas de tren subterráneo. La primera desde Comas hasta la avenida México con Paseo de la República, donde se convertía en un tren de superficie, atravesaba la Panamericana Sur por Atocongo (donde se suponía terminaría el «Zanjón» de Bedoya) hasta su estación final en San Juan de Miraflores. La segunda línea, desde Aviación con Javier Prado hasta Faucett. La tercera, desde el Rímac hasta la Residencial San Felipe en Javier Prado. La cuarta, del Mercado Mayorista de La Victoria hasta Faucett.

Que el gobierno militar no fuera capaz de dotar a la ciudad de Lima de un medio de transporte subterráneo tuvo las consecuencias que hoy todos soportamos. Una ciudad atascada a toda hora, todo el tiempo, todos los días. Los limeños nos enfrascamos diariamente en un espeso mar de taxis, combis, buses de todos los años y tamaños y en algunos lugares de la ciudad sufrimos a los mototaxis, en lo que viene a ser un inequívoco síntoma de calcutización de la ciudad.

Treinta y cinco años después del último proyecto serio de un tren subterráneo para Lima se vienen implementando dos iniciativas que podrían solucionar en algo el problema del tránsito en la ciudad. Comprenderán los que viven en estas tierras que me estoy refiriendo a los proyectos de El Tren Eléctrico (TE) y al Metropolitano.

El TE es heredero directo del Metrolima. Empezó a construirse en 1986, durante el primer gobierno de Alan García bajo el esquema de un viaducto elevado. Sin embargo, la falta de dinero y la improvisación lo pusieron a dormir por varios lustros. Luego del reinicio de los trabajos, se supone que se concluirá en el 2011. La primera etapa del TE irá desde Villa El Salvador hasta la Avenida Grau, donde se interconectará con la Estación Central del Metropolitano.

El Metropolitano es la otra gran obra de transporte público masivo que viene implementándose en la ciudad, pero a diferencia del TE, el Metropolitano corre por cuenta de la Municipalidad Metropolitana de Lima. Consiste en un sistema de buses que transita a través de un corredor segregado por algunas vías importantes de la ciudad. Su construcción se inició en el año 2006, terminará quién sabe cuando, y consta de dos tramos. El Corredor Sur desde la Estación Central a Matellini en Chorrillos y el Corredor Norte desde la Estación Central a El Naranjal en Comas.

Ya veremos cómo funcionan. Un aspecto que podría estudiarse respecto de estos dos sistemas de transporte es la posibilidad de dotarlos de algún nivel de conectividad a Internet. Somos conscientes que no es posible exigir a los destartalados buses y combis un avance de desta naturaleza, algunos si apenas funcionan, pero el TE o el Metropolitano podrían tener acceso a Internet.

No sería la primera ciudad en contar con estas modernidades. El Ayuntamiento de Madrid  anunció recientemente que una parte de su flota de buses ya dispone de la infraestructura necesaria para proporcionar acceso a Internet vía WI-Fi. Asimismo, desde julio del año pasado el proveedor de servicios de transporte público SBS Transit de Singapur, introdujo conectividad a Internet en varios de sus vehículos. El acceso está disponible para cualquier pasajero con un dispositivo con conexión Wi-Fi sin la necesidad de obtener una clave de autenticación.

Para concretar esta iniciativa, los encargados de gestionar tanto el TE como el Metropolitano tendrían que explorar las siguientes alternativas. La primera, permitir que una empresa concesionaria de telecomunicaciones establecida brinde acceso. En este caso los encargados de la administración no tendrían que gestionar ningún tipo de licencia o título habilitante. Otra alternativa, es la de constituirse en un ISP y brindar ellos mismos el servicio de acceso a Internet. Para ello es necesario contar con un Registro de Valor Añadido —el cual no es muy difícil de obtener-, ante el Ministerio de Transportes y Comunicaciones. Finalmente, podrían comercializar los servicios de un operador establecido, para lo cual habrían inscribirse en el Registro de Empresas Comercializadores de Servicios de Telecomunicaciones también ante el Ministerio. Estos dos últimos modelos tienen el inconveniente que las administraciones, tanto del TE como del Metropolitano, serían responsables por la calidad e idoneidad de los servicios ofrecidos ante OSIPTEL y sus usuarios.

Otro aspecto a debatir es cuál sería el modelo de negocio. Si es a través de un acceso gratuito, es decir, pagado por todos los usuarios del servicio de transporte o financiado con la venta de tarjetas con las claves de autenticación. Si el servicio es gratuito y las administraciones son privadas, nos encontramos bajo el modelo Blockbuster (Starbucks sin laptops) y si la titular es una empresa pública el modelo es el de Carmen de la Legua (Carmen de la Legua-Reynoso y su acceso libre a Internet). En el primer caso no encontramos mayores inconvenientes; en el segundo, los problemas a la libre competencia y competencia desleal que ya indicamos en su oportunidad.

Global Voices Citizen Media Summit 2010: Día 2, primera parte

Hiperbarrio y la Internet como agente de cambio social

Yesenia Corrales nos presentó Hiperbarrio.org, un colectivo formado en Medellín y dedicado a promover la inclusión digital y el acceso al conocimiento en zonas periféricas de su ciudad. Su principal objetivo es promover entre los jóvenes las herramientas tecnológicas y el uso de la Internet, con la finalidad de darles nuevas oportunidades y evitar que formen parte de las bandas de delicuentes que se han establecido en Medellín. En una emotiva intervención, Gabriel Vanegas nos habló luego de la labor de Hiperbarrio en las bibliotecas públicas de Medellín y refirió que una persona más que es incluida en la Internet es una persona menos que gana la violencia.

Blogs, Irán y libertad de expresión

Más tarde estuvimos en la presentación del periodista estadounidense Cyrus Farivar sobre la situación de la blogósfera en Irán. El periodista, de ascendencia iraní, ha viajado y estudiado la libertad de expresión en Senegal, Irán, Estonia y Corea del Sur. Nos cuenta que para él no fue ninguna sorpresa el buzz generado el año pasado a propósito de las elecciones presidenciales en ese país (es decir, #IranElections) y se muestra escéptico respecto de la influencia que pueda tener Internet por sí sola para generar un cambio político. Señala que Irán es uno de los países con mayor penetración de telefonía en la región y la mayoría de su población es joven y tiene acceso a los medios digitales, por lo que la Internet no es un fenómeno ni nuevo ni ajeno a su sociedad.

Cyrus hizo un recuento cronológico de la tirante relación entre el gobierno iraní y el discurso disidente en Internet. Al parecer, la política del gobierno es entrar a combatir a los disidentes fuera y dentro de Internet. Desde fuera, desde el 2001 en que se da la primera ley para controlar a los ISPs y las cabinas internet. Posteriormente, se creó un comité estatal dedicado a monitorear investigar el Internet. La represión directa va desde el 2003, cuando se envía a prisión por primera vez a un blogger hasta el año pasado, cuando murió por primera vez un blogger en prisión en Irán. Pero el gobierno también tiene una estrategia dentro de Internet: desde el 2006 el propio líder de facto de Irán tiene un blog y actualmente maneja un perfil en Twitter (@khamenei_ir).

La conclusión de Farivar es que el desarrollo de Internet, por sí solo, no ha sido capaz de cambiar hacer más democrática la sociedad iráni (No, the internet does not help build democracies). Al contrario, el gobierno actualmente usa las herramientas de la web 2.0 para su propios propósitos. Existe una página en donde el gobierno coloca fotos de manifestaciones en contra del régimen y se invita a los internautas, bajo total anonimato, a que identifiquen y proporcionen datos de los fotografiados. Es decir, el propio gobierno hace crowdsourcing al mejor estilo para identificar disidentes. Esta idea de que la Internet va a provocar un sociedades más democráticas y participativas, nos dice, se ha ensayado respecto de cada nueva tecnología desde la invención del telégrafo. El camino hacia la democracia en Irán es un fenómeno más complejo, que necesita ser estudiado en detalle y que –aunque nos gustaría que así fuese– no depende exclusivamente de gente protestando en Twitter.

Foto principal: Sylwia Presley (CC BY-NC)

Dónde queremos jugar

Cuando era niño, una de las decisiones más simples que tuve que tomar fue el deporte a practicar. El barrio imponía su ley y sólo cabía jugar al fútbol. Con los almanaques los más hábiles tendrían la oportunidad de jugar en algún equipo de la Primera División y los menos se desparramaban por combinados de Segunda, Copa Perú o ligas distritales. El sueño velado de todo niño que mal patea el balón en un pampón terroso es jugar en alguna de las principales competiciones de Europa. Para decirlo en breve el sueño de todo niño es jugar la Champions.

Entre las naciones las aspiraciones no son muy distintas. Jugar la Champions League de las naciones implica que un Estado es capaz de dotar a la mayoría de sus ciudadanos de un grado importante de bienestar, reducir la pobreza, brindar una buena educación, optimizar los servicios de asistencia sanitaria y dotarlos de eficientes servicios públicos. Como en el fútbol, naciones habrá que jueguen la Champions y otras que se desempeñen en campos con menos pompa y glamour. En el mundo de las TICs ¿Dónde juega Perú?

La Base de Conocimientos sobre la Capacitación de Naciones Unidas para el E-Gobierno (United Nations E-Government Readiness Knowledge Base – UNKB) es una herramienta discriminadora que permite monitorear el progreso del gobierno electrónico de los países.

httpv://www.youtube.com/watch?v=z0A9CnAHnks

Hace unos días la UNKB actualizó el Índice Global de E-Gobierno (IGE) correspondiente para año 2010 (el reporte final todavía no está disponible), evaluación que ha pasado totalmente desapercibida en el medio local, incluso en círculos especializados. El IGE – 2010 nos puede dar la medida de cuál es la categoría donde juega el Perú.

El IGE mide la capacidad y voluntad de los países para utilizar el e-gobierno como una herramienta para su desarrollo. Además de evaluar los sitios web gubernamentales de un país, incorpora mediciones a las características de acceso, como la infraestructura y los niveles educativos, a fin de reflejar cómo se usan las tecnologías de la información para promover el acceso y la inclusión.

Como vemos en el gráfico siguiente, Corea del Sur lidera el último IGE global con un índice de 0.8785 (+5), seguido por los Estados Unidos 0.8510 (+2), Canadá 0.8448 (+4) y el Reino Unido 0.8147 (+6).

El Perú aparece con un IGE global de 0.4923 en el puesto 63 (-8) y sexto en Latinoamérica. Colombia lidera el IGE regional con 0.6125, también es el Estado que más progreso ha realizado en e-gobierno en la Región, aparece en el puesto global 31 (+21). Detrás de Colombia aparece Chile 0.6014, puesto 34 (+6); Uruguay 0.5848, puesto 38 (+12) y Argentina 0.5467, puesto 48 (-9).

Como el IGE se elabora a partir de diversas mediciones podemos ver cuál ha sido el desempeño del Perú en aspectos fundamentales no sólo para el desarrollo del e-gobierno sino para la evolución de todo el sector TIC nacional.

El índice de infraestructura de telecomunicaciones está compuesto por la ponderación de los seis principales indicadores que definen la capacidad de la infraestructura TIC de un país: PCs/1000 personas, usuarios de Internet/1000 personas; población online, líneas telefónicas/1000 personas, telefonía móvil/1000 personas y TV/1000 personas.

El Perú ocupa el puesto 7 del índice de infraestructura en la Región de doce países. Es decir el Perú lidera la tabla, pero de la Segunda División TIC latinoamericana.

Con relación al capital humano, se señala que existe correlación positiva entre un bajo capital humano y el e-gobierno para el desarrollo. Un alto nivel de educación permite que la población tenga un mayor acceso a las TIC y que se adapte rápidamente hacia un aumento de la productividad económica y social. Los datos para el índice de capital humano se basan en el índice de educación del PNUD, compuesto por las tasas de alfabetización de adultos y de matrícula bruta para educación primaria, secundaria y terciaria.

En este aspecto el Perú también lidera la Segunda División Latinoamericana. Aunque en este caso las diferencias entre los países de la región son menores.

Hace unos meses Michael Porter, catedrático de la Escuela de Negocios de Harvard, estuvo en Lima y si bien destacó algunos logros de la economía peruana, también identificó varios problemas. En enero Porter ratificó esta opinión en un artículo publicado en El Comercio («Cantar victoria es el peor riesgo», declaró Michael Porter): «…el Gobierno del Perú necesita invertir una mayor proporción de su PBI en infraestructura pública, como también debería alentar al sector privado para que tenga una mayor participación en temas de infraestructura», «… el sistema educativo está quebrado», «…además de las debilidades relacionadas al capital humano, se invierte de manera insuficiente en ciencia y tecnología».

El IGE no hacen sino validar la opinión del catedrático de Harvard. Las cifras, si bien no desentonan dramáticamente en el contexto Latinoamericano colocan al Perú lejos de la Primera División. Poca cosa si queremos vencer el subdesarrollo y tarea pendiente para el gobierno. A continuación el resumen de la estadística para el Perú.

Internet para un buen guiso de lentejas

Cuando apareció Internet se nos prometía un mundo mejor, se adelantaba la muerte de la distancia y se ofrecía la llegada de una nueva economía. Sin embargo, aunque muchas de estas promesas se han materializado, los medios de comunicación tradicionales (de martillo y mortero) y los virtuales (web 2.0) notician el día a día de otra forma. Pareciera que el mundo prometido sólo se circunscribe a la aparición constante de un paquete de herramientas para el disfrute edonista de un grupo de afortunados geeks.

Como ejemplo, basta ver cómo se han sucedido las noticias por el lanzamiento del iPad de Apple, un consumidor de contenidos interactivo que parece ser la apuesta de Jobs contra el Kindle de Amazon. No se ha hablado de otra cosa, incluso la salida en sociedad de este cacharro mereció más atención que el discurso del presidente Obama sobre el Estado de la Unión (Mashable: Steve Jobs vs. Obama: Who Got the Bigger Buzz?). La prensa tradicional y la 2.0 parecían calcadas. Lo cual no deja de tener sentido, si el dinero está en la publicidad no existe razón para comentar cómo Internet es útil en un pueblecito del Congo o si sirve para hacer más eficiente la comercialización de café en el valle del Chanchamayo.

Sin embargo, siempre hay algún asintónico que nos informa cómo las nuevas tecnologías ayudan a mejorar los mercados y a superar el problema de la pobreza. Gracias a The Economist (Worth a hill of soyabeans) sabemos que recientes estudios macroeconómicos sugieren que Internet y la telefonía móvil están impulsando el crecimiento económico y cómo este efecto es mayor en los países en desarrollo.

En un estudio publicado en 2009, Christine Zhen-Wei-Qiang del Banco Mundial  encontró que un incremento de diez puntos porcentuales en la teledensidad móvil genera un mayor crecimiento del PIB per cápita de 0,8 puntos porcentuales en un país en desarrollo. Para el acceso a Internet vía dial up, las cifras fueron de 1,1 y, si el acceso era de banda ancha, 1,4 puntos porcentuales.

The Economist cita también el caso del precio del pescado en la costa de Kerala en la India entre 1997 y 2001. Robert Jensen, de la Universidad de Harvard (The Digital Provide: Information (Technology), Market Performance, and Welfare in the South Indian Fisheries Sector), demostró que la telefonía móvil permitió una mayor eficiencia en las capturas, una reducción de los precios en un 4 por ciento y un aumento de las ganancias de los pescadores en un 8 por ciento.

En otra experiencia, Jenny Aker de la Universidad de Berkeley (Does Digital Divide or Provide? The Impact of Cell Phones on Grain Markets in Niger), analizó los mercados de cereales en Níger. Encontró que luego de la introducción de la telefonía móvil (2001 y 2006) se redujeron las variaciones de precios entre los distintos mercados. Esta estabilidad redujo los costos de transacción, generó menores precios para los consumidores y mayores para los comerciantes.

Finalmente, Aparajita Goyal del Banco Mundial ha realizado un estudio (Information Technology and Rural Market Performance in Central India) sobre la introducción de cabinas de Internet en la región india de Madhya Pradesh. En esta región los agricultores venden la soya a los intermediarios en mercados regulados llamados mandis, un sistema creado para evitar los abusos de los especuladores. ITC Limited, uno de los mayores compradores de soya, introdujo una red de quioscos de Internet, llamados e-Choupal. A fines de 2004 había instalado 1,704 de ellos. En estos quioscos se obtiene información agraria de interés, como el precio pagado por la soya en los diferentes mandis o las previsiones meteorológicas. De esta forma los agricultores pueden comprobar si los precios locales se ajustan a los de los demás mercados, estabilizándolos y eliminando, de esta forma, la posibilidad de abuso por parte de los especuladores.

Estas experiencias revelan lo que pueden hacer las nuevas tecnologías para regular los mercados y luchar contra la pobreza.

Alentado por estas experiencias me puse a buscar estudios similares para el caso peruano. Como sabemos, en el Perú existen numerosas iniciativas para ampliar la cobertura de telefonía móvil en zonas rurales y brindar acceso a Internet a comunidades alejadas (Banda Ancha para Localidades Aisladas). Qué encontré. No mucho. Un Informe de la Defensoría del Pueblo (Informe Defensorial Nº 117, El Desafio de la telefonía rural: una mirada desde los ciudadanos), algunas presentaciones y un paper del año 1996 en la web de FITEL (Fondo de Inversión en Telecomunicaciones) sobre el desarrollo de la telefonía rural en el Perú. En Osiptel nada -desde que cambió el diseño de su web es casi nada lo que se puede encontrar en ella- y en la del MTC lo mismo.

Ignoro cuál es la razón por la cual las autoridades, universidades o centros de investigación en el Perú no realizan investigaciones sobre el desempeño de las inversiones públicas. Sería interesante saber cual fue la evolución económica de las localidades que fueron dotadas de infraestructuras con fondos públicos y cómo es que éstas sirvieron para apalancar modelos de negocio locales. Esta información permitiría obtener la rentabilidad social de los proyectos ejecutados y afinar los modelos de inversión, lo cual incentivaría a que las ONGs y empresas privadas se animaran a desarrollar proyectos similares. Pero según entienden algunos su tarea se acaba con la entrega del dinero y la construcción e implementación de la obra.

Las leyes de Internet

Muchas de nuestras actividades cotidianas están «reguladas» no por disposiciones emanadas de un órgano jurídicamente organizado (un Estado), sino por normas que se derivan de la observación y confirmación de determinados hechos ocurridos en circunstancias particulares. La ley de Murphy es un ejemplo de ello. Así, Tom Chivers en Telegraph.co.uk (Internet rules and laws: the top 10, from Godwin to Poe) nos advierte que son diez las leyes de este tipo las que gobiernan Internet y valgan verdades muchas parecen ser incontrastables. Las resumimos a continuación:

1. Ley de Godwin

La más famosa, formulada por Mike Godwin en 1990. «Cuando un debate de Usenet crece, la probabilidad de que aparezca una comparación con los nazis o Hitler se aproxima a 1«. Esta ley se ha ampliado a cualquier debate en Internet.

Esta Ley está relacionada con la falacia lógica conocida como «reductio ad Hitlerum» o «argumentum ad nazium» propuesta originalmente por Leo Strauss, que dice: «a Hitler (o los nazis) le gustaba X, entonces X es malo».

Se puede puede utilizar también proscriptivamente. Si alguien en una discusión menciona a los nazis, la Ley de Godwin puede ser invocada, y ésta se pierde inmediatamente.

Sin embargo, si se invoca deliberadamente a los nazis para poner fin a la discusión, la Ley de Godwin no aplica. Codicilo que se conoce como «excepción de Quirk».

2. Ley de Poe

«Sin un emoticón guiñando un ojo u otra evidente figura humorística, es imposible hacer una parodia del fundamentalismo sin que alguien no se confunda y lo tome como con una opinión real».

Formulada por Nathan Poe en el 2005, durante un debate en christianforums.com acerca de la evolución, al referirse al creacionismo, pero desde entonces ha sido ampliada.

3. Artículo 34

Esta regla en concreto dice que «Si existe, habrá porno sobre ella«. Véase también el artículo 35: «Si no hay porno y existe, se hará«. Se refiere generalmente a personajes de ficción y de dibujos animados, aunque algunos insisten en que no hay excepciones.

4. Ley de Skitt

Fue declarada por primera vez por Bryan G., refiriéndose a un usuario de Usenet llamado Skitt en 1998.

Expresado como «cualquier entrada corrigiendo un error de otra entrada contiene al menos otro error» o «la probabilidad de un error en un mensaje es directamente proporcional a la vergüenza que podría causar el posteador«.

Se trata de la versión en línea de la Ley Muphry, también conocida como la Ley de Hartman o Represalia prescriptiva: «cualquier declaración acerca de la gramática correcta, puntuacion, o la ortografía tiene la obligación de contener al menos un error«.

5. Ley de Skopje

«Cualquier discusión en materia de ciencia o medicina, que cita a Whale.to como una fuente creíble se pierde de inmediato, y a ser expulsado con burla«. Formulado por primera vez por Rich Skopje, en el foro badscience.net.

Whale.to, es un sitio que incluye documentos como el texto completo del antisemita Protocolo de los Sabios de Sión, que afirman que el SIDA es causado por los programas de vacunación estatales y que Auschwitz nunca existió.

Ha sido ampliada para aquellas entradas sobre el creacionismo y la evolución en rationalwiki.com que citan textos de answersingenesis.org.

6. Ley de Danth (también conocida como Ley de Parker)

«Si afirmas que has ganado una discusión en Internet, probablemente la hayas perdido mal.» Lleva el nombre de un usuario del foro RPG.net.

7. Ley de Pommer

Propuesto por Rob Pommer en rationalwiki.com en el 2007: «la opinión de una persona puede ser cambiada al leer información en Internet. La naturaleza de este cambio será de no tener una opinión a tener una opinión equivocada«.

8. Leyes de DeMyer

Gracias a Ken DeMyer, un moderador en Conservapedia.com. La segunda ley DeMyer establece: «Toda persona que envía un argumento en Internet con extensas citas será de forma segura ignorado, y se considera que ha perdido la discusión antes de que ésta haya comenzado«.

9. Ley de Cohen

Propuesta por Brian Cohen en 2007, en un debate: «Quien recurre al argumento que … ha perdido de forma automática… ha perdido de forma automática el debate«.

10. La Ley de la exclamación

Aparece enunciada por primera vez en un artículo de Lori Robertson en FactCheck.org en el 2008, dice: «La mayor utilización de signos de exclamación en un correo electrónico (u otro anuncio), elevan la probabilidad que sea una mentira. También es válido para las excesivas letras capitales«.

Como antecedente de esta frase podemos citar a Terry Pratchett en Discworld que afirma que a más signos de exclamación al escribir, aumentan las probabilidades de que esa persona esté mentalmente desequilibrada.

Según Pratchett, cinco signos de exclamación es un indicador de que «alguien usa su ropa interior en el exterior«.

Los mejores libros del 2009

En diciembre del año pasado reprodujimos un extracto de una entrada de Adam Thierer en The Techonology Liberation Front (Los mejores libros del 2008). Convertido en un clásico de Blawyer repetimos la selección que Thierer hace para este año (The 10 Most Important Info-Tech Policy Books of 2009). Lamentablemente sólo he podido encontrar uno de ellos en línea y otro traducido al español. Reproducimos la lista:

(1) Chris Anderson – Free: The Future of a Radical Price. [crónica del artículo base: En el mundo del todo es gratis, Microsoft ¿Un pionero?].

(2) Larry Downes – The Laws of Disruption: Chaos and Control in Your Virtual Future.

(3) Dawn C. Nunziato – Virtual Freedom: Net Neutrality and Free Speech in the Internet Age.

(4) David Bollier – Viral Spiral: How the Commoners Built a Digital Republic of Their Own.

(5) David Post – In Search of Jefferson’s Moose: Notes on the State of Cyberspace.

(6) Dennis Baron – A Better Pencil: Readers, Writers, and the Digital Revolution.

(7) Mark Helprin – Digital Barbarism: A Writer’s Manifesto.

(8) William Patry – Moral Panics and the Copyright Wars.

(9) Gary Reback – Free the Market! Why Only Government Can Keep the Marketplace Competitive.

(10) Tyler Cowen – Create Your Own Economy: The Path to Prosperity in a Disordered World y John Freeman – The Tyranny of E-Mail: The Four-Thousand-Year Journey to Your Inbox.

Mención destacada: Manuel Castells – Communication Power (Comunicación y poder, Alianza Editorial, Madrid: 2009); James Boyle – The Public Domain: Enclosing the Commons of the Mind (disponible en línea) [nuestra crónica: El movimiento de cercamiento y el dominio público]; Randall Stross – Planet Google: One Company’s Audacious Plan to Organize Everything We Know; Ken Auletta – Googled: The End of the World As We Know It; Scott Rosenberg- Say Everything: How Blogging Began, What It’s Becoming, and Why It Matters; John W. Dozier Jr. and Sue Scheff – Google Bomb.

Cortado por pirata

Hace unos días nuestro blawyer Abel Revoredo nos alertaba de una noticia (España se queda sin Google???) que está causando tremendo alboroto en España. La madre del cordero está en el Proyecto de Ley de Economía Sostenible, que incluye una modificación a la Ley de Servicios de la Sociedad de Información (LSSI) de acuerdo con la cual se permitiría el cierre de aquellas páginas web que violan los derechos de autor, bastando para ello con la decisión de un órgano administrativo y sin necesidad de una orden judicial.

Si revisamos las páginas utilizadas por Abel para informarse -y que cita- tenemos la impresión que nos encontramos ante un proyecto fascista, que socava las libertades civiles, anticonstitucional, que vulnera la tutela efectiva y elimina la presunción de inocencia.

Como ya tenemos experiencia en este tipo de noticias y rara vez las visiones apocalípticas que se nos presentan inicialmente parten de un análisis serio y riguroso antes que demagógico y apasionado, preferimos revisar el texto del proyecto de Ley de Economía Sostenible:

Disposición final primera. Modificación de la Ley 34/2002, de 11 de julio, de Servicios de la Sociedad de la Información y del Real Decreto Legislativo 1/1996, de 12 de abril, por el que se aprueba Texto Refundido de la Ley de Propiedad Intelectual para proteger la propiedad intelectual frente a la piratería en Internet.

Uno. Se introduce una nueva letra e) en el art. 8.1.de la Ley 34/2002 de Servicios de la Sociedad de la Información con el siguiente tenor:

e) La salvaguarda de los derechos de propiedad intelectual.

Dos. Se introduce un nuevo apartado segundo del artículo 8 Ley 34/2002 de Servicios de la Sociedad de la Información, con renumeración correlativa de los actuales 2, 3, 4 y 5

2. Los órganos competentes para la adopción de las medidas a que se refiere el apartado anterior, con el objeto de identificar al responsable del servicio de la sociedad de la información que está realizando la conducta presuntamente vulneradora, podrán requerir a los prestadores de servicios de la sociedad de la información la comunicación de los datos que permitan tal identificación a fin de que pueda comparecer en el procedimiento. Los prestadores estarán obligados a facilitar los datos de que dispongan.

Tres. Se introduce una Disposición Adicional quinta en el Texto Refundido de la Ley de Propiedad Intelectual, aprobado por Real Decreto Legislativo 1/1996, de 12 de abril con la siguiente redacción:

El Ministerio de Cultura, en el ámbito de sus competencias, velará por la salvaguarda de los derechos de propiedad intelectual frente a su vulneración por los responsables de servicios de la sociedad de información en los términos previstos en los artículos 8 y concordantes de la Ley 34/2002, de 11 de julio, de Servicios de la Sociedad de la Información.

Cuatro. Se modifica el art. 158 del Texto Refundido de la Ley de Propiedad Intelectual, aprobado por Real Decreto Legislativo 1/1996, de 12 de abril con la siguiente redacción:, que pasa a tener la siguiente redacción:

“Artículo 158. Comisión de Propiedad Intelectual

1. Se crea en el Ministerio de Cultura, la Comisión de Propiedad Intelectual, como órgano colegiado de ámbito nacional, para el ejercicio las funciones de mediación y arbitraje y de salvaguarda de los derechos de propiedad intelectual que le atribuye la presente Ley.

En cristiano, si una web vulnera determinados principios las autoridades pueden ordenar se interrumpa su prestación. Estos principios son: (a) orden público, investigación penal, seguridad pública y defensa nacional; (b) salvaguarda de la salud pública o a las personas físicas o jurídicas; (c) respeto a la dignidad de la persona y no discriminación; (d) protección de la juventud y de la infancia; y, (e) salvaguarda de los derechos de propiedad intelectual.

Asimismo, para identificar al responsable del servicio infractor, las autoridades podrán requerir a los prestadores de servicios de la sociedad de la información (léase telecos) los datos que permitan su identificación. Obligación que debe leerse en clave con una reciente sentencia del Tribunal de Justicia de las Comunidades Europeas (Operadores de acceso pueden mantener el anonimato de quienes decargan música). En la adopción y cumplimiento de estas medidas se respetarán, las garantías, normas y procedimientos previstos en el ordenamiento jurídico.

¿Hay motivo para tanto alboroto? Creemos sinceramente que no. Pero como ya no tenemos espacio prometemos seguir cortando tela, ya tendremos tiempo para ampliar esta entrada. Lectura obligada, los blogs de Andy Ramos (Sobre la Información en Materia de Propiedad Intelectual (II)), Derechoenred (Me van a desconectar de Internet si uso redes P2P?), David Maeztu (Proyecto de Ley de Economía Sostenible y los cortes de internet), Javier Prenafeta (Sobre los cierres de páginas y servicios web que vulneren los derechos de propiedad intelectual) y ruizdequerol (no hay que perderse este debate).

También les dejamos con dos videos. Uno de la ministra de Cultura, la directora de cine Ángeles González-Sinde (La suerte dormida, 2003) y del presidente del Gobierno español José Luis Rodríguez Zapatero despachándose sobre el tema:

[vsw id=»Rj4i41SCY1I» source=»youtube» width=»425″ height=»344″ autoplay=»no»]

[vsw id=»1uVrAif4CFA» source=»youtube» width=»425″ height=»344″ autoplay=»no»]

Nubes negras sobre el Internet generativo

Cloud computing o computación en nube es el último grito de la moda y nadie debiera pasarla por alto.

Como definición, reproduzco una que leí en el blog de la CMT que me pareció buena (Subirse a la nube): «Cloud computing es un estilo de computación que proporciona recursos, dinámicamente escalables y a menudo virtualizados, como servicios”. Hablamos de la cloud como servicio, en la medida que los usuarios disponen de aplicaciones y almacenan su información en un servidor de Internet, en vez hacerlo en una PC.

Durante la era de las PC el dúo formado por Microsoft e Intel (Wintel) fue capaz de presentar un sistema indisoluble basado en una PC montada sobre un sistema operativo Windows y un microprocesador Intel. Muchos empiezan a afirmar que este paradigma tiene los días contados. Hace unos días Google anunció el lanzamiento de su Chrome OS (The Chromium Projects), que según algunos entendidos (error500: El sistemas operativo de Google y el regreso del terminal tonto) consiste en «(…) capar un sistema operativo, impedir que ejecute cualquier cosa que no sea un navegador, funcionar sobre un hardware seleccionado (nada de instalarlo en cualquier equipo que uno elija) y, eso sí, arrancar muy rápido«.

httpv://www.youtube.com/watch?v=0QRO3gKj3qw

Microsoft también mueve ficha en la misma dirección lanzando casi paralelamente dos nuevos y radicalmente diferentes productos (anunciados en la Professional Developers Conference del año pasado). El primero, la plataforma Azure, como un sistema operativo dentro de la nube. Luego, el sucesor del desafortunado Vista, Windows 7, que sirve como sistema operativo de Microsoft (OS).

The Economist (Clash of the clouds), ve al cloud computig inserto en un profundo cambio sistémico de la industria de la informática y de las comunicaciones electrónicas. No solo traslada el centro de gravedad de Microsoft. Hasta ahora, los avances tecnológicos movieron a la industria de dos ejes centrales, primero de los mainframes a los minicomputadores; y, luego a la PC. Ahora, una combinación de procesadores cada vez más potentes, baratos y rápidos y de redes más ubicuas, está impulsando el poder al centro, en algunos aspectos, y en otros alejándolo. Los centros de datos de la nube son enormes mainframes públicos. Al mismo tiempo, la PC está siendo reemplazada por una multitud de pequeños dispositivos, a menudo inalámbricos, como smartphones, netbooks y, pronto, tablets PC.

Pero no todo es luminoso en este panorama. Algunos ven con el cloud computing un regreso a los terminales tontos y a una pérdida de la generatividad de Internet.

Jonathan Zittrain (Cómo detener el futuro de Internet) en el Times (Lost in the Cloud) advierte alguno de los riesgos implícitos de este proceso. Por ejemplo, si un consumidor contrata un servicio de suscripción de música en línea en lugar de custodiarla en su propia PC, puede perderla si se atrasa en los pagos, si el proveedor quiebra o pierde interés en seguir participando en el negocio. No olvidemos que hace pocos meses Amazon decidió por su cuenta y riesgo borrar de todos los Kindles las copias electrónicas de las novelas 1984 y Rebelión en la granja de George Orwell (1984, veinticinco años después). Se pueden dar multitud de ejemplos de este tipo. Sin embargo, no son estos los peligros más importantes para Zittrain.

El mayor reto de la nube sería su efecto sobre la libertad para innovar. El legado fundamental de la PC es que permite a cualquier persona escribir código desde el extremo y utilizarlo de la forma que considere más conveniente. Los fabricantes de la PC o los creadores de su sistema operativo no tiene ninguna participación en este proceso. Sin embargo, esta libertad estaría en riesgo con la cloud, donde los proveedores de las plataformas de servicios y contenidos tienen un mayor control respecto del software escrito por terceros. Facebook, permite añadir funcionalidades al sitio, pero podría cambiar esta política en cualquier momento. Lo mismo se puede decir de Apple, que decide quién escribe código para el iPhone y qué programas se ejecutarán. Estas empresas pueden utilizar este poder de una forma nunca soñada por Bill Gates cuando era el rey de Windows.

No creo sinceramente que estos temores estén justificados. Cloud compunting es el camino natural para convertir a la nube en el servicio y es también una prueba de la generatividad de la red y no lo contrario. Apple, Microsoft, TiVo, Facebook y Google ofrecen servicios que cubren las necesidades de los consumidores. Si bien nadie puede estar de acuerdo con la patética actuación de Amazon al retirar la versión de 1984 de su Kindle, no debemos pasar por alto que a los propietarios de estas plataformas se les exige que hagan efectivo este control, recordemos el caso de «Mis observadores» de Facebook (Facebook y los observadores). Si funciona no lo arregles se suele señalar, seguiremos escribiendo sobre el tema en siguientes entradas.

[vsw id=»ae_DKNwK_ms» source=»youtube» width=»425″ height=»344″ autoplay=»no»]

[vsw id=»6PNuQHUiV3Q» source=»youtube» width=»425″ height=»344″ autoplay=»no»]

Net neutrality a consulta pública

Coincidiendo con el caso Medison River Communications en el 2005, algunos intelectuales y proveedores de contenidos en Internet lanzaron la idea de aprobar legislativamente el principio conocido como neutralidad de la red o Net neutrality. Desde aquel momento, openistas y regulacionistas han venido afilando el hacha y se han enfrentando regularmente, ya sea para negar o estimular la validez de esta pretensión.

Y así andaban, como Massé y Sifuentes en Radio Capital (Massé y Sifuentes a porrazos), hasta que el hoy presidente Barack Obama, rendido a los pies del ciberactivismo más radical, anunció durante la campaña electoral presidencial americana su firme compromiso con la Net neutrality. También prometió implementar, durante su primer año en funciones, el marco legislativo para asegurar su escrupuloso cumplimiento. De esta forma el movimiento pro neutralidad empezó a mover sus fichas.

httpv://www.youtube.com/watch?v=Vd8qY6myrrE

A finales del mes de junio Barack Obama nombró al defensor de la Net neutrality, Julius Genachowski, como presidente de la Federal Communications Commission (Comisión Federal de Comunicaciones – FCC), el regulador de las telecomunicaciones en los Estados Unidos (Cambios en la FCC). Una vez cumplido este trámite, lo único que cabía era esperar cuando se anunciarían las medidas legislativas en favor de la Net Neutrality.

Hace poco más de un mes, el pasado 21 de septiembre para ser exactos, el flamante presidente de la FCC pronunció un discurso ante The Brookings Institution, en el que desvelaba su programa para «preservar una Internet libre y abierta: una plataforma para la innovación, la oportunidad y la prosperidad». La propuesta de Genachowski significa en la práctica el incremento de la regulación y de las obligaciones que soportan los operadores de red de telecomunicaciones. Específicamente se pretende incorporar al marco regulatorio seis nuevas obligaciones para los operadores de red. Estas obligaciones parten del proceso de incorporar dos nuevas recomendaciones a las cuatro ya existentes sobre la neutralidad de red (New Principles Preserve and Promote the Open and Interconnected Nature of Public Internet), vigentes desde agosto de 2005, y de elevar todas a rango de ley. No nos olvidemos que estas recomendaciones, únicamente constituían principios informadores de las políticas de la FCC.

Las dos obligaciones adicionales serían: (5) Principio de no discriminación: Los proveedores de acceso no pueden discriminar contra contenidos o aplicaciones concretas, siempre que sean legales; y, (6) Principio de transparencia: los operadores de red deben informar de los mecanismos que utilicen para gestionar el tráfico en la red.

Siguiendo esta línea, el 22 de octubre, la FCC ha iniciado una consulta pública (Nota de prensa) sobre el proyecto de reglamento para complementar los principios de apertura existente en Internet (Propuesta de regulación). Pero como a toda acción le sigue una reacción, de acuerdo con la Tercera Ley de Newton, ya se están presentando en el congreso de los Estados Unidos diversas iniciativas para limitar el papel regulador de la FCC sobre Internet (McCain introduces bill to block Net neutrality).

En diciembre del año pasado Cord Blonquist en openmarket.org profetizaba que el 2009 vería el apaciguamiento de las posiciones de quienes defendían la Net nutrality (¿Habrá una ley pro Net Neutrality en USA?). Parece que acertó, no tendremos ley pro neutralidad de la red este año, pero es más que probable que se apruebe el año que viene. Creo que la principal virtud de quienes propusieron regular sobre la neutralidad de la red, ha sido traer al tapete aspectos tan importantes como la gestión del tráfico, el financiamiento de la red, la censura y la necesidad -o no- de mantener la arquitectura original de Internet. No mucho más.

Los regulacionistas no vociferan la necesidad de la Net neutrality para proteger a Internet de una epidemia moderna, lo hacen para evitar que determinadas organizaciones puedan imponer una serie de restricciones consideradas ilegítimas -o por lo menos cuestionables- en un futuro. Aclarando, no lo han hecho pero se presume que podrían hacerlo. Es decir, reconocen la maldad intrínseca de los operadores de red y por lo tanto es necesario reprimir su capacidad para dañar a Internet. No creo que nos encontremos ante un argumento plausible.

Todos los casos reportados como amenazas al Internet libre (Medison River Communications o Comcast), fueron solucionados por las instancias competentes sin necesidad de echar mano a ningún nuevo ordenamiento (Comcast incumplió las políticas de la FCC, pero no será multada). No parece pues necesario desplegar todo un cuerpo legislativo para componer algo que no está malogrado.

Desarrollaremos estas ideas en entradas posteriores.

[vsw id=»dF7rbOj-HPA» source=»youtube» width=»425″ height=»344″ autoplay=»no»]

Discruso de Julius Genachowski en el Brookings Institute