Sube a mi nube, Nubeluz

Seguro que el término Cloud Computing ya no es exclusivo de las conversaciones entre los “techies” de la oficina. Sospecho que pocos son quienes realmente saben de qué va la cosa y quizás los CSP (Cloud Service Providers) estén apostando a que mientras más familiar sea el término, más fácil será convencernos de que no hay nada por qué preocuparse.

No somos pocos los que pensamos que los principales puntos críticos de esta tecnología recaen en la confidencialidad de la información y la responsabilidad derivada de incidentes relacionados con este servicio. En este sentido, vale la pena dar un vistazo para ver si existe regulación o algún tipo de guía sobre la nube.

España y Europa

Hace unas semanas la Agencia Española de Protección de Datos junto al Consejo General de la Abogacía Española publicaron el informe titulado “Utilización del Cloud Computing por los despachos de abogados y el derecho a la protección de datos de carácter personal” (aquí). Este documento ofrece orientación sobre los aspectos a tomar en cuenta en caso quisiéramos contratar estos servicios, considerando como base 3 aspectos claves:

  • Responsabilidad sobre el tratamiento de los datos, así como la normativa y jurisdicción aplicables.
  • Seguridad y confidencialidad de los datos.
  • Aspectos técnicos y jurídicos del contrato que debe firmarse.

Documento por demás valioso tomando en cuenta que los abogados son depositarios de la información de sus clientes, y como tales, tienen el deber de guardar la privacidad de la misma, así como el secreto profesional.

A principios de año la European Network and Information Security Agency (ENISA) publicó “A guide to monitoring of security service levels in cloud contracts” (aquí), una guía práctica para verificar que se cumplan todos los aspectos relacionados con la seguridad de la información. Si bien está enfocada al sector público, funciona perfectamente para el privado.

La misma Agencia publicó tiempo atrás la Cloud Computing Risk Assessment (tiene versión en español) que presenta un exhaustivo análisis de las ventajas, riesgos y vulnerabilidades de la nube (como para que no nos cuenten cuentos). Además, incluye criterios para evaluar riesgos, comparar ofertas de distintos CSP y asegurar un adecuado nivel de servicios. Muy didáctico, porque lo desarrollan tomando como escenario un caso de migración de una MYPE hacia la nube.

Vayan hasta el final de este documento, que trae como anexo un análisis de cinco cuestionamientos legales que suelen preocuparnos a quienes miramos con cierta expectativa a este nuevo paradigma, como son:

  • Protección de datos (disponibilidad, integridad y garantías)
  • Confidencialidad
  • Propiedad intelectual
  • Negligencia profesional
  • Servicios de subcontratación y cambios de control.

Estados Unidos

Desde 2010 EE.UU cuenta con un plan llamado Cloud First y la Federal Cloud Computing Strategy, enfocados a reducir la infraestructura informática tradicional en manos de las entidades de gobierno, migrándola a la nube en aquellos casos que sea más eficiente términos operativos y económicos.

En esa línea, The Federal Risk and Authorization Management Program (FedRAMP) es un programa creado por (y para) el gobierno estadounidense que responde a le necesidad de estandarizar criterios de evaluación y supervisión de servicios ofrecidos en la nube. Funciona así:

  • Los CSP deben implementar los requisitos de seguridad de la FedRAMP (basados en Federal Information Security Management Act – FISMA y la NIST 800-53)
  • Contratar los servicios de una empresa que audite sus servicios y productos (hay una lista de auditoras certificadas).
  • Luego de pasar la auditoría la FedRAMP incluye al CSP en su registro de proveedores homologados.

El objetivo es evaluar sólo una vez a los proveedores y que las agencias de gobierno utilicen estos resultados tantas veces como sea necesario, evitando repetir procesos de selección una y otra vez.

Si bien el enfoque es para las agencias de gobierno norteamericanas, se rescatan criterios interesantes que se pueden implementar en el sector privado.

Epílogo

En verdad el hemisferio norte siempre está a la vanguardia en temas tecnológicos, así que quienes tenemos en la mira cambiar nuestra “gestión de activos” por una “gestión de servicios” contamos con un material valioso y de lectura obligatoria. No hay pretextos.

Sin embargo, situándonos por este lado del hemisferio, la regulación es casi nula, por lo que habría que utilizar otras herramientas antes de tomar una decisión tan importante y de tanto impacto. Ya será para la próxima.

El Perú, la privacidad, los mercados y la ley

Si usted se encuentra vinculado a alguna empresa de servicios públicos, de telemarketing, entidad financiera o de salud, call center o quizás algún negocio virtual esta nota seguramente será de su interés. El año pasado el Perú aprobó la Ley General de Protección de Datos Personales que básicamente postula que ninguna entidad pública o privada podrá utilizar información personal de ningún ciudadano sin su autorización “previa, informada, expresa e inequívoca”. Sin duda una iniciativa positiva que contribuye a un fin mayor: prevenir el uso de dicha información para actividades delictivas.

Recientemente el Ministerio de Justicia publicó el Proyecto de Reglamento de la citada ley. Entre otras cosas se precisa en detalle cómo deberá ser la autorización  antes mencionada, las medidas de seguridad que deberán tener las bases de datos, el plazo de adecuación para bases de datos existentes, las obligaciones de registro de bases de datos en un registro público nacional, la transferencia internacional de datos personales y el régimen de sanciones y multas, que alcanzan las 100 UIT. Incluso el proyecto se aventura a regular el tratamiento de datos por servicios de comunicaciones electrónicas y cloud computing.

Los 132 artículos del Proyecto revelan una clara vocación reglamentarista y merecen una lectura detenida a fin de salvaguardar un sano equilibrio entre la protección de la privacidad y el deseable flujo de información en el mercado. El plazo para presentar comentarios ante la Autoridad Nacional de Protección de Datos Personales del Ministerio de Justicia vence el próximo jueves 12 de abril.

El asunto «Megaupload» y el futuro de Internet

Aurelio Lopez-Tarruella Martinez, Profesor Titular de Derecho internacional privado. Universidad de Alicante (España). Investigador principal Proyecto «Aspectos jurídicos de los contratos internacionales de I+D» Coordinador del Módulo de Derecho de las nuevas tecnologías del Magister Lvcentinus de Derecho de Propiedad industrial, intelectual y Sociedad de la información, amigo y colaborador de esta tribuna nos alcanza este interesante artículo sobre el sonado caso Megaupload y las consecuencias del mismo para Internet. Muchas gracias Aurelio.

El asunto «Megaupload» y el futuro de Internet

(Originalmente publicado en Lucentinus)

Inevitablemente, el tema de conversación de este fin de semana ha sido «Megaupload» y el amigo Kim Dotcom y su cadillac rosa. Acabados los gintonics y superada la resaca (aunque ésta no me ha permitido leer todo lo que hay sobre el tema), aquí están una serie de reflexiones apresuradas sobre el asunto.

En un primer momento, uno siente indignación por la prepotencia con la que pareció actuar el FBI (aquí la acusación gracias a F. Garau y R. Ramirez): ¿Cómo es posible que detengan a unos tipos que ofrecen servicios de alojamiento? Los que cometen las infracción de PI son los usuarios que utilizan sus servicios para almacenar contenidos protegidos por PI!!!! (personas que, por cierto, prefieren gastar dinero en una suscripción para compartir ilegalmente contenidos protegidos por PI antes que contratar un servicio para disfrutar de esos contenidos legalmente, servicios que probablemente tenga un precio similar al de megaupload). Ahora bien, algo más debía haber tal y como ponen de relieve las noticias publicadas al respecto: intercambio de e-mails que demostraban que Kim y compañía sabían qué estaban haciendo los usuarios y las páginas que enlazaban a Megaupload. Además, las cifras del negocio son descomunales, por lo que como bien dice Technollama, poca simpatía se le puede tener a los detenidos: «it accounted for 4% of Internet traffic and received an estimated 50 million visitors per day… income estimated at $150 million USD in subscription fees and $25 million USD from advertising«.

Si los datos de la acusación (y los publicados por la prensa) son ciertos, lo de hablar de «crimen organizado» no queda muy alejado.

Ante esta situación, el futuro de servicios similares a Megaupload se llena de claroscuros:

  1. Muchos servicios de almacenamiento (recordemos, en esto consiste buena parte del negocio del cloud computing) y muchas páginas de enlaces que se nutría de los archivos de megaupload han empezado a cerrar o a limitar su oferta (curioso el anuncio de los fundadores de seriesyonkis hace unas semanas de que ya no están detras del sitio web) y ello aunque sus servidores estén ubicados fuera de Estados Unidos y aunque hipervincular a páginas web con contenidos ilícitos siga sin ser infracción en nuestro país. Esto puede verse como algo positivo para la protección de la PI y ayudará a que afloren servicios de streaming que cumplan con la legalidad (¿Cuándo aparecerá el Spotify de las series de televisión? ¿Será youzee.com o habrá que esperar a netflix en Europa). No obstante el cierre de megaupload tambien tiene un lado negativo: Megaupload u otros servicios similares tampoco van a poder ser utilizados con finalidades lícitas. Estoy seguro que Dropbox ya han empezado a preocuparse por la acusación contra megaupload. ¿Debe la plataforma tomar medidas para evitar el ser  utilizada por los usuarios para intercambiar contenidos protegidos por PI? ¿No convertirá esto a los PSI en la policía del cloud computing? ¿Conllevará esta medida serios obstáculos para el florecimiento de la industria del cloud computing?
  2. ¿Qué pasa con todos los usuarios que tenían depositada información de todo tipo en los servidores de Megaupload? Supongo que en algún momento el FBI les dará acceso a esa información. Mucha gente ha podido resultar altamente perjudicada por el embargo de sus archivos. De no recuperarlos dicho perjuicio puede ser mucho mayor.
  3. Recordemos que «Megaupload» se ha podido cerrar porque tres de sus servidores se encuentran ubicados en Estados Unidos. Supongo que, para el cierre del servidor en Holanda (si es que se ha cerrado), el FBI habrá contado con la ayuda de las autoridades de ese país. En el asunto «rojadirecta«, las autoridades estadounidenses sólo pudieron bloquear el nombre de dominio «.com», pero nada más. Lo mismo ocurriría si el FBI intentara cerrar servicios similares a megaupload (o de paginas de enlace) ubicados fuera de USA, salvo que cuenten con el apoyo de las autoridades del país de ubicación del servidor y de que, en dicho país, la actividad sea considerada ilícita. De ahí la necesidad para USA (y para la UE) de una mayor nivel de protección de la PI (ACTA, TPP) de sus socios comerciales. De lo contrario, resulta muy fácil eludir la acción de la justicia de Estados Unidos.

Una solución alternativa (y respetuosa con la soberanía de otros Estados para ofrecer la regulación que consideren más conveniente a la protección de la PI en su territorio) consiste en que las autoridades de USA obliguen a los PSI estadounidenses a bloquear el acceso de los residentes en US a sitios web donde se infringen derechos de PI (esta medida alternativa se ha adoptado recientemente por autoridades holandesas en relación con Pirate Bay). Esta solución, sin embargo, no es satisfactoria pues lo que desean las autoridades de ese país es que los derechos de PI de su industria dejen de ser infringidos en cualquier lugar del mundo. Además, esto llevaría a una segmentación de Internet por países. China ya limita el acceso a Internet a sus ciudadanos por otros motivos: No debemos dejar que las mismas medidas sean tomadas por otros países y la censura se convierta en la regla general en Internet. Ello implicaría perder uno de sus principales valores: su globalidad. Para evitarlo sólo queda hacer dos cosas: una mayor coordinación entre autoridades y una progresiva armonización de las legislación de PI que tome en consideración el nivel de desarrollo económico de cada país. La tarea no es nada fácil pero, precisamente, por ello es más apasionante.

¿Y si Megaupload fuese peruano?

En su momento Napster y Grokster se enfrentaron a la justicia y fueron sancionados por infracción a los derechos de autor. Éstas empresas brindaban un software que funcionaba con tecnología peer-to-peer (P2P). ¿Como funcionaba? Uno descargaba el software lo instalaba en y podía compartir e intercambiar archivos con todos los usuarios del mundo que hubieran hecho lo mismo. Los sistemas P2P perdieron popularidad y aparecen los pioneros del concepto «cloud computing» o también denominados «file lockers» es decir empresas que ofrecen un servicio de almacenamiento de contenidos, donde la descarga de los mismos se realiza de manera directa (p.e. Megaupload y Cuevana). Sea de cualquier forma nos interesa precisar un punto que hemos comentado en un post anterior y que en una reciente conversación con mi buen amigo Fernando Raventós vino a mi mente. Aún sin la existencia de disposiciones como la Digital Millenium Copyright Act (que tenemos incorporada en nuestro TLC con Estados Unidos y aún pendiente de implementación) y sin un estándar aún más extremo como el que plantean Stop Online Piracy Act  (SOPA) y Protect Intellectual Property Act (PIPA) la normativa peruana cuenta con herramientas que permiten a un titular de derechos de autor defender los mismos en el entorno digital. En el referido post precisé con respecto a la necesidad de adoptar la DMCA en nuestro TLC lo siguiente:

¿Era necesario modificar nuestra norma y adoptar el modelo regulatorio estadounidense? En nuestra opinión no. El Decreto Legislativo 822 cuenta con dos artículos vigentes hasta el día de hoy que cumplían los estándares de la OMPI y los de la DMCA. Se trata de los artículos 38 y 39  de la norma (…) el artículo 39 establece que ninguna autoridad o persona natural o jurídica podrá autorizar el uso de una obra protegida ni prestar apoyo para su uso sin contar con la aprobación previa y escrita del titular del derecho, de lo contrario será considerado responsable solidario. Esta norma resulta plenamente aplicable a ISPs, que no son otra cosa que personas jurídicas. La ventaja es que ésta fórmula permite al ISP definir el estándar de diligencia debida a fin de no incurrir en responsabilidad, mismo que sería ratificado o mejorado a través del desarrollo jurisprudencial y no a través de un procedimiento privado como ocurre con la DMCA.

Como bien concluye Fernando, actual miembro y vice-presidente de la Comisión de Derechos de Autor del INDECOPI «esta norma la venimos aplicando en reiteradas ocasiones, pero solo a nivel terrenal nunca en el ciberespacio (porque hasta ahora nadie lo ha pedido)». Efectivamente, cuando tuve el honor de formar parte de la Comisión de Derechos de Autor aplicamos este artículo innumerables veces a entidades que prestaron su colaboración en la organización de actividades o eventos donde se infringieron derechos de autor.

Con esto quiero precisar que si bien al día de hoy el Perú no ha implementado aún su DMCA y no cuenta (afortunadamente) con SOPAs ni PIPAs, un site como Megaupload ó Cuevana made in Perú podría incurrir en infracción a los derechos de autor de haberse probado su colaboración. En otras palabras, nuestro artículo 39 es nuestra versión del «contributory infringement» estadounidense en materia de derechos de autor.

LegalTech 2010: Feria tecnológica para abogados (II)

La Nube

Siguiendo con el LegalTech 2010 (LegalTech 2010: Feria tecnológica para abogados (I)), una de las novedades que pudimos apreciar fue una amplia y generalizada oferta de soluciones basadas en el Cloud Computing o simplemente llamada “la Nube”. Este nuevo término, que se agrega al cada vez más extenso lenguaje tecnológico, se refiere al paradigma que hace posible que tanto software, hardware e información puedan gestionarse fuera de la oficina y accediendo a ellos a través de Internet. Y aunque suene a algo medio desconocido diariamente hacemos uso de esta tecnología cuando publicamos fotos a través de Facebook, al revisar nuestro correo electrónico en Yahoo o al elaborar nuestros presupuestos familiares desde el Google Docs. Podemos acceder y compartir a todas estas aplicaciones sin que estén ligadas a una única computadora. Están almacenadas en un espacio virtual, accesible desde cualquier parte.

A lo largo de nuestro recorrido por LegalTech llamó nuestra atención la oferta de soluciones para “la Nube”: correo electrónico, gestión de documentos, aplicaciones para el control de tiempos y facturación, así como servicios de respaldo de información, almacenaje de data y hasta programas de dictado digital. Prácticamente todo es virtual, sólo necesitaremos computadoras o laptops, dejando atrás los sofisticados centros de cómputos y servidores.

A primera vista este nuevo modelo ofrece muchas ventajas, tanto desde el punto de vista financiero como operativo. No sería necesario adquirir o renovar hardware y software, asumiendo el costo de depreciación de los equipos obsoletos. Más bien se pagaría por un servicio “bajo demanda”, es decir, una suerte de suscripción cada vez que se contrata a un nuevo abogado o trabajador, sin necesidad de licenciamiento de software o realizar instalaciones tediosas. Se pagaría exclusivamente por el acceso a la “oficina virtual” y por el espacio en disco utilizado realmente (ya no compraríamos discos de gran capacidad pensando en el crecimiento de la información). Los sistemas de recuperación ante desastres y continuidad de servicios serían definidos por el proveedor; e, inclusive, habría mayor robustez en los mecanismos de seguridad perimetral (firewalls, antivirus, antispam, etc. pensados ya no para una sola empresa sino para un conglomerado de ellas).

Sin embargo, también existen algunas aristas sobre las cuales vale la pena reflexionar unos minutos: (1) seguridad y confidencialidad de la información: ¿quiénes tendrán acceso a mis servidores e información? ¿podrían interceptar las comunicaciones entre “la oficina virtual” y mi computadora?; (2) calidad y continuidad del servicio: ¿cómo asegurar que la conexión con el proveedor no se vea interrumpida o se degrade la velocidad de la misma?; (3) solidez del proveedor: que no vaya a quebrar o bajar la calidad del servicio; (4) planes de continuidad del negocio: ¿cuál sería el tiempo para restablecer los servicios en caso de caída de servidores o conexiones?; (5) ubicación física de los servidores: dificultad para realizar visitas de inspecciones o auditorías cuando los data centers de los proveedores se encuentran en lugares lejanos; países con políticas que no respeten la privacidad de la información de las empresas o los contratos entre empresa y proveedor; entre otros.

Consideración aparte merece analizar el mercado latinoamericano, debido a que las conexiones a través de Internet no son tan veloces como en países del primer mundo. No contar con conexiones de 10 Mbps o más no asegura una calidad de servicio óptimo como para reemplazar el data center local por uno ubicado fuera de la oficina. Y, en el mejor de los casos, si fuera posible brindar dicha conectividad, los costos se elevarían demasiado como para ser asumidos por una empresa mediana o pequeña. Asimismo, aún no se nota en el mercado (al menos, el peruano) empresas con la suficiente infraestructura tecnológica para brindar un servicio de este tipo, a gran escala, asegurando la continuidad y calidad del servicio.

¿Cómo estamos en el Sur?

Conversaba con un amigo, consultor en tecnologías, que brinda sus servicios en varios países de Latinoamérica y me comentaba que en los últimos años hemos implementado con gran éxito algunas herramientas y tecnologías utilizadas en el mercado norteamericano. No sólo en el ámbito general, por ejemplo, virtualización de servidores, telefonía IP, accesos remotos, replicación de servidores de correo, sites de contingencia, etc. Sino específicamente en el legal, razón por la cual ya no es novedad descubrir estudios de abogados con sistemas de manejo de documentos electrónicos, control de tiempos y facturación, seguimiento de procesos judiciales, etc.

Si bien es cierto muchas de las tecnologías orientadas al sector legal encontradas en Norteamérica se han podido replicar con éxito en la Región, por ejemplo, el uso de los sistemas de administración de documentos, comparadores de documentos, etc.; otras tec nologías no han tenido la misma suerte. Todos los estudios de abogados en la Región seguramente cuentan con un sistema de control de tiempos, sin embargo, el 90% de ellos usan un software hecho in-house o, en todo caso, desarrollado por empresas locales.

Pero algo que es un hecho es que la gran mayoría no está feliz con su sistema. Creo, sin temor a equivocarme que esta tecnología también puede ser replicada sin problemas regionalmente y estoy seguro que próximamente habrá más de un estudio de abogados en este lado del Continente que cuente con todos los desarrollos usados en Estados Unidos.

Ahora, ¿qué tecnologías específicamente para el sector legal hemos encontrado en Legaltech y cuáles podrían ser aplicadas a nuestros mercados latinoamericanos sin problemas? Por ejemplo, tenemos:

Esa es la pregunta del millón. Si hacemos un análisis simple de tecnologías y productos veremos que muchos de estos productos se vienen usando en Latinoamérica actualmente. No obstante, habría que realizar una evaluación más detallada de cada una de ellos y de sus potencialidades posibilidad de uso, sobre todo, considerando la cultura organizacional e infraestructura informática existentes en cada estudio de abogados.

Nubes negras sobre el Internet generativo

Cloud computing o computación en nube es el último grito de la moda y nadie debiera pasarla por alto.

Como definición, reproduzco una que leí en el blog de la CMT que me pareció buena (Subirse a la nube): «Cloud computing es un estilo de computación que proporciona recursos, dinámicamente escalables y a menudo virtualizados, como servicios”. Hablamos de la cloud como servicio, en la medida que los usuarios disponen de aplicaciones y almacenan su información en un servidor de Internet, en vez hacerlo en una PC.

Durante la era de las PC el dúo formado por Microsoft e Intel (Wintel) fue capaz de presentar un sistema indisoluble basado en una PC montada sobre un sistema operativo Windows y un microprocesador Intel. Muchos empiezan a afirmar que este paradigma tiene los días contados. Hace unos días Google anunció el lanzamiento de su Chrome OS (The Chromium Projects), que según algunos entendidos (error500: El sistemas operativo de Google y el regreso del terminal tonto) consiste en «(…) capar un sistema operativo, impedir que ejecute cualquier cosa que no sea un navegador, funcionar sobre un hardware seleccionado (nada de instalarlo en cualquier equipo que uno elija) y, eso sí, arrancar muy rápido«.

httpv://www.youtube.com/watch?v=0QRO3gKj3qw

Microsoft también mueve ficha en la misma dirección lanzando casi paralelamente dos nuevos y radicalmente diferentes productos (anunciados en la Professional Developers Conference del año pasado). El primero, la plataforma Azure, como un sistema operativo dentro de la nube. Luego, el sucesor del desafortunado Vista, Windows 7, que sirve como sistema operativo de Microsoft (OS).

The Economist (Clash of the clouds), ve al cloud computig inserto en un profundo cambio sistémico de la industria de la informática y de las comunicaciones electrónicas. No solo traslada el centro de gravedad de Microsoft. Hasta ahora, los avances tecnológicos movieron a la industria de dos ejes centrales, primero de los mainframes a los minicomputadores; y, luego a la PC. Ahora, una combinación de procesadores cada vez más potentes, baratos y rápidos y de redes más ubicuas, está impulsando el poder al centro, en algunos aspectos, y en otros alejándolo. Los centros de datos de la nube son enormes mainframes públicos. Al mismo tiempo, la PC está siendo reemplazada por una multitud de pequeños dispositivos, a menudo inalámbricos, como smartphones, netbooks y, pronto, tablets PC.

Pero no todo es luminoso en este panorama. Algunos ven con el cloud computing un regreso a los terminales tontos y a una pérdida de la generatividad de Internet.

Jonathan Zittrain (Cómo detener el futuro de Internet) en el Times (Lost in the Cloud) advierte alguno de los riesgos implícitos de este proceso. Por ejemplo, si un consumidor contrata un servicio de suscripción de música en línea en lugar de custodiarla en su propia PC, puede perderla si se atrasa en los pagos, si el proveedor quiebra o pierde interés en seguir participando en el negocio. No olvidemos que hace pocos meses Amazon decidió por su cuenta y riesgo borrar de todos los Kindles las copias electrónicas de las novelas 1984 y Rebelión en la granja de George Orwell (1984, veinticinco años después). Se pueden dar multitud de ejemplos de este tipo. Sin embargo, no son estos los peligros más importantes para Zittrain.

El mayor reto de la nube sería su efecto sobre la libertad para innovar. El legado fundamental de la PC es que permite a cualquier persona escribir código desde el extremo y utilizarlo de la forma que considere más conveniente. Los fabricantes de la PC o los creadores de su sistema operativo no tiene ninguna participación en este proceso. Sin embargo, esta libertad estaría en riesgo con la cloud, donde los proveedores de las plataformas de servicios y contenidos tienen un mayor control respecto del software escrito por terceros. Facebook, permite añadir funcionalidades al sitio, pero podría cambiar esta política en cualquier momento. Lo mismo se puede decir de Apple, que decide quién escribe código para el iPhone y qué programas se ejecutarán. Estas empresas pueden utilizar este poder de una forma nunca soñada por Bill Gates cuando era el rey de Windows.

No creo sinceramente que estos temores estén justificados. Cloud compunting es el camino natural para convertir a la nube en el servicio y es también una prueba de la generatividad de la red y no lo contrario. Apple, Microsoft, TiVo, Facebook y Google ofrecen servicios que cubren las necesidades de los consumidores. Si bien nadie puede estar de acuerdo con la patética actuación de Amazon al retirar la versión de 1984 de su Kindle, no debemos pasar por alto que a los propietarios de estas plataformas se les exige que hagan efectivo este control, recordemos el caso de «Mis observadores» de Facebook (Facebook y los observadores). Si funciona no lo arregles se suele señalar, seguiremos escribiendo sobre el tema en siguientes entradas.

[vsw id=»ae_DKNwK_ms» source=»youtube» width=»425″ height=»344″ autoplay=»no»]

[vsw id=»6PNuQHUiV3Q» source=»youtube» width=»425″ height=»344″ autoplay=»no»]

Un mundo en guerra

Al alba del 1 de septiembre de 1939 el viejo acorazado alemán Schleswig-Holstein reposaba tranquilamente en el estuario del puerto de Danzig cerca de la desembocadura del Vístula. A las 4:30 de la mañana leva anclas y suavemente se traslada por el canal, hasta tomar posición de combate frente al fuerte polaco de Westerplatte. Imagino al capitán del barco, al todavía joven KzS Gustav Kleikamp, intuir apenas la silueta de la fortaleza con sus prismáticos y lo veo unos minutos después ordenando a su artillería escupir fuego contra los descuidados defensores. El cabo Ignacy Skowron se encontraba de guardia en ese momento, lo siento somnoliento y cansado ignorante de lo que se le vendrá encima, cuando observa desde su parapeto que una chispa sale de un costado del acorazado alemán. Décimas después, un proyectil de 280 mm impacta contra las defensas. La Segunda Guerra Mundial ha comenzado, hace casi exactamente 70 años.

Este es el mundo real y sabemos que la evolución de la humanidad es una historia de guerras y matanzas. Pero contrariamente a lo que podíamos pensar, el ciberespacio no ha estado libre de enfrentamientos, menos sangrientos tal vez pero igual de virulentos. Creo que mucho del Internet que tenemos y el que se está moldeando es y será fruto de estas guerras, de las que han sido y de las que vendrán.

La más famosa de todas es la Guerra de los Navegadores (The Browser Wars), algo así como la Gran Guerra de Internet. La Primera Guerra de los Navegadores (1996 – 2002) enfrentó a Microsoft, con su buque insignia el navegador Internet Explorer y Netscape, con su Navigator, por la dominancia del mercado de navegadores web. Microsoft con más recursos logró controlar las principales vías de aprovisionamiento de su contrincante hasta aplastarle y borrarlo del mapa. La Segunda Guerra de los Navegadores (2005 – 2007), nos permitió intuir lo que vendría después, en ella Internet Explorer enfrentó a los herederos de Nescape como Mozilla, FirefoxSafari Opera. La Tercera Guerra de los Navegadores (2008 – ) se disputa entre los cinco principales navegadores de la actualidad: Internet Explorer, Mozilla Firefox, Safari, Opera y Chrome. Ya hicimos el parte de guerra (Google Chrome y las Browser Wars).

No podemos pasar por alto a las Guerras de Competencia. La primera es la Sublevación de Washington (1998 -2001), 19 Estados de la Unión lideraron una sublevación en el corazón de los dominios de Microsof liderados por «Atila» Jackson. Una vez perdidos sus aliados políticos el ejército rebelde diezmado y agotado no logró que se sancionara a Microsoft por entorpecer la competencia en el mercado de Internet de los Estados Unidos. Luego estalló la Gran Guerra Europea de la Competencia, entre la Comisión Europea y la división oriental de Microsoft. La primera etapa de este enfrentamiento fue la Guerra del Reproductor (1999 – 2004). Esta vez Microsoft enfrentó a un rival de fuste que vengó sin paliativos a los valientes de Washington hasta imponerle una multa de 497.2 millones de euros por destruir el mercado de reproductores multimedia. Reconfortada por esta victoria, la Comisión intenta saldar viejas deudas y ha iniciado la Guerra Europea del Navegador (2008 – ) contra Microsoft por agregar a su sistema operativo el Internet Explorer. Tenemos parte de guerra (Microsoft y la UE: la guerra continúa).

Otro enfrentamiento trascendente es el de las Guerras de los Derechos de Autor (Intellectual Property and Copyright Wars). Lucha feroz donde los regulares de los derechos de autor se enfrentan no sólo a rivales de línea sino también a una enorme guerrilla que los hace retroceder constantemente. Las Guerras de los Derechos de Autor comenzaron en 1995 cuando la industria de contenidos (una alianza formada por la industria musical, la cinematográfica y la editorial) de los Estados Unidos elaboró una estrategia para defenderse del ataque de las tecnologías digitales. Entre 1997 y 1998 se aprobaron una serie de leyes destinadas a extender la vida útil de los derechos de autor, reforzar las sanciones penales y castigar el uso de tecnologías que trataban de eludir los sistemas de seguridad de los contenidos digitales. A estas leyes se sucedió una ofensiva litigiosa contra las entidades más representativas de esta amenaza como MP3.com y Napster. Luego, como el pueblo estaba armado, la alianza intentó reprimir a los internautas acusándolos de descargar música o permitir a otros a hacer lo mismo. Sólo en junio de 2006, la Recording Industry Association of América (RIAA) demandó a 17.587 personas por vulnerar los derechos de autor. Al día de hoy los combates continúan.

Un frente menor lo constituyen las llamadas Guerras de la Privacidad (Privacy Wars). Recordemos que la Primera Guerra de la Privacidad (1990 – 2001), comenzó cuando la Comisión Federal de Comercio (Federal Trade Commission) fomentó inicialmente la autorregulación de la industria para luego pedir al Congreso de los Estados Unidos legislar para hacer cumplir la privacidad de los sitios web, finalmente no lo hizo. La Segunda Guerra de la Privacidad (2009 -) acaba de comenzar, una coalición de defensoras de los derechos de los consumidores vienen atacando los mecanismos de publicidad dirigida, exigiendo que el Estado instaure una suerte de privacidad preventiva deteniendo los anuncios en línea personalizados sobre la base de los hábitos de los consumidores. La crónica completa en Liberation Front (Privacy War II (Part 1): Attack of the Anti-Advertising Axis).

El panorama parece desolador y nuevos combates se vislumbran en el horizonte mejor dicho en el aire con la cloud computingo computación en nube, que nos promete una serie deserviciosdirectamente a través de Internet. Veremos que pasa, pero creo que a diferencia de las guerras del mundo real de éstas saldremos ganando todos.

Para los interesados les dejo la primera escena de la Segunda Guerra Mundial: el Schleswig-Holstein castiga la fortaleza de Westerplatte el 1 de septiembre de 1939.

[vsw id=»NgENjoWBFf4″ source=»youtube» width=»425″ height=»344″ autoplay=»no»]