Diez años de El Código de Lessig

En 1999 el número de usuarios de Internet apenas superaba los 50 millones, hoy tiene más de mil millones. Es decir, si hace diez años sólo el 1,1 por ciento de los habitantes del planeta estaba conectado a la Red hoy esa cifra se ha incrementado hasta alcanzar un nada despreciable índice de 14,7 por ciento.

No vale la pena hacer un recuento de cómo era la Red hace dos lustros para comparar cómo es ahora. La mayoría de las personas, sobre la base de su propia experiencia, sabe cuales son las diferencias entre el Internet del año 1999 y el del 2009. Los contrastes son incluso mayores que la distancia fría entre el número de usuarios conectados hoy y el de hace diez años.

Es por ello la importancia del décimo aniversario de la edición en inglés del ya clásico e influyente libro de Lawrence Lessig, Code and Other Laws of Cyberspace (existe edición en español, El código y otras leyes del ciberespacio, Taurus, 2001). Si bien, cualquier reseña que se haga de este trabajo no puede dejar de advertir la obviedad de que Internet ya no es lo que era, tampoco dejará de destacar que, pese a ello, El Código sigue teniendo una enorme vigencia, lo cual es un mérito innegable de Lessig. Cuando esto ocurre en uno de los campos más dinámicos del mundo moderno, sólo puede deberse a dos situaciones: que nos encontramos ante un libro adelantado a su tiempo o porque está plagado de dogmática e ideología. La entrega de Lessig tiene las dos cosas.

Es cierto que los acontecimientos ocurridos desde la publicación del libro han hecho que se haya desfasado, sin embargo, ello no invalida en esencia la tesis de Lessig, por el contrario el tiempo pareciera haberle dado la razón. Situándonos en contexto, El Código pretendía cuestionar una serie de nociones profundamente enraizadas a fines del siglo pasado. Estas ideas, que podríamos llamar utópicas, nos decían que la Red se mantendría lejos de las garras del gobierno y de sus mecanismos de control tradicionales. Lessig trajo malas noticias, previó la posibilidad de un Internet controlado a partir de tecnologías para estimular el comercio apoyadas por la ley tradicional.

Para Lessig, Internet en sus orígenes no era un entorno inherentemente libre. Aunque era un espacio donde la ley estatal encontraba muchas dificultades para imponerse, esta situación, gracias a la arquitectura de la Red (código), era coyuntural. Un nuevo código podía hacer que Internet fuera permeable no sólo a la regulación estatal sino a algunos intereses privados lejos de los controles de la sociedad democrática.

Para evitar esta situación, Lessig proponía el diseño de una arquitectura que limitara el poder que pudieran ejercer los gobiernos y las empresas, y por lo tanto, que garantizara algunos derechos básicos, como la libertad de expresión o la privacidad. Este es el punto clave del libro, la diferencia entre el software propietario y el libre. Si el código está en manos de unas pocas personas, puede ser desarrollado de una forma tal que se asegure el control sobre sus usos, sin que sea posible poner límites a ese control. Por el contrario, si el código no es propiedad de nadie o lo es de muchos, se produce una suerte de propiedad comunal, donde se respeten los derechos fundamentales y es tierra fértil para la innovación.

Pero esta historia no termina aquí, existe nueva versión del libro, la cual como se señala en su Prefacio: «es una revisión de un libro viejo, de hecho, en Internet, es una revisión de un texto antiguo«. Nos referimos al Code version 2.0, escrito a partir de una Wiki alimentada por aquellos interados en participar. Puede descargarse en formato PDF y también puede comprarse en AmazonBarnes&Noble. Esto último, según eadvierte el autor en su blog, es «una sabia elección, ya que es más barata que la impresión del libro en la mayoría de los contextos».

AP vs. Shepard Fairey: ¿Y dónde está el autor?

Associated Press (AP) ha presentado una denuncia hace semana y media contra Shepard Fairey, el artista gráfico norteamericano creador de los famosos dibujo Hope y Progress, tan reproducidos durante la campaña presidencial de Barack Obama. De acuerdo con la agencia internacional de noticias, el artista gráfico habría explotado comercialmente sin autorización una de las fotografías de su propiedad para realizar la famosa ilustración. Fairey, a través de su abogado Anthony Falzone -director del Fair Use Project de Stanford– ha contestado señalando que el uso de la obra de propiedad de Associated Pressse enmarca dentro del «uso permitido» de la misma por lo que no tendría que pagarle a Associated Press ninguna porción de las ganancias acumuladas producto de la  explotación comercial de las referidas ilustraciones.

Associated Press sostiene que la foto de su propiedad, tomada en el 2006 por el fotógrafo freelance Mannie Garcia (con quien, por lo demás, tienen otra discusión sobre a quién pertenecen los derechos patrimoniales de la misma), fue utilizada como referente visual visual reference«) por Fairey al momento de realizar la ilustración. Fairey, por su parte, señala que la ilustración la realizó basándose en diversas imagenes que encontró en Internet por lo que no podría afirmar tajantemente que se basó en una única fotografía. Siendo fieles a la verdad, es altamente probable que se haya basado en la foto de la referencia como su principal modelo para realizar la ilustración. Ahora, ¿qué significa eso?


De izquierda a derecha: la foto de AP, la ilustración de Fairey y una foto publicada bajo Creative Commons.

El caso plantea dos posibilidades: (1) que la ilustración de Fairey constituya una obra derivada de la foto original de Associated Press, lo que implicaría que Fairey está obligado a pagarle por el uso comercial que le ha dado a la misma; o, (2) que la utilización de la fotografía de Associated Press constituya un «uso permitido» o «fair use» de la misma, lo que exceptuaría su utilización del pago por explotación comercial.

Para Randy Picker, profesor de la Facultad de Derecho de la Universidad de Chicago, ambas perspectivas tienen otras implicancias de cuidado. Sobre el primer punto, señala que el hecho de que García haya tomado una foto de Obama no le otorga (ni a él ni a cualquier otro derechohabiente, i.e. AP) el derecho a reclamar una compensación por cualquier otro retrato que utilice la imagen de Barack Obama como persona, su gesto o postura. Aceptar ello implicaría que cualquier otro fotógrafo que hubiese tomado la misma foto en el mismo preciso instante tendría exactamente los mismos derechos de García/AP en el caso en cuestión. El que Garcia/AP sean los titulares de los derechos de autor no implica que tengan el monopolio del evento fotografiado. Cualquier otro creador pudo haberse inspirado en el mismo evento. Como enfatiza Picker, en la sociedad del información el copyright no otorga a su titular un derecho a controlar el acceso al evento subyacente. Al basarse en la fotografía de Garcia/AP, lo único que habría hecho Fairey es acceder a la foto y a la situacióncomo cualquier otra persona que pudo haber tomado una foto ese mismo día.

En el segundo escenario propuesto, Fairey tendrá que demostrar que su utilización de la fotografía fue efectivamente de un fair use. Sobre el punto, nos sirve el precedente Blanch vs. Koons, en el que una fotógrafa perdió una demanda por violación de derechos de autor planteada contra un artista que había utilizado una de sus fotografías como referente para la realización de una pintura en collage. La Corte de Apelaciones del Segundo Circuito fue enfática al señalar que el límite entre el supuesto de excepción y el de obra derivada estriba en la finalidad de la nueva obra. Si Fairey creó la ilustración con la velada finalidad de aprovecharse o explotar el trabajo o el esfuerzo intelectual de García, estamos frente a una obra derivada. Por otro lado, si la nueva obra puede ser calificada como original en sí misma dado que tiene un valor propio en independiente de aquél en el que se basó, se trata de un uso permitido. Bien pensado,

Creo que más allá del resultado al que pueda arribarse en el caso, hay una pregunta cae por su propio peso: ¿es posible crear algo de la nada? La definición clásica de «autor» como un creador ex nihilo de una obra parece insostenible en el año 2009, por lo que no podríamos exigir un componente originalidad al 100% en cada obra. Como se ha sostenido varias veces en este blog, es labor de los tribunales y de los legisladores vigilar y prevenir que los derechos de autor no terminen constriñendo la creatividad por tutelar los intereses, a veces desmedidos, de unos cuantos.

Los mejores libros del 2008

Adam Thierer publica en The Technology Liberation Front (The Most Important Tech Policy Books of 2008) la lista de los 10 libros más importantes sobre política tecnológica publicados el año pasado.

Después de leer la lista, Thierer considera que los llamados libertarios están perdiendo la batalla de las ideas por Internet y sobre las política tecnológica, en la medida que cada vez menos personas defienden una posición del tipo de dejar Internet en paz.

Thierer aprovecha la presentación de su lista para realizar una encuesta entre sus lectores sobre cual es el más importante libro sobre política tecnológica en el 2008.

(1) Jonathan Zittrain – The Future of the Internet, and How to Stop It (disponible en línea)

(2) Nick Carr – The Big Switch: Rewiring the World, From Edison to Google

(3) John Palfrey y Urs Gasser – Born Digital: Understanding the First Generation of Digital Natives

(4) Clay Shirky – Here Comes Everybody: The Power of Organizing without Organizations

(5) Lee Siegel – Against the Machine: Being Human in the Age of the Electronic Mob

(6) Ronald J. Deibert, John G. Palfrey, Rafal Rohozinski y Jonathan Zittrain (eds.) – Access Denied: The Practice and Policy of Global Internet Filtering (disponible parcialmente en línea)

(7) Hal Abelson, Ken Ledeen y Harry Lewis – Blown to Bits: Your Life, Liberty, and Happiness After the Digital Explosion

(8) Lawrence Lessig – Remix: Making Art and Commerce Thrive in the Hybrid Economy

(9) James Bessen y Michael J. Meurer – Patent Failure: How Judges, Bureaucrats, and Lawyers Put Innovators at Risk (disponible parcialmente -apenas- en línea)

(10) Daniel Solove – Understanding Privacy (disponible en línea)

Menciones destacadas merecen también los trabajos: Neil Netanel – Copyright’s Paradox (la introducción está disponible en línea); Matt Mason – The Pirate’s Dilemma: How Youth Culture Is Reinventing Capitalism; David Friedman – Future Imperfect: Technology and Freedom in an Uncertain World; Cory Doctorow – Content (disponible en línea); y, Don Tapscott – Grown Up Digital: How the Net Generation is Changing Your World.

El pasaporte que nunca llegó

«No mentir sobre el futuro es imposible y uno puede mentir sobre ello a voluntad». Esta frase de Naum Gabo viene a mi memoria cada vez que escucho a alguien profetizar respecto de algo. Este es el caso de la polla (lo que en el Perú es apuesta, lotería) que hizo Lawrence Lessig hace diez años en su más conocido e influyente trabajo – El Código y otras leyes del ciberespacio – cuando profetizaba la inminencia de una «arquitectura general de la confianza». Como suele suceder en estos casos, Lessig se equivocó. Lo cual es lógico, pues si tuviera éxito con regularidad en predecir el futuro estaría jugando a los caballos o comprando a la lotería.     

Leí El Código hace muchos años y no recordaba esta profecía, hasta que revisé un post de Tim Lee en The Technology Liberation Front (Lessig vs. Harper). Es un buen momento para recoger algunas de las ideas de Lee con relación a este tema. 

Lessig vaticinaba que con la «arquitectura general de la confianza» se permitiría a través de un certificado digital la verificación por parte de las autoridades de una serie de datos respecto de los usuarios de Internet como identidad, nacionalidad, sexo, edad o cualquier otra información considerada importante, como en la Rusia de los Zares.  Hasta que esto no ocurriera el comercio electrónico no se desarrollaría plenamente.

Como señala Lee, esto nunca ocurrió y es poco probable vaya a suceder. La firma digital, promocionada casi al mismo tiempo que el libro de Lessig es hoy sólo un instrumeto de seguridad más y en lugar de una identidad digital, las gentes que pululan por Internet detentan varias personalidades, casi una por cada sitio web que visitan. Sin embargo, debemos puntualizar que no reviste ningún mérito listar las predicciones del libro del Lessig – no es la única – y varios años después marcar sus inexactitudes. El trabajo de Lessig es un aporte importante y no por haber dado un pronóstico aparentemente equivocado pierde validez.

Jim Harper nos señala en su trabajo Crisis de Identidad (Identity Crisis), menos conocido por estos lares, algunas de las razones por las que el vaticinio de Lessig podía estar equivocado. Harper, explica -siguiendo el post de Lee – que la identidad no sólo debe evaluarse a través de las complejas técnicas de indentificación sino por los beneficios que representa romper estos mecanismos.

Un sistema único y monolítico no es una buena idea, en la medida que se convierte en un objetivo irresistible para los malhechores. En cambio, son preferibles una serie de identificadores con distintos niveles de seguridad, adaptados a la sensibilidad de los sistemas que controlan el acceso. 

Como señala Lee la seguridad en línea no es sólo un aspecto tecnológico. Por ejemplo si alguien realiza una compra en línea con una tarjeta de crédito robada tiene que dar un sitio físico para su entrega, esta ubicación será utilizada posteriormente por la policía para capturarlo. El objetivo, no debe ser el máximo nivel de seguridad en las transacciones electrónicas, sino aumentar la seguridad hasta el punto que el costo marginal de la seguridad compense la reducción de los fraudes.

Esta es la razón por la que las personas realizan muchas transacciones de poco valor por Internet y reserva para aquellas con un mayor valor mecanismos presenciales que le brindan una mayor seguridad.  

Lessig quiere demoler la FCC

En una reciente columna de la revista Newsweek (Reboot the FCC) el profesor Larence Lessig sostiene que la Comisión Federal de las Telecomunicaciones (Federal Communications Commission – FCC), regulador de los Estados Unidos de las Telecomunicaciones, en lugar de proteger la innovación, ha sucumbido a un irresistible deseo de proteger a los más poderosos. Es decir, cree que la FCC es un ejemplo perfecto de cómo los reguladores, creados a inicios del siglo pasado, son un freno para el desarrollo.

La FCC se ha convertido en el centro que coordina casi todos los aspectos importantes relacionados con la tecnología. Es el protector de Internet y regulador de la radio, televisión y de las comunicaciones satelitales. En las próximas décadas, Lessig cree que podría convertirse en el regulador por defecto de cada nueva tecnología de las comunicaciones y especialmente, de las nuevas formas de utilizar las comunicaciones inalámbricas, que hoy portan las señales de televisión, radio, internet y telefonía celular, las que podrán proporcionar acceso a Internet de alta velocidad.

El inconveniente de la FCC es que, con tantas facultades a su alcance, se ha convertido en blanco de campañas de enorme influencia. Sus comisionados tienen que ser «expertos» e «independientes», pero en la realidad, para el autor, nunca han sido realmente expertos y ahora están abiertamente influenciados por el juego político. La solución. Como las inconsistencias de la FCC son estructurales, están en su ADN no se pueden maquillar, la FCC se tiene que enterrar. No es la primera vez que Lessig aboga por su destrucción, en marzo de este año sostuvo una posición similar en una entrevista para National Review Online (Professor Lessig Is In). La alternativa es crear una institución diferente, que Lessig llama Innovation Environment Protection Agency (IEPA), algo así como Agencia de la Protección para el Fomento de la Innovación, la cual tendría una misión muy simple: «mínima intervención para incrementar al máximo la innovación«.

La primera tarea de la IEPA, sería frenar el poder incontrolado de los monopolios. Como ejemplo, gran parte del espectro radioeléctrico ha sido subastado en los Estados Unidos a monopolios de telecomunicaciones, sobre la base de que sólo mediante este monopolio las empresas podrán emprender la costosa tarea de construir una red de estaciones de radiodifusión. La IEPA pondría a prueba esta hipótesis. De esta forma, un organismo fortalecido con la prohibición de cualquier tipo de vínculos con la industria se podría evitar la cultura de favoritismo que viene definiendo el accionar de la FCC. Y si logra alcanzar credibilidad en el control de los monopolios, la agencia podría aplicar esta experiencia en otras áreas como patentes y derechos de autor.

El título del artículo de Lessig nos da la idea de una crítica al sistema de regulación, o mejor dicho una crítica institucional, sin embargo nos encontramos ante un cuestionamiento meramente formal: la FCC no sirve hay que crear otro organismo que lo reemplace, «desvestir a un santo para vestir a otro» decimos por estos lares. Pero cabe preguntarnos, «quis custodiet ipsos custodes» (¿quien vigila a los vigilantes?), es una conocida locución latina del poeta Juvenal. La idea de crear un nuevo regulador libre de los vicios que se suelen imputarse a las diferentes agencias gubernamentales es conmovedora por su inocencia. El problema de los fallos regulatorios, que los hay y muchos, no es formal es estructural y la noticia más desalentadora -y es un apunte particular- es que una nueva institución no los solucionará, pues el defecto está en el ADN de la propia burocracia que sirve a estos organismos.

Sobre el particular recomiendo leer el post de Adam Thierer (Lessig on Building a Better Bureaucrat) en Technology Liberation Front cuando nos dice que muchos expertos y políticos creen tontamente que todo sería mejor, como por arte de magia, una vez que las normas sean aplicadas por infalibles reyes-filósofos, personas que caminarán por los pasillos del nuevo IEPA. Es claro, la burocracia estatal tiene su propia lógica. No existe ninguna razón que nos lleve a pensar que estos reyes-filósofos de la IEPA tendrán un mejor desempeño que sus antecesores de la FCC.

Esta observación es también aplicable a otras realidades. Por ejemplo en el caso peruano aparecen de cuando en vez críticas importantes para con el accionar de los organismos reguladores (OSIPTEL, OSITRAN, OSINERGMIN y SUNASS). Una de las formas que se levantan para resolver estos inconvenientes es la creación de una superintendencia que realice las funciones agregadas de todos ellos. Creemos que no es la salida, la única ventaja si se crara una Superintendencia sería un pequeño ahorro presupuestal, sin embargo, se perdería en especialización y sería más sencillo para el poder político captar a esta nueva institución que a las cuatro anteriores.

Google se pasa al lado oscuro, ahora es elooG

¿Quién ha dicho que en occidente las religiones han muerto? Al menos en Internet esta sería una afirmación, por decir lo menos, cuestionable. Porque Internet es en sí misma una religión, con su ciudad sagrada (Sillicon Vally), sus sumos sacerdotes, fieles (millones), conversos, congregaciones (Google), demonios (Microsoft y las telcos), libros sagrados (Neuromante y la Declaración de Independencia del Ciberespacio), reliquias (Netscape) y por supuesto sus mandamientos, elevados a dogma de fe, verdades reveladas, incorruptibles, inalterables, inquebrantables e inmutables. Eterno fuego para el que ose quebrantarlos. Una de estas verdades es, sin lugar a dudas, la neutralidad de la red o Net Neutrality. 

Google es la congregación más poderosa de esta religión -algo así como los Jesuitas en la Contrarreforma- que a punto está de perder algunos de sus más fieles devotos. Éstos se han sentido tan desilusionados -ya vienen perdiendo la fe desde hace tiempo- con algunas de las últimas acciones, que hasta la amenazan en blogs y foros con dejar de seguirla, de usar sus servicios y de migrar a otra congregación que respete a pie firme la letra del catecismo vulnerado. Sólo podrá evitar esta maldición si se retracta públicamente y demuestra que sigue fiel a los principios eternos de la neutralidad de la red. ¿Qué es lo que ha pasado?

El lunes 15 de este mes, el diario neoyorkino The Wall Street Journal publicó un artículo (Google Wants Its Own Fast Track on the Web) donde nos señalaba como Google se había puesto en contacto con una serie de empresas de telecomunicaciones para proponerles la creación de un carril rápido que privilegie sus contenidos en Internet. Lo cual no debiera ser un problema, si no fuera porque Google ha sido tradicionalmente uno de los más acérrimos defensores de la neutralidad de la red, aparentemente la noticia la ponía vulnerando este credo que tanto había ayudado a construir, para decirlo en contexto fue descubierta blasfemando contra su prédica. El revuelo en el templo ha sido tremendo y desproporcionado: Lessig, Wired, Wu, Bennett, Dans y BusinessWeek por citar algunos casos.

Sobre este aquelarre podemos sacar dos conclusiones, a tenor de uno de los últimos post (Net neutrality and the benefits of caching) publicado en el blog de Google. La primera conclusión, es que la noticia es cierta -lo de los contactos con las telecos- y la segunda que Google no abandona la neutralidad de la red. Al parecer, lo que Google pretende es crear una red de distribución de contenidos (Content Delivery Network – CDN) propia del tipo Akamai. Las redes del tipo CDN operan a través de unos servidores que se encuentran físicamente más cerca de los usuarios. Al solicitarse un contenido, en lugar de responder los servidores centrales, la solicitud es atendida por el servidor más cercano al usuario.

La neutralidad de la red es un principio tan ambiguo y etéreo que es difícil tener unanimidad con respecto a qué se quiere decir cuando se lo invoca. Algunas veces parece que estamos ante una frase en Wookle, idioma de los jedis o para darle contenido local, de nuestro hoy popular cuy mágico. Existen, según uno se encuentre, dos tendencias con relación a la neutralidad de la red. Al ala izquierda de la doctrina están quienes afirman que cualquier intervención es negativa y todo el tráfico de la red tiene que tener el mismo trato independientemente de quien lo origine y a donde vaya. Por otro lado tenemos a quienes propugnan que es una limitación para que quienes dominan ciertos elementos de red no prioricen determinado tráfico en beneficio propio y en perjuicio de sus competidores.

No parece que la posición del ala izquierda sea plausible, en la medida que ataría de manos tanto a proveedores de contenidos como a operadores de servicios de telecomunicaciones para desarrollar tecnologías que permitan aligerar el tráfico de Internet. La posición del ala derecha parece más razonable (Lessig), lo que no está permitido es limitar los contenidos de los competidores y priorizar los propios. Desde este punto de vista es válido que los proveedores de contenidos pacten con los operadores de servicios de telecomunicaciones soluciones más eficientes o rutas preferentes para su tráfico. No olvidemos que en Internet uno de los criterios de competencia es claramente la velocidad con que los servicios llegan al usuario, es más, en algunos casos la latencia es crítica incluso para recibir el servicio en sí mismo (vídeos, juegos). No encuentro ninguna razón que amerite castigar a Google por intentar alcanzar soluciones que eliminan externalidades y benefician a los usuarios. Tal vez porque no creo en la neutralidad de la red como un dogma de fe.

Berlusconi quiere regular Internet

Leyendo la prensa de hoy nos encontramos con la noticia (adn, la Repubblica y abc) que el Primer Ministro italiano, en una visita al parque tecnológico de Roma de la empresa de correos Poste Italiane, habría adelantado su intención incluir en la próxima cumbre del G8 una propuesta para establecer una regulación internacional de Internet.

Berlusconi plantea llevar a la cumbre, que tendrá lugar en la isla italiana de la Magdalena el próximo mes de julio de 2009, la idea de «reglamentar el sistema de internet en el mundo. A internet le hace falta una reglamentación«.

La regulación de Internet es un tópico sobre el que se han escrito un número inemnso de documentos por los más variopintos ponentes. Allí tenemos a Lessig y su Código y Perry Barlow y su famosa declaración de independencia del ciberespacio. Pero más allá de que en los inicios de la Red se anunciara lo dificil e imprevisible que sería su legislación, lo cierto es que nos encontramos ante un ecosistema bastante regulado.

Haciendo un recuento, tenemos normas específicas contra la piratería de música y software, que prohíben la apropiación de dominios, penas elevadas para el fraude cibernético y los delitos Informáticos, límites a la publicidad en Internet en especial contra el spam, normas que regulan el comercio electrónico, sentencias que modelan el despido de trabajadores por uso de elementos informáticos en el centro de trabajo (Internet y correo electrónico), también existe legislación para proteger la intimidad y los datos personales. Como normas emblemáticas tenemos a la española la Ley de Servicios de la Sociedad de la Información y de Comercio Electrónico (LSSI), la Directiva sobre Comercio Electrónico de la Unión Europea, la Anticybersquatting Consumer Protection Act (ACPA), la alucinante USA Patriot Act, la Digital Millennium Copyright Act (DMCA), tambièn la Children’s Online Privacy Protection Act (COPPA) o la fallida Child Online Protection Act (COPA). La lista es enorme.

Es curioso, pero hace sólo unos meses Berlusconi reconocía abiertamente que Internet era un medio que no conocía. Parece que en pocos meses la situación ha cambiado. Habrá que ver la propuesta, pero poco crédito tiene el magnate italiano, si tomamos nota que hace unos días (El País) su Gobierno subió el IVA a los clientes de la televisión paga y a los canales que emiten por Internet. Nótese que las empresas de Berlusconi compiten directamente con estos medios. Como decía el Mariscal Óscar R. Benavides, militar peruano que llegó a ser presidente (1914-1915 / 1933-1939), «para mis amigos todo, para mis enemigos la ley«.

Los derechos de autor, un nuevo modelo de censura política

No cabe duda que la naturaleza de los derechos de autor y su aplicación inmutable a entornos digitales es una de los aspectos más controvertidos de Internet. Las discusiones con relación a sus límites y contradicciones suelen ser apasionantes y existen muchos trabajos donde se detallan numerosas anécdotas sobre el particular. Lessig reporta en un reciente artículo publicado en la edición digital del New York Times (Copyright and Politics Don’t Mix), un nuevo caso que seguramente nutrirá la larga lista de la sinrazón digital. En esta oportunidad veremos cómo los derechos de autor, creados para incentivar la ciencia y la cultura, pueden también ser utilizados como un mecanismo de censura del pensamiento político y por lo tanto totalmente inaceptable.

Nixon solía decir que nada era relevante en los Estados Unidos hasta que no salía en televisión. Y sabía de qué hablaba, su debate televisado con Kennedy fue el primer encuentro de esta naturaleza en la historia política de los Estados Unidos y dilapidó su campaña al aparecer desencajado y sin afeitar. En el Perú todavía se recuerda el debate televisado entre Luis Bedoya Reyes y el ingeniero Jorge Grieve en la campaña para la alcaldía de Lima de 1966, la solvencia de Bedoya le valió la reelección. Hoy la utilización de Internet para divulgar ideas políticas es un hecho incontrastable, buen ejemplo de ello fueron las recientes elecciones generales españolas donde los principales candidatos multiplicaron sus apariciones y la de sus partidarios en la Red. También podemos mencionar las campañas electorales en los Estados Unidos donde la utilización de Internet como un medio de difusión es ya toda una tradición desde que hicieron su aparición los blogs políticos en plena campaña entre Bush y Kerry. Sin embargo, algo podría estar cambiando.

Para Lessig la explosiva participación de los ciudadanos en el discurso político contrasta con el uso cada vez mayor de leyes de derechos de autor como instrumento de censura. Cita varios ejemplos. En la campaña para la Asamblea del Estado de Nueva York, el demócrata Mark Blanchfield, en contienda con el republicano, George Amedore, emitió el vídeo de una entrevista de The Albany Business Review en la que Amedore señalaba: «Yo no veo a la Asamblea como un trabajo«. Los abogados de la revista enviaron sendas cartas al comando de campaña de Blanchfield para que dejara de utilizar este material en la medida que los anuncios constituían «una violación de los exclusivos derechos de autor de nuestros clientes».

Esta amenaza no se ha limitado a la elección para la Asamblea de Nueva York, también afecta la campaña presidencial. El año pasado, Fox News exigió a John McCain que dejara de utilizar un vídeo moderado por Fox News en el que aparecía él mismo. El mes pasado, Warner Music Group exigió a YouTube que retirara un vídeo de aficionados que cuestionaba a Barack Obama por incluir música de su catálogo. También NBC solicitó al comando de campaña de Obama que retirara un anuncio que incluía algunos videos de NBC News con los periodistas Tom Brokaw y Keith Olbermann.

De esta forma, señala Lessig, los derechos de autor se convierten en un mecanismo para ejercitar la censura. La Digital Copyright Act (que acaba de cumplir diez años) constituye un mecanismo perfecto para censurar el discurso político durante el único momento en el que éste es trascendente para los ciudadanos.

Aún cuando por estas latitudes no hemos tenido problemas similares, creemos que la utilización de las leyes de derechos de autor para limitar la expresión de las ideas políticas es sólo un peldaño más en la larga lista de despropósitos a los que nos tienen acostumbrados quienes se reclaman como titulares de estos derechos. Resulta evidente que la utilización de imágenes de los medios de comunicación en medio de una campaña electoral no debiera ser considerada por ninguna legislación como una vulneración de los derechos de autor, sin embargo, estos reclamos sólo se consienten en la medida que las propias normas, mal diseñadas, lo permiten.

En el caso del debate político, lo más importante es que el mensaje trascienda y llegue de la forma más amplia a quienes deben tomar una decisión informada. Es decir, ninguna titularidad puede invocarse o superponerse válidamente a las libertades políticas que son expresión de derechos constitucionales. Retomando uno de los ejemplos de Lessig, Tom Brokaw y Keith Olbermann toman relevancia sólo en la medida que participan en el debate político y es por ello que su opinión o comentario carecería de validez e importancia si se le retira de este contexto. El debate político no es asimilable a una película o a una pieza musical, pues a diferencia de estos casos en los que las leyes de derechos de autor otorgan un monopolio temporal de explotación a su creador, cualquier límite que se imponga a la difusión de ideas políticas es una velada forma de censura y por lo tanto una vulneración de los derechos fundamentales de los ciudadanos. Harían bien los políticos afectados cuando accedan a la Casa Blanca en reformular este sistema que como señala Enrique Dans (John McCain, la propiedad intelectual y la justicia divina) ayudaron a construir y que ahora padecen en sus propias carnes.