Yanaconaje 2.0 y Remix, Lessig en TED

Acabo de descubrir en TED (Technology Entertainment Design), esa magnífica plataforma para la difusión del conocimiento, una conferencia de Lawrence Lessig de mayo de este año sobre derechos de autor. La conferencia, bajo el rótulo de  “Reexaminando el remix” (Re-examining the remix), constituye un repaso de las posiciones de Lessig desarrolladas a partir de El Futuro de las Ideas (The Future of Ideas) y continuadas en Cultura libre (Free Culture) y Remix. Por lo mismo, la novedad no es un tópico que podrán encontrar en esta conferencia, sin embargo, no por eso deja de ser recomendable.

Lessig utiliza la dicotomía entre demócratas y republicanos para graficar la actual discusión entre creadores e industria de contenidos, contexto en el cual entiende que la libertad para crear y reutilizar contenidos es una parte esencial de la ecología cultural. Esta libertad debe permitir al mismo tiempo, el éxito comercial y la construcción de una cultura diferente. Esto último sólo se alcanza desde la construcción de una correcta definición de uso justo (fair use) que permita la innovación. Sin embargo, los derechos de autor están levantando un muro sobre la creación como realidad social integrante de la cultura pop postmoderna.

Utilizando los ejemplos de siempre (el republicano Disney como el mayor “remixeador” de la historia), Lessig cuestiona algunas posiciones conservadoras. Advierte, que si bien los republicanos incentivan la creación de un sistema de propiedad rocoso pareciera que no son tan proclives en reconocer los derechos del verdadero titular de esta propiedad. Aquí es donde aparece George Lucas, ícono de la izquierda y creador de Star Wars.

Lucas creó un sitio web llamado MashUps Star Wars (no lo he podido encontrar) donde cualquier persona podía crear episodios de Star Wars, utilizando para ello unas 250 escenas originales. Sin embargo, Lucas tiene los derechos mundiales para explotar estos mashups, a perpetuidad y sin pagar un cobre. Es decir, se priva al creador del mashup de cualquier tipo de derecho sobre su obra, convirtiéndolo en el aparcero de esta historia.

Lessig llama aparecero lo que en el Perú se conoció como yanacona. En su versión moderna el yanacona fue un elemento muy importante en el sistema de producción de la hacienda republicana. Mediante un contrato, la hacienda otorgaba al yanacona los recursos y elementos de producción necesarios, a cambio del pago de una merced conductiva, estipulada generalmente sobre una parte de la cosecha o dinero, además de la obligación de cumplir con ciertas cargas comunales. La hacienda retenía la propiedad de la tierra cultivada y el yanacona asumía la responsabilidad de la explotación (MATOS MAR, José. Yanaconaje y reforma agraria en el Perú).

La industria de contenidos parece funcionar enraizada dentro del pensamiento conservador como la hacienda republicana. Las grandes productoras son los propietarios de la tierra, de las herramientas y de gran parte de la producción del yanacona. Regresando al ejemplo de Star Wars dado por Lessig, Lucas es el propietario de las imágenes, de la herramienta y del producto del creador de los mashups, relegándolo a la función de un yanacona 2.0. Seguro que Lessig lo niega, de hecho ya lo ha hecho, pero en este extremo su análisis me parece un tanto marxista (¿Es la web 2.0 socialista? y Memorias de un pueblo fantasma, cerveza gratis y socialismo 2.0).

Como lecciones, Lessig señala en primer lugar, que dado que todos compartimos actividades tenemos que tener espacios protegidos de uso justo. En segundo lugar, esta ecología de compartir requiere de una libertad robusta para poder crear sin tener que pedir permiso a nadie. En tercer lugar, hay que respetar al creador de estos productos derivados y remezclados con derechos directamente ligados a ellos. Un ejemplo de una ecología de la creatividad equilibrada es el sistema de Creative Commons, propiciado por el propio Lorenzo, contrario al perverso sistema de propiedad intelectual que se viene imponiendo.

En Blawyer pueden leer algunas notas sobre las posiciones de Lessig: Tres ideas para combatir la inquisición cultural y Remix.

Les dejamos con la conferencia de Lessig, está subtitulada si se habilita la opción respectiva.

Tres ideas para combatir la inquisición cultural

De las páginas de The future of ideas de Lawrence Lessig extraigo el siguiente pasaje, escrito hace casi diez años pero dolorosamente actual.

♼♼♼

La idea central que nosotros, como cultura, debemos de retomar es que el control sobre el contenido no debe de ser perfecto. Las ideas y la expresión deben de ser en cierto grado libres. Ese fue el propósito del copyright inicialmente –el balance entre control y libertad. Fue, “incluso veinte años atrás… un artículo de fe [que] ofrecía una protección limitada”. Pero estas leyes ahora tienen una puerta falsa que amenaza con destruir ese equilibrio: el código.

La tecnología, unida al derecho, ahora promete un control casi perfecto sobre el contenido y su distribución. Y es este control perfecto el que amenaza con menoscabar el potencia para la innovación que Internet ofrece.

Para resistir esta amenza, necesitamos cambios específicos que restablezcan el balance entre el control y la creatividad. Nuestro objetivo debe ser un sistema de control suficiente que le de a los artistas los incentivos necesarios para producir, al tiempo que otorga libertades suficientes a los demás para construir sobre esa base y crear nuevos contenidos.

Para lograr este balance, hay algunas ideas que debemos de tener en cuenta. Primero, vivimos en un mundo con contenido “libre” y esta libertad no es una imperfección. Escuchamos radio sin pagar por las canciones que escuchamos; escuchamos a nuestros amigos tararear canciones sin que tengan una licencia. Nos referimos al argumento de una película para contar un chiste sin permiso del director. Le leemos a nuestros hijos libros de la biblioteca sin que hayamos pagado derechos de comunicación al titular de los derechos de autor. El hecho de que el contenido en cualquier momento particular sea libre no nos dice nada sobre si usar ese contenido es un “robo”. Por ello, un argumento para aumentar el control sobre el contenido por los dueños de ese contenido necesita ir más allá de “ellos nos pagaron por el uso” para lograr persuadirnos.

En segundo lugar, y relacionado con esto, la razón por la cual el control perfecto no es nuestro objetivo es porque la creación siempre implica construir encima de algo más. No existe ningún arte que no reutilice lo anterior. Y existiría menos arte si cada reutilización tuviese que pagar un impuesto al anterior propietario. El control a través de un monopolio ha sido siempre la excepción en las sociedades libres; y ha sido la regla en las sociedades cerradas.

Finalmente, mientras el control es necesario, y perfectamente justificable, nuestra tendencia debe de ser clara: los monopolios no están justificados por la teoría; solo deben de ser permitidos cuando sean justificados por los hechos. Si no existe una base sólida para extender la protección legal de cierto monopolio, entonces no debemos hacerlo. Esto no significa que cada autor debe de probar la calidad de su obra de entrada. Ese sería un sistema a todas luces torpe. Pero sí significa que cada sistema o categoría de derechos de autor o patentes debe de probar su valor antes que nada. Antes que el monopolio sea permitido, debe de haber una razón para creer que hará algún bien –para la sociedad, y no solo para los que tienen el monopolio.

Lessig, Lawrence. The future of ideas: the fate of the commons in a connected world. New York: Random House, 2001. pp. 249-250. Traducción libre.

Debate servido: Google, Verizon y Web 3.0

Ignoro si los chicos de Google hagan el mal, creo particularmente que no, pero lo cierto es que nunca aburren. Ayer Google y Verizon presentaron al alimón una propuesta (aquí) para mantener la neutralidad de Internet, en la que se muestran en principio opuestos a cualquier tipo de bloqueo o discriminación de contenidos legales en Internet. Con esta iniciativa Google y Verizon pretenden impulsar un diálogo para la implantación definitiva de la legislación sobre la Neutralidad de la Red (Net Neutrality) en los Estados Unidos, en un momento en el que el fuego del caso Comcast todavía no se ha extinguido (El ruido y la furia del caso Comcast (1) y (2)).

Este anuncio conjunto aparece sólo unos días después de que ambas empresas desmintieran un supuesto acuerdo por el que Verizon se comprometía a priorizar los contenidos de Google en sus redes de telecomunicaciones (aquí 1 y 2).

Uno de los aspectos más polémicos de la propuesta es el de reconocer la excepcionalidad, por su intrínseca naturaleza competitiva e innovadora, de la banda ancha inalámbrica. Es así, que echando mano a estas características proponen que la regulación de la Neutralidad de la Red no se extienda inicialmente a la banda ancha inalámbrica.

Las reacciones la propuesta de Google y Verizon no se han hecho esperar. Internet brama, bulle, se escandaliza y en este contexto el New York Times ha abierto rápidamente en su sección de debates un tópico sobre el tema: ¿Quién tiene prioridad en la Web? Los participantes son de lujo, como veremos a continuación.

Tim Wu, profesor de Columbia Law School: «Controlando el comercio y la opinión»

Internet y las comunicaciones están en la misma categoría que la energía, el transporte y las finanzas, porque son el alma del comercio y de la expresión de esta nación. Verizon o Google ubicadas encima de la web, pueden influir sobre qué empresas tendrán éxito o fracasarán, haciendo que los sitios se carguen más rápido, más lentamente o terminen en la página 10 del ranking de resultados.

El mayor peligro de una vía rápida es que cambia por completo la competencia en la red. Si hubiera habido una Internet de nivel 2 en 1995, probablemente, Barnes & Noble habría destruido a Amazon, Microsoft Search habría golpeado a Google y Skype no habría sino empezado. Todos seríamos perdedores.

Lawrence Lessig, profesor de Harvard Law School y director de la Fundación Centro Edmond J. Safra para la Ética: «Otra debacle desregulatoria».

El éxito económico de Internet proviene de su arquitectura. La arquitectura y las fuerzas competitivas que lo aseguran, es lo único interesante en juego en esta batalla por la Neutralidad de la Red. Sin embargo, los asesores económicos de más alto rango en la Casa Blanca no parecen saber lo que eso significa.

Los políticos, utilizan un marco económico establecido en la década de 1980, convencidos de su verdad y demasiado arrogantes para reconocer incluso su ignorancia, permitirán a los propietarios de los “tubos” destruir Internet.

David Gelernter, professor de Yale University: Llámalo «Irracionalidad de la Red».

La neutralidad es una política. A menudo es una mala política. “Neutralidad fiscal”, por ejemplo, es gravar cada dólar de ingresos de la misma forma; la “Neutralidad de las Carreteras”: todos los vehículos deben pagar el mismo peaje. El punto fuerte de la Neutralidad de la Red es su nombre.”Neutralidad” suena como el estilo americano. Sin embargo, “red irracional” sería un nombre más preciso para esta idea mal concebida.

Supongamos que una compañía aérea quiere comprar espacio adicional en el aeropuerto local para hacer su check-in más rápido. ¿Debemos decir, “lo siento, pero la neutralidad del aeropuerto exige que American Airlines y Southwest Peoria Air tengan exactamente la misma cantidad de espacio en LaGuardia”?

Edward W. Felten, profesor de la Universidad de Princeton: «”Neutralidad” es difícil de definir».

La cuestión no es si queremos mantener esta Internet neutral abierta, es si a partir de la elaboración de normas el Gobierno nos puede asegurar el resultado que queremos. “Neutralidad” es fácil de imaginar, pero difícil de definir. Los operadores de redes necesitan un margen razonable para gestionar sus redes. No queremos entorpecer sus complejas prácticas de gestión de red neutrales, pero tampoco permitir la discriminación o hacer posible una discriminación sutil envuelta en la jerga de la red.

Jim Harper, director de estudios de política de información del Cato Institute: «Un cautivo de la Industria».

La Comisión Federal de Comunicaciones (Federal Communications Commission – FCC) ha socavado el desarrollo y la inversión mediante su propuesta para regular Internet como solía hacerse con la industria telefónica. En lugar de llevar a cabo la regulación planteada por la industria, la FCC simplemente debería desaparecer. No debe participar en la regulación de Internet, incluso si la industria lo quiere.

Jonathan Zittrain, profesor de Harvard Law School: «Una red impenetrable de peajes».

Esta cuestión se plantea en medio de una economía muy confusa para el movimiento de bits a través de Internet. Con los teléfonos la norma era sencilla: el remitente paga. En Internet es más complicado: tanto emisor y receptor pagan a sus respectivos ISPs.

Google sería capaz de lograr un acuerdo con Verizon para tener un acceso más veloz, dejando a los proveedores de contenidos menos afortunados detrás. Cuando cada ISP puede hablar en nombre de sus suscriptores sin saberlo, en calidad de cobrador de peaje bajo el puente ofreciendo diferentes condiciones de acceso, la economía de la red estará a favor de la consolidación, de los influyentes y adinerados.

En un medio en el que muchos de los gigantes eran advenedizos ayer – eBay, Google, incluso la propia web – sería una parodia congelar la siguiente ronda de innovación por el despliegue de una red impenetrable de contratos y tarifas.

Marvin Ammori, profesor de la Universidad de Nebraska-Lincoln: «Regular al Rockefeller de hoy».

El gobierno puede y debe hacer cumplir la neutralidad de la red. La competencia y el debate democrático en el siglo 21 dependerán de la no discriminación, al igual que la evolución a la web 3.0 ó 4.0.

Las compañías de teléfono y de cable, ahora unidas a Google, están gastando millones para convertir a Internet en un servicio de todo pago. Internet es la infraestructura básica del comercio y las comunicaciones. La discriminación en Internet minará la innovación. Podemos hablar de estas versiones “nuevas” de la web (web 2.0 y 3.0) sólo porque Internet evoluciona rápidamente. No lo hace porque le de prioridad a las compañías telefónicas o de cable, sino más bien porque los usuarios determinan la mejor manera de utilizar Internet.

Facebook y el sueño de una red de usuarios con nombre propio

El lanzamiento de Facebook Social y su protocolo Open Graph hace varias semanas ha terminado por convertir a la marca Facebook en omnipresente en la red. Que todos naveguemos por Internet conservando nuestras identidades de Facebook convierte a la red social en un componente articulador de la red. Hace poco Mark Zuckerberg dijo expresamente que Facebook pretendía construir una red donde lo social sea el default o condición por defecto. ¿Qué nos quiere decir con eso?

Facebook acumula una gran cantidad de información de sus usuarios. Esta información es de todo tipo: gustos musicales, números telefónicos, cantidad de amigos, pasatiempos, adscripciones políticas. Si esa información fuese solo un texto plano (como lo puede ser el texto de un comentario en una foto) tendría poco valor. Hace tiempo Facebook convirtió esa información en hipervínculos que, al seguirlos, activaban una búsqueda que nos mostraba a otras personas que compartían ese mismo interés. Eso tiene un valor agregado para el usuario, quien podría contactarse con gente con la que comparte intereses y para cualquiera que, usando el motor de búsqueda de Facebook, quisiera encontrar un público para anunciar un producto o servicio. Recientemente, Facebook convirtió esa información en nodos de red con entidad propia (Conexiones), similares a las Páginas y a los Grupos. A la vez, modificó su política de privacidad para arrogarse el control de esa información y hacerla pública por defecto. Es decir, los datos que no tenían ningún valor ahora tienen un valor inmenso ya que acompañan tu identidad y se reflejan en el resto de páginas que visitas.

We are social

Cuando Facebook habla de hacer una red donde lo social sea el default, habla de una en donde todas las páginas puedan ofrecer contenidos en función de mis intereses, mi género o las redes a las que pertenezco (todos datos ahora públicos). Al mismo tiempo, habla de que cualquier elemento en Internet pasa a ser un elemento de Facebook. Una entrada en IMDB, un artículo en un blog o un video de Youtube podrán ser comentados o valuados como si estuviesen en la propia red social y con la identidad que el usuario tienen en ésta. Si bien, cierta información no se comparte directamente con terceros (ej. Blawyer no tiene forma de saber quiénes recomiendan sus artículos, solo cuántos son), la idea de ir dejando un rastro trazable de toda la actividad en línea –ya no un IP, sino todo un paquete de información– nos devuelve a una vieja discusión de los primeros años de la masificación de Internet.

Antes se pensaba que el comportamiento en Internet no se podía regular porque era una red que no necesitaba de una identificación personal para acceder a ella, al estar compuesta por protocolos abiertos y no propietarios. Pero esta condición era una función de su código ya que, como señalaba Lessig en su Code, una red podía ser modificada de forma tal que requiera identificación para acceder a ella. Una red más identificable no solo le interesará al Estado (que ve facilitada la aplicación de las leyes), sino también a los agentes comerciales (quienes pueden saber quién “entra” a sus tiendas o evitan fraudes de identidad). Esa es la razón por la cual constantemente se exige estar registrado para realizar actividades sensibles como transacciones comerciales en línea o, al entrar a un sitio de bebidas alcohólicas, se pregunta la fecha de nacimiento. Los agentes han creado, con mayor o menor éxito, sistemas de identidad para poder saber quiénes los visitan ya sea a través de sistemas manuales o cookies. Aquí es donde Facebook entra y les ofrece la posibilidad de acceder a todos los gustos, sabores y colores de las preferencias de sus usuarios a costo cero. Nunca me sonaron tan proféticas las palabras de Lessig en 1999 cuando decía:

Considera esta hipótesis completamente posible desde el punto de vista técnico bajo las arquitecturas existentes de la Red. Vas a una página web de una empresa en la cual confías, y le das a esa empresa todos tus datos privados –tu nombre, dirección, número de seguridad social, revistas favoritas, shows de TV, etc. Esa compañía te da una cookie. Luego, vas a otra página, una en la que no confías. Tú no has decidido darle a ese sitio ninguna información personal. Pero no hay forma de que sepas si ambas compañías no están intercambiando la información que recolectan. Es perfectamente posible que sincronicen la información de las cookies que crean. Y, en consecuencia, no hay ninguna razón técnica para pensar por qué una vez que ya diste tu información una vez, no sea conocida por el amplio rango de sitios que visitas. (traducción libre, p. 203)

El sueño de una red de usuarios con nombre propio ha sido soñado muchas veces y desde hace mucho tiempo (ej. CompuServe, AOL, OpenID o Google, quienes en distintas formas intentaron que sus usuarios porten la identidad de su servicio durante toda su navegación). No sé si Facebook esté cerca de lograrlo. Dada la gran cantidad de usuarios que tiene, la implementación del Open Graph ha sido generalizada. Más allá del éxito que llegue a tener en el tiempo, es un signo elocuente de que nos acercamos progresivamente hacia una Internet donde los usuarios cargan permanentemente su identidad en línea. Una Internet, por ende, mucho más regulable: con las consecuencias buenas y malas que eso pueda traer.

Foto: Jolie O’Dell (CC BY) / Infografía: Stefano Maggi (CC BY-NC-ND)

Avatar o la historia (de siempre) jamás contada

Borges en “El Evangelio según Marcos” (El informe de Brodie, 1970) pone en la mente de Baltasar Espinosa el siguiente pensamiento “(…) los hombres, a lo largo del tiempo, han repetido siempre dos historias: la de un bajel perdido que busca por los mares mediterráneos una isla querida, y la de un dios que se hace crucificar en el Gólgota”. Es la historia de la Odisea y la pasión de Cristo repetida una y mil veces. Sumaría la del hombre que se enamora perdidamente de una doncella inalcanzable, aunque reconozcamos, la Odisea tiene parte de esto. Con Romeo y Julieta completamos la trilogía de todas las historias que el hombre ha repetido, curiosamente el mismo número de secuelas que se nos promete con la última entrega de Cameron.

James Cameron (1954 – ) ha estrenado su última película, Avatar (2009), y lo ha hecho de forma brillante, por ahora ya puede anotar en el haber un taquillazo (US$ 492 millones sólo en los Estados Unidos) y dos Globo de Oro. Buena antesala para lo que vendrá con los Oscar.

En lo que corresponde a la cinta. Avatar está hecha para avasallar y deslumbra con sus imágenes en 3D, que es la última apuesta de Hollywood para incentivar al público, contrarrestar la disminución de espectadores, enfrentar a la piratería y esquivar a las redes P2P. Filmada y proyectada al abrigo de un rosario de nuevas tecnologías, no falla en lo que promete. Estamos ante un cine de artificio donde la historia sucumbe ante una técnica hiperbólica. Efecto que durará hasta que la artimaña se convierta en tedio y la rutina permita digerir las historias nuevamente.

El valor de una película no sólo está en la tecnología empleada en su filmación y proyección, también es importante la historia subyacente. Sin una buena historia que contar no tenemos cine que valga la pena. No es objeto de esta entrada hacer un análisis de Avatar como expresión plástica aunque sí como historia que no como guión. Sobre su calidad existen voces autorizadas que lo pueden decir mejor que nosotros, hay críticas para todos los gustos: Alberto Abuin (‘Avatar’, el James Cameron de siempre), Santiago Navajas (Avatar: Pandora pertenece al viento) y Ricardo Bedoya (Avatar).

En lo que nos compete, la historia de Avatar es tributaria de tantas fuentes que no es fácil hacer un recuento completo de todas, de hecho en Internet (¿Quieres leer el guión que escribió James Cameron?) circula una parodia de su guión donde luego de alterar algunas palabras a un texto de Pocahontas terminamos con el de Avatar, tanto que John Smith y Jake Sully comparten las mismas iniciales. En otro campo, pareciera que Avatar no es otra cosa que la versión 2.0 del mito del buen salvaje o de la Hipótesis de Gaia de Lovelock.

Cameron nos ofrece una historia maniquea que ha sido recogida innumerables veces por el cine, como ejemplos tenemos a la animada Pocahontas (1995) de Mike Gabriel y Eric Goldberg, Pacto de honor (The Indian Fighter, 1955) de André de Toth, Motín a bordo (Mutiny on the Bounty, 1962) de Lewis Milestone, Un hombre llamado caballo (A Man Called Horse, 1970) de Elliot Silverstein, Bailando con lobos (Dances with Wolves, 1990) de Kevin Costner o El nuevo mundo (The New World, 2005) de Terrence Malick. En estas películas el hombre blanco termina seducido por la pureza de la cultura nativa hasta el punto de luchar contra los de su propia raza para mantener este paraíso salvaje lejos de su influencia.

Pero no son las únicas referencias cinematográficas que podemos encontrar. Avatar bebe también de El último samurái (The Last Samurai, 2003) de Edward Zwick, la magistral Apocalypse Now (1979) de Francis Ford Coppola o del fiasco Delgo (2008) de Marc F. Adler, para no olvidar a los animes Nausicaä del Valle del Viento (1984), El castillo en el cielo (1986) y la Princesa Mononoke (1997) todas de Hayao Miyazaki. Incluso podemos ver cómo los marines de Avatar se parecen a los de Aliens (1986) del propio Cameron, aunque a decir verdad todos los marines son iguales.

Las novelas de ciencia ficción no fueron ajenas al trabajo creativo de Cameron cuando escribió el primer guión. De esta forma se ha querido ver a una larga lista de novelas como sus fuentes: Llámame Joe (Call Me Joe, 1957) de Poul Anderson; The Winds of Altair (1973) de Ben Bova o To Fell a Tree (1959) de Robert F. Young. Se afirma que la trama de Camaron tiene más que sospechosas similitudes con una serie de novelas del género de ciencia ficción muy populares en la Rusia soviética, escritas en la década de los 60 por los hermanos Arkady y Boris Strugatsky. Es debido a estos parecidos que una organización comunista de San Petersburgo exige el arresto de Cameron.

Avatar también nos recuerda a aquellas leyendas donde un gran guerrero une políticamente a la tribu o al clan para hacer frente a un enemigo poderoso y más desarrollado. Las islas británicas tienen muchas historias de este tipo. Naturalmente encabeza la lista la leyenda de William Wallace (ca. 1272 – 1305) que unió a los diferentes señores feudales contra la dominación de Eduardo I de Inglaterra (Longshanks), recordemos para mayor referencia que en la cinta Corazón Valiente (Braveheart, 1995) de Mel Gibson los ejércitos escoceses se pintaban de azul para la batalla, el mismo color de los humanoides de Pandora, lugar donde Cameron sitúa su historia.

Pero aquí no acaba la cosa, el nombre de la cinta no es original. Avatar, La leyenda de Aang (2005 – 2008) es una serie de televisión animada producida por Nickelodeon con fuertes influencias del anime y manga japonés. Esta serie se desenvuelve en un cosmos de influencia asiática donde predominan las artes marciales y la manipulación de los elementos (aire, agua, fuego y tierra). La madeja de influencias de este primer Avatar es inmensa y seguro que si comparamos las dos entregas encontraremos algunas similitudes.

Con relación a los aspectos visuales de Pandora también se han encontrado algunos antecedentes. Sus bosques se parecen mucho a los dibujos de Roger Dean. También los videojuegos reclaman lo suyo. Diversas personas advierten que Cameron se inspiró excesivamente en el Universo de Halo desarrollado por Bungie Studios. La lista puede ser interminable. Ya aparecerá alguien advirtiendo que es evidente que los Pitufos (Les Schtroumpfs) de Peyo (Pierre Culliford) también inspiraron a Cameron porque son azules y viven en armonía con la naturaleza.

Ignoro si Cameron utilizó todas estas fuentes para armar el guión de Avatar, sin embargo, estoy seguro que aún si así fuera su trabajo no dejaría de ser original. Lo importante no son las partes sino el todo. Las nuevas tecnologías y el desarrollo de las telecomunicaciones han difuminado también los contornos antes claros entre lo que es copia, influencia y original. Lessig ya nos advirtió, primero en Cultura Libre (Free Culture) y luego en Remix, que en este contexto era necesario liberar la copia creativa de imágenes y sonidos.

Tengo la sensación que Avatar es sólo original en la tecnología y no por ello pierde validez. Cameron no ha hecho otra cosa que remezclar una serie de ideas de diferentes fuentes, amalgamando partes de distintas novelas, películas y leyendas para adornarlas con los ingredientes de siempre: una pizca de aventura, una pierna de misticismo y un rollo de romance. ¿Cuál es el sentido entonces de permitir la remezcla de ideas mientras se prohíbe la de imágenes y sonidos?

Elinor Ostrom, premio inesperado a los comunes

Garret Hardin fue un biólogo graduado en las universidades de Chicago y Stanford y su nombre habría pasado casi desapercibido si en 1968 no hubiera publicado el conocido e influyente estudio The tragedy of the commons (La tragedia de los comunes). Hardin explica la tragedia de los bienes comunales a partir del ejemplo de un pastizal en una situación de estabilidad social. Un pastor racional añadirá tantos animales a su rebaño como le sea posible, de tal forma que la libertad de explotar los recursos comunes resultará en la ruina para todos, pues el pastizal no es un recurso ilimitado.

El trabajo de Hardin se hizo muy popular entre los economistas para desacreditar la viabilidad de los bienes comunes. Sin embargo, matizando las cosas, el ejemplo citado por Hardin no es en estricto sentido un bien común, es un páramo, un espacio de frontera, una tierra del lejano oeste. Como señala con acierto David Bollier (Los bienes comunes: un sector soslayado de la creación de riqueza) “Hardin describe un régimen de acceso abierto no regulado, la tierra de la que habla no tiene límites, ni existen reglas para gestionar el acceso a ella y su uso. Cualquiera se puede apropiar de lo que desee. Nadie está gestionando las tierras comunes. Dicho de otra forma, de lo que habla Hardin es de una tierra de nadie.

Hace unos días la Real Academia Sueca de Ciencias decidió otorgar el Premio Nobel de Economía a los estadounidenses (curiosamente también californianos) Elinor Ostrom (primera mujer en conseguirlo) y Oliver E. Williamson. Confieso, en lo que debe ser una evidencia de mi pereza, que es la primera vez que los suecos entregan el Nobel a alguien que ya había leído y en este caso lo he hecho con los dos.

En lo que nos ocupa. Es quizá el premio de Ostrom el que tendrá mayor repercusión para analizar algunos aspectos relacionados con la gestión de Internet y es, sobretodo, una puesta en valor de las posiciones de quienes venían cuestionando los postulados de Hardin.

La mayor parte de los trabajos de Ostrom se han dedicado al estudio de cómo se gestionan los recursos comunes, como bosques, ríos o pastizales. De esta forma, intenta echar por tierra la tesis de que los individuos racionales utilizan generalmente de forma excesiva estos recursos comunales y que la asignación de derechos de propiedad es el mejor camino para evitar su depredación.

Ostrom encontró que diversas sociedades tienden a crear y mantener a lo largo del tiempo complejas reglas, normas y sanciones para garantizar que estos recursos comunales se utilicen de forma sostenible y llega a la conclusión que este mecanismo de gobierno a menudo funciona bien, pudiendo rivalizar en eficiencia con formas tradicionales de propiedad.

Aunque Ostrom no ha estudiado el fenómeno de Internet como un bien común, distintos autores como Lessig, Boyle o Benkler parecen haber hecho correctamente esta tarea. En principio Internet puede entenderse como una sucesión de niveles o capas. En la capa de red, se afirma, que Internet es viable gracias a la creación de un conjunto de protocolos no propietarios que permiten la interconexión de las diferentes computadoras. De esta forma Internet se habría convertido en el mayor y más robusto bien comunal de la historia.

Existen innumerables ejemplos de bienes comunes digitales como Linux y demás software de código abierto. Wikipedia, Craigslist (anuncios clasificados), Flickr (compartir fotos), Internet Archive (webs históricas), SourceForge (Aguantan los comunes) y Public.Resource.org (información gubernanmetal). Cada web comunal actúa como un administrador eficiente de su riqueza colectiva.

David Bollier (Elinor Ostrom And The Digital Commons) sostiene que una de las razones fundamentales para la creación y proliferación de que todos estos bienes comunales digitales, es que los comuneros no tienen que obtener el permiso de nadie o efectuar pagos a un intermediario empresarial. Pueden construir lo que quieren directamente, y gestionar su trabajo de la forma que deseen.

Creo que tanto como las tesis de Ostrom resultan aplicables a bosques y pastizales, lo contrario se podría afirmar de los postulados de Hardin para bienes informacionales. Cabe recordar que hace algún tiempo (La virtud de no dar, a prósito del último libro de Michael Heller) señalamos que cuanto más propiedad se entregue sobre un recurso cultural, más difícil será que se construya a partir de ellos. En este contexto la administración comunal de bienes digitales no parece descabellada. Aunque no debemos olvidar que Internet es un ecosistema complejo y hay espacio para todos y para todas las formas de gestión en él.

En el site de la Asociación Internacional para el Estudio de los Bienes Comunes (The International Association for the Study of the Commons – IASC) se pueden revisar más de cien documentos de Ostrom (aquí) además de una selección de textos (aquí). El Fondo de Cultura Económica (2000) tradujo al español el que tal vez sea su trabajo más representativo (El gobierno de los bienes comunes. La evolución de las instituciones de accion colectiva).

Algunos comentarios de la entrega del Nobel a Ostrom:

Quemar las naves (El premio nobel del bien)

Soitu.es (Sobre el gobierno de los ‘ecosistemas digitales’: en honor de Elinor Ostrom)

The Economist (The Nobel prize for economics, The bigger picture)

Memorias de un pueblo fantasma, cerveza gratis y socialismo 2.0

Es difícil emplear conceptos acuñados en el pasado para describir los actuales procesos sociales. Creo que es precisamente lo que ocurre con el término socialismo para aplicarlo a algunos fenómenos de Internet. Hace unos días realizamos una breve crónica (¿Es la web 2.0 socialista?) de la discusión que mantenían Lawrence Lessig y Kevin Kelly respecto de si Internet es socialista. Coincido con Kelly cuando señala que muchos de los esfuerzos de lo que hoy en día llamamos web 2.0 son colectivos y por tanto podrían presentar algunas similitudes con un modelo de organización colectivista o cooperativo. Sin embargo, considero que Lessig tiene razón, aunque discrepe con su análisis político, respecto que Internet no es socialista. Sobre el particular el comentario que hace Miguel Morachimo a la entrada me parece de lo más acertado.

En la misma línea, destaco otro comentario al post. Lupi nos dice que “…llame como se le llame, socialismo o etc. Si no altera en nada las bases materiales, pues, no altera nada radicalmente (más sí, obviamente, en el campo cultural, lo cual podría cambiar todo luego). Mas no nada radicalmente. Los ricos siguen siendo menos. Los pobres siguen siendo más. Cuando cambie algo en eso, podría recién hablarse de palabras mayores.

Ignoro cuál es la carga de profundidad que tiene el comentario de Lupi, pero en esencia vale para entender que la posición de Kelly es una versión descafeinada de socialismo, pues la existencia de estructuras comunitarias organizadas no es suficiente para calificar a la web 2.0 como socialista. Me valdré para ello de algunos ejemplos.

En el artículo de Kelly en Wired (The New Socialism: Global Collectivist Society Is Coming Online) que utilicé para contraponer su tesis a la de Lessig, se hace una cronología moderna del socialismo, en ella aparecen diversos hitos del socialismo 2.0 como Blogger, Wikipedia, Facebbok y Twiter junto con la Revolución de Octubre o la Revolución cubana. ¿Son en realidad socialistas modelos como Wikiedia o Facebook?

Wikipedia es una de esas raras historias en las que el postre termina siendo más importante que el plato de fondo. En el 2000, Jimmy Wales lanzó Nupedia, una enciclopedia en línea alimentada por artículos de especialistas no remunerados y un proceso de revisión entre pares. Como el proyecto avanzaba lentamente se creó un wiki para agilizar la creación de artículos. La historia siguientes es conocida Wikipedia se tragó a Nupedia que dejó de funcionar en el 2003.

Sin embargo, lo importante en este extremo no es determinar quien tiene la capacidad de colaborar en el desarrollo del sitio, sino cuál es el modelo de gestión. Veremos otro ejemplo.

¿Quién no se acuerda de GeoCities? GeoCities (antecedente de redes como Facebook, MySpace y de plataformas de blogs como Blogger y WordPress) era un servicio gratuito de webhosting fundado en 1994 como Beverly Hills Internet (BHI). Originalmente, los usuarios seleccionaban un “barrio” en el cual alojaban su página web de acuerdo con su contenido. En enero de 2000 Yahoo! compró GeoCities por 4 millones de dólares, lo gestionó fatal y sus ciudadanos migraron masivamente a plataformas más amigables. Nueve años después de su compra Yahoo anunció el cierre definitivo de GeoCities (So Long, GeoCities: We Forgot You Still Existed) y que sus archivos serán eliminados de los servidores. Se veía venir, hacía tiempo que GeoCities era un pueblo fantasma.

¿En qué se parecen Wikipedia y GeoCities? En que ambos son -eran- gratuitos. ¿Qué los diferencia? Que en Wikipedia los niveles de participación escalan hasta la cabeza y en Geocities como hoy en Facebook, MySpace o Blogger el sitio era -es- administrado por una empresa bajo patrones de dirección capitalistas. No es lo mismo hablar de un bien común que tener cerveza gratis.

David Bollier en onthecommons.org (When Web Communities Become Ghost Towns) señala algunas cosas interesantes sobre cuándo nos encontramos ante un bien común o ante una iniciativa empresarial. Muchas empresas desarrollan sitios de acceso libre, porque esa es la dinámica del mercado, es la forma para atraer una mayor audiencia y la forma obtener mayores ingresos por publicidad.

No olvidemos que en muchos de estos esquemas la razón de ser del site es hacer dinero y las condiciones del servicio se diseñan para alcanzar este objetivo. Aquellas comunidades alojadas en un sitio de esta naturaleza están subordinadas a un agente empresarial y éste impone una serie de condiciones sobre los contenidos generados por los usuarios como apropiarse de este material.

Resumiendo, creo que la economía de Internet ha logrado moldear gran parte de su dinámica social. Muchos sitios son gratuitos porque los modelos de pago fracasaron estrepitósamente y porque hay alguien dispuesto a pagar vía la publicidad por esta gratuidad. El hecho que en estos sitios se pueda compartir material no los aparta de la dinámica del mercado y por supuesto no los convierte en espacios libres de la lógica capitalista. Cerveza gratis no es socialismo.

¿Es la web 2.0 socialista?

Si algo ha desaparecido en los últimos tiempos del mundo real  es la discusión dogmática. La otrora confrontación de ideas políticas, con su propuesta de mundos ideales según se viera desde la derecha o izquierda, ha sido dejada de lado por una retórica más o menos insulsa sobre la mejor forma de administrar la cosa pública. Salvo algunos alucinantes proyectos, encabezados por el Chavismo venezolano y sus satélites latinoamericanos, la nueva arena política es tan entretenida como bailar con la hermana. Mejor.

Pero el ciberespacio es otra cosa. Aquí se discuten con profundidad algunos tópicos que hace unos lustros estaban reservados para otras realidades. Mientras que en el mundo real tenemos practicidad aquí encontramos dogmática, si allí desinterés aquí participación y frente a la apatía en el metaverso se actúa con pasión.

Prueba de ello son dos de los últimos posts del blog de Lessig (Et tu, KK? (aka, No, Kevin, this is not “socialism”On “socialism”: round II), que nos dejan una interesante polémica con Kevin Kelly, de la cual participaré humildemente desde este pequeño rincón. El tema es sugerente, aunque ignoro cuál sea su utilidad: ¿Es la web 2.0 socialista?

Kelly sostiene en un artículo publicado en Wired (The New Socialism: Global Collectivist Society Is Coming Online), que la fiebre mundial para conectar a todos con todos es una versión revisada del socialismo. Para Kelly los aspectos comunitarios de la cultura digital son profundos y amplios. Wikipedia es un ejemplo notable de un colectivismo emergente. Proliferan los sitios de colaboración como Digg, StumbleUpon, The Hype Machine y Twine, los cuales sugieren un movimiento constante hacia una especie de socialismo sintonizado con un mundo en red.

En este socialismo en lugar de granjas colectivas, nos reunimos en mundos colectivos. En lugar de fábricas estatales, tenemos fábricas de escritorio conectados a cooperativas virtuales. En lugar de compartir brocas, picos y palas, se comparten aplicaciones, scripts y APIs. En lugar de politburós sin rostro, tenemos una meritocracia sin rostro, donde lo único que importa es hacer las cosas. Si las masas poseen los medios de producción, contribuyen hacia una meta común sin salario y sin gozar de los frutos de su esfuerzo ¿No es razonable decir que es socialismo?

Lessig discrepa y cree que por el contrario web 2.0 no es socialista (Et tu, KK? (aka, No, Kevin, this is not “socialism”) y On “socialism”: round II). Considera que El núcleo del socialismo es la coacción (justificada o no). El núcleo de las conductas que Kelly celebra es la libertad.

Lessig mete mano a un clásico -nada menos que a Adam Shmith-. Señala, el objetivo de Smith era tanto entender el papel del mercado como explicar la provisión de los bienes públicos. Sólo se puede comprender el papel del mercado en un contexto de bienes públicos y un asunto de vital importancia es cómo una sociedad los produce.

Smith estuvo fascinado por los bienes públicos (no rivales y no excluyentes, como los economistas conceptuaron más tarde), pero que no fueron creados por cualquier actor central como el Estado, sino por las acciones voluntarias de los individuos. Lo que Smith estaba señalando no es razonable llamarlo socialismo, debido a que el socialismo utiliza el poder del Estado para obtener un resultado que de otro modo no habría sido sostenido voluntariamente por las personas.

Lessig cree que no es momento de hacer una redefinición lúdica de un término que tiene un sentido claro y particular. Lo que quiera que el “socialismo” pudo haber sido si no hubiera sido secuestrado por las revoluciones en el Este es intrascendente, pues el significado del término no es lo que es hoy Wikipedia.

Ignoro si nos encontramos ante una discusión trascendente, en realidad muy pocas lo son, pero no cabe duda que es interesante. Hace unos días conversaba con Enrique Pasquel con ocasión de la presentación del  libro “El impacto de las innovaciones tecnológicas en el Derecho Privado“, precisamente sobre este tópico. Anotábamos, como algunas posiciones antagónicas en otros escenarios -los derechos de propiedad reales específicamente- no lo son tanto en la Red, donde austriacos y neo marxistas parecen coincidir.

Jorge del Prado (1910-1999), miembro del Partido Comunista Peruano, definió al socialismo como la “socialización de los medios de consumo para liberar a los hombres de la explotación” (HILDEBRANT, Cesar. Cambio de palabras. 2008). Es difícil, atendiendo a su concepto clásico, calificar a Internet como socialista. El hecho que se produzcan una serie de desarrollos colaborativos no afecta en esencia el hecho de que la web siga siendo capitalista. Lo que está en manos de los usuarios, son algunos insumos y el producto del proceso productivo, pero los medios de producción no son colectivos. Bajo este esquema no es posible definir a la web 2.0 como socialista. Punto para Lessig.

Remix

Remix: Making Art and Commerce Thrive in the Hybrid Economy (Remix: Haciendo arte y comercio próspero en una economía híbrida) es el último libro del prolífico e influyente profesor de Stanford, Lawrence Lessig. Empezaré casi con una declaración de principios. Da gusto que quien aboga por el adelgazamiento de los Derechos de Autor e incentiva la producción cultural bajo la protección del Creative Commons, tenga el tino de publicar sus trabajos bajo este formato. Accionar consecuente que es menos común de lo que debiera.

Con relación a Remix, creo que la fórmula que tanto éxito le ha dado a Lessig empieza a dar signos de agotamiento. Si “El Código y las otras leyes del ciberespacio” deslumbra, “El futuro de las ideas” apasiona, Remix apenas interesa. Es como el último rebufo amatorio luego de una larga noche de copas al borde de la playa con la mujer deseada. No está mal pero la jornada tuvo momentos mejores.

Lessig sostiene que los Derechos de Autor, tal como están diseñados hoy, parecen anticuados para una sociedad digital, dado que cada vez que se utiliza un trabajo creativo en un contexto digital la tecnología hace una copia. Por lo tanto, gracias a las tecnologías digitales, el uso y apropiación de los contenidos se encuentra bajo el control sin precedentes por parte de aficionados.

Lessig cree que los niños y jóvenes de hoy crecen en un mundo en el que estas tecnologías forman parte de la vida cotidiana y, por tanto, son incapaces de comprender por qué “remezclar” contenidos digitales es ilegal. El resultado de esta constante tensión es de lo más corrosivo, pues estas generaciones crecen haciendo cosas que saben que son “ilegales”, lo cual tendrá repercusiones sociales que se extenderá mucho más allá del tiempo de lo que llama “Las guerras de los derechos de autor“.

Lessig ve enfrentadas a dos culturas. La cultura de la sólo lectura (the read-only culture - RO) y la cultura de la lectura/escritura (the read/write culture - RW). La cultura RO es aquella que consumimos más o menos de forma pasiva. La información se nos ofrece a través de la industria de contenidos. Las tecnologías analógicas son el soporte de la cultura RO y el modelo de producción y distribución limita el papel del consumidor de forma importante.

A diferencia de la cultura RO, la cultura RW tiene una relación recíproca entre el productor y el consumidor. Para Lessig las tecnologías digitales proporcionan las herramientas para un renacer cultural y por ende una democratización de la producción cultural. Lessig utiliza el modelo de los blogs para extraer una conclusión amplia, la democratización de la cultura RW y lo que llama el ecosistema de la reputación proporcionan un espacio para que las voces de muchos talentos puedan ser oídos, lo cual no hubiera sido posible en el modelo RO.

Lessig describe el remix como fenómeno cultural y aporta una visión crítica de los medios de comunicación tradicionales. Pero, tal como están hoy diseñados, los Derechos de Autor inhiben estas formas de alfabetización digital. Sin embargo, reitera Lessig, el remix como forma de expresión no puede morir, sino sólo penalizarse.

Además de describir estas culturas, Lessig propone también dos economías: la comercial y la de distribución. La economía comercial se rige por la simple lógica del mercado, donde los productos y servicios tienen un valor económico tangible, ya sea en dinero o trabajo. Internet ha funcionado como un portal para el florecimiento de la economía comercial  que actúa como una plataforma para miles de nuevas empresas.

La economía de distribución no se rige por un indicador de precio, sino por un conjunto de relaciones sociales. Al igual que la economía comercial, la participación en la economía de distribución se extiende en el ámbito de lo digital. Las diez webs más visitadas se basan en contribuciones de los usuarios que no reciben dinero alguno por sus contribuciones.

En el medio, una serie de ejemplos híbridos como Dogster, Craigslist, Flickr, YouTubeUsenet Second Life. Lessig llega a la conclusión de que un sentimiento mixto de propiedad y la contribución altruista es vital para que las comunidades híbridas funcionen. Estas comunidades, no se sostienen en el sacrificio, sino en una mutua satisfacción en la que tanto el consumidor como el productor generan beneficios.

Lessig advierte que las economías híbridas harían bien en evitar lo que él llama la aparcería, es decir, renunciar a su creación (siempre que no posean los derechos para todos los componentes remezclados), aunque tengan previsto utilizar sus trabajos con fines comerciales.

El libro con licencia Creative Commons se puede bajar gratuitamente.

Presentación del Libro en New York University