Nubes negras sobre el Internet generativo

Cloud computing o computación en nube es el último grito de la moda y nadie debiera pasarla por alto.

Como definición, reproduzco una que leí en el blog de la CMT que me pareció buena (Subirse a la nube): «Cloud computing es un estilo de computación que proporciona recursos, dinámicamente escalables y a menudo virtualizados, como servicios”. Hablamos de la cloud como servicio, en la medida que los usuarios disponen de aplicaciones y almacenan su información en un servidor de Internet, en vez hacerlo en una PC.

Durante la era de las PC el dúo formado por Microsoft e Intel (Wintel) fue capaz de presentar un sistema indisoluble basado en una PC montada sobre un sistema operativo Windows y un microprocesador Intel. Muchos empiezan a afirmar que este paradigma tiene los días contados. Hace unos días Google anunció el lanzamiento de su Chrome OS (The Chromium Projects), que según algunos entendidos (error500: El sistemas operativo de Google y el regreso del terminal tonto) consiste en «(…) capar un sistema operativo, impedir que ejecute cualquier cosa que no sea un navegador, funcionar sobre un hardware seleccionado (nada de instalarlo en cualquier equipo que uno elija) y, eso sí, arrancar muy rápido«.

httpv://www.youtube.com/watch?v=0QRO3gKj3qw

Microsoft también mueve ficha en la misma dirección lanzando casi paralelamente dos nuevos y radicalmente diferentes productos (anunciados en la Professional Developers Conference del año pasado). El primero, la plataforma Azure, como un sistema operativo dentro de la nube. Luego, el sucesor del desafortunado Vista, Windows 7, que sirve como sistema operativo de Microsoft (OS).

The Economist (Clash of the clouds), ve al cloud computig inserto en un profundo cambio sistémico de la industria de la informática y de las comunicaciones electrónicas. No solo traslada el centro de gravedad de Microsoft. Hasta ahora, los avances tecnológicos movieron a la industria de dos ejes centrales, primero de los mainframes a los minicomputadores; y, luego a la PC. Ahora, una combinación de procesadores cada vez más potentes, baratos y rápidos y de redes más ubicuas, está impulsando el poder al centro, en algunos aspectos, y en otros alejándolo. Los centros de datos de la nube son enormes mainframes públicos. Al mismo tiempo, la PC está siendo reemplazada por una multitud de pequeños dispositivos, a menudo inalámbricos, como smartphones, netbooks y, pronto, tablets PC.

Pero no todo es luminoso en este panorama. Algunos ven con el cloud computing un regreso a los terminales tontos y a una pérdida de la generatividad de Internet.

Jonathan Zittrain (Cómo detener el futuro de Internet) en el Times (Lost in the Cloud) advierte alguno de los riesgos implícitos de este proceso. Por ejemplo, si un consumidor contrata un servicio de suscripción de música en línea en lugar de custodiarla en su propia PC, puede perderla si se atrasa en los pagos, si el proveedor quiebra o pierde interés en seguir participando en el negocio. No olvidemos que hace pocos meses Amazon decidió por su cuenta y riesgo borrar de todos los Kindles las copias electrónicas de las novelas 1984 y Rebelión en la granja de George Orwell (1984, veinticinco años después). Se pueden dar multitud de ejemplos de este tipo. Sin embargo, no son estos los peligros más importantes para Zittrain.

El mayor reto de la nube sería su efecto sobre la libertad para innovar. El legado fundamental de la PC es que permite a cualquier persona escribir código desde el extremo y utilizarlo de la forma que considere más conveniente. Los fabricantes de la PC o los creadores de su sistema operativo no tiene ninguna participación en este proceso. Sin embargo, esta libertad estaría en riesgo con la cloud, donde los proveedores de las plataformas de servicios y contenidos tienen un mayor control respecto del software escrito por terceros. Facebook, permite añadir funcionalidades al sitio, pero podría cambiar esta política en cualquier momento. Lo mismo se puede decir de Apple, que decide quién escribe código para el iPhone y qué programas se ejecutarán. Estas empresas pueden utilizar este poder de una forma nunca soñada por Bill Gates cuando era el rey de Windows.

No creo sinceramente que estos temores estén justificados. Cloud compunting es el camino natural para convertir a la nube en el servicio y es también una prueba de la generatividad de la red y no lo contrario. Apple, Microsoft, TiVo, Facebook y Google ofrecen servicios que cubren las necesidades de los consumidores. Si bien nadie puede estar de acuerdo con la patética actuación de Amazon al retirar la versión de 1984 de su Kindle, no debemos pasar por alto que a los propietarios de estas plataformas se les exige que hagan efectivo este control, recordemos el caso de «Mis observadores» de Facebook (Facebook y los observadores). Si funciona no lo arregles se suele señalar, seguiremos escribiendo sobre el tema en siguientes entradas.

[vsw id=»ae_DKNwK_ms» source=»youtube» width=»425″ height=»344″ autoplay=»no»]

[vsw id=»6PNuQHUiV3Q» source=»youtube» width=»425″ height=»344″ autoplay=»no»]

Net neutrality a consulta pública

Coincidiendo con el caso Medison River Communications en el 2005, algunos intelectuales y proveedores de contenidos en Internet lanzaron la idea de aprobar legislativamente el principio conocido como neutralidad de la red o Net neutrality. Desde aquel momento, openistas y regulacionistas han venido afilando el hacha y se han enfrentando regularmente, ya sea para negar o estimular la validez de esta pretensión.

Y así andaban, como Massé y Sifuentes en Radio Capital (Massé y Sifuentes a porrazos), hasta que el hoy presidente Barack Obama, rendido a los pies del ciberactivismo más radical, anunció durante la campaña electoral presidencial americana su firme compromiso con la Net neutrality. También prometió implementar, durante su primer año en funciones, el marco legislativo para asegurar su escrupuloso cumplimiento. De esta forma el movimiento pro neutralidad empezó a mover sus fichas.

httpv://www.youtube.com/watch?v=Vd8qY6myrrE

A finales del mes de junio Barack Obama nombró al defensor de la Net neutrality, Julius Genachowski, como presidente de la Federal Communications Commission (Comisión Federal de Comunicaciones – FCC), el regulador de las telecomunicaciones en los Estados Unidos (Cambios en la FCC). Una vez cumplido este trámite, lo único que cabía era esperar cuando se anunciarían las medidas legislativas en favor de la Net Neutrality.

Hace poco más de un mes, el pasado 21 de septiembre para ser exactos, el flamante presidente de la FCC pronunció un discurso ante The Brookings Institution, en el que desvelaba su programa para «preservar una Internet libre y abierta: una plataforma para la innovación, la oportunidad y la prosperidad». La propuesta de Genachowski significa en la práctica el incremento de la regulación y de las obligaciones que soportan los operadores de red de telecomunicaciones. Específicamente se pretende incorporar al marco regulatorio seis nuevas obligaciones para los operadores de red. Estas obligaciones parten del proceso de incorporar dos nuevas recomendaciones a las cuatro ya existentes sobre la neutralidad de red (New Principles Preserve and Promote the Open and Interconnected Nature of Public Internet), vigentes desde agosto de 2005, y de elevar todas a rango de ley. No nos olvidemos que estas recomendaciones, únicamente constituían principios informadores de las políticas de la FCC.

Las dos obligaciones adicionales serían: (5) Principio de no discriminación: Los proveedores de acceso no pueden discriminar contra contenidos o aplicaciones concretas, siempre que sean legales; y, (6) Principio de transparencia: los operadores de red deben informar de los mecanismos que utilicen para gestionar el tráfico en la red.

Siguiendo esta línea, el 22 de octubre, la FCC ha iniciado una consulta pública (Nota de prensa) sobre el proyecto de reglamento para complementar los principios de apertura existente en Internet (Propuesta de regulación). Pero como a toda acción le sigue una reacción, de acuerdo con la Tercera Ley de Newton, ya se están presentando en el congreso de los Estados Unidos diversas iniciativas para limitar el papel regulador de la FCC sobre Internet (McCain introduces bill to block Net neutrality).

En diciembre del año pasado Cord Blonquist en openmarket.org profetizaba que el 2009 vería el apaciguamiento de las posiciones de quienes defendían la Net nutrality (¿Habrá una ley pro Net Neutrality en USA?). Parece que acertó, no tendremos ley pro neutralidad de la red este año, pero es más que probable que se apruebe el año que viene. Creo que la principal virtud de quienes propusieron regular sobre la neutralidad de la red, ha sido traer al tapete aspectos tan importantes como la gestión del tráfico, el financiamiento de la red, la censura y la necesidad -o no- de mantener la arquitectura original de Internet. No mucho más.

Los regulacionistas no vociferan la necesidad de la Net neutrality para proteger a Internet de una epidemia moderna, lo hacen para evitar que determinadas organizaciones puedan imponer una serie de restricciones consideradas ilegítimas -o por lo menos cuestionables- en un futuro. Aclarando, no lo han hecho pero se presume que podrían hacerlo. Es decir, reconocen la maldad intrínseca de los operadores de red y por lo tanto es necesario reprimir su capacidad para dañar a Internet. No creo que nos encontremos ante un argumento plausible.

Todos los casos reportados como amenazas al Internet libre (Medison River Communications o Comcast), fueron solucionados por las instancias competentes sin necesidad de echar mano a ningún nuevo ordenamiento (Comcast incumplió las políticas de la FCC, pero no será multada). No parece pues necesario desplegar todo un cuerpo legislativo para componer algo que no está malogrado.

Desarrollaremos estas ideas en entradas posteriores.

[vsw id=»dF7rbOj-HPA» source=»youtube» width=»425″ height=»344″ autoplay=»no»]

Discruso de Julius Genachowski en el Brookings Institute

La regulación de medios audiovisuales en tiempos convergentes

El Senado argentino aprobó hace unas semanas (madrugada del 10 de octubre) la polémica Ley de Servicios de Comunicación Audiovisual (Ley de Medios) que reemplaza a la Ley de Radiodifusión, vigente desde la dictadura militar. La Ley de Medios, impulsada desde el kischnerismo, no es otra cosa que una muestra de intervencionismo estatal en los medios de comunicación. Bajo la excusa de desmonopolizar el sector audiovisual argentino se crean una serie de organismos administrativos encargados -más o menos- de controlar a los medios y se incorporan una serie de restricciones y obligaciones que difícilmente ayudarán a asegurar la libertad de expresión y la calidad de las emisiones.

No estoy al tanto de la política argentina y por eso carezco de la capacidad para leer entre líneas, sin embargo, estimo que la Ley de Medios parte de la premisa de que la regulación es la solución para los grandes males (supuestos o reales) del sector. En cada uno de sus artículos se adivinan viejas aspiraciones de productores locales a los que la Ley mima sin compasión.

Pareciera que los ponentes de la Ley de Medios ven en el mercado al problema para el normal desarrollo del sector, tanto que excluye a los agentes económicos tradicionales de la explotación de una parte importante de las licencias. De esta forma, corresponderán al Estado, organizaciones sin ánimo de lucro -fundamentalmente la Iglesia Católica-, sindicatos, pueblos originarios y a las universidades cerca de la tercera parte de las licencias para radio y televisión existentes.

El proyecto también prevé abrir el mercado argentino de la televisión de pago a las compañías de telecomunicaciones que deseen ofrecer el triple servicio de telefonía, Internet y televisión. Sin embargo, se impide que una empresa que ofrezca servicios de televisión abierta pueda ofertar también servicios de cable y, asimismo, impide que una empresa cope más del 35% del mercado audiovisual argentino.

Aún cuando la Ley de Medios es la última de esta naturaleza en aprobarse existen iniciativas similares en otras latitudes. Por ejemplo, la Directiva 2007/65/CE del Parlamento Europeo y del Consejo de Europa de diciembre de 2007 (Directiva «Servicios de medios audiovisuales sin fronteras») regula el ejercicio de actividades de radiodifusión televisiva. Esta última se encuentra todavía en etapa de transposición a las legislaciones locales por parte de los estos miembros de la Unión Europea.

Casi desde su nacimiento las industrias de radiodifusión han sido objeto de intensa regulación. Cuando el Estado no se reservaba la explotación de las frecuencias establecía una serie de límites para el uso de licencias otorgadas o la cantidad de contenidos nacionales que se debían transmitir por las mismas. La premisa principal que soportaba todas estas medidas regulatorias era sencilla y casi un dogma de fe: el espectro radioeléctrico es un recurso natural, es escaso y por lo tanto el Estado está obligado a asegurar su uso eficiente.

Sin embargo, el actual desarrollo de la tecnología hace que gran parte de las justificaciones que inspiraron estas regulaciones se encuentre en entredicho. Casi al mismo tiempo que se discutía la Ley de Medios en Argentina, el blog de YouTube anunciaba (Y,000,000,000uTube) que la popular web servía a más de mil millones de visitantes al día. Por la misma fecha, la selección nacional de Inglaterra disputó un partido clasificatorio para el mundial de Sudáfrica 2010 en Ucrania, lo más destacado del encuentro no fue que el equipo ingles, dirigido por el italiano Fabio Capello, perdiera el invicto, sino que éste fue transmitido exclusivamente por Internet (BBC: England web tie appears a success). Finalmente, para poder hacer esta entrada, he tenido que luchar a brazo partido con mis dos hijas que veían «Clave Uno, médicos en alerta«, una serie de la televisión local cuyos capítulos se pueden ver íntegramente en Youtube; pues precisamente para eso, ver series de televisión a través de Internet, está Hulu (Hulu y el futuro de Youtube).

En un contexto de creciente convergencia no tiene mucho sentido seguir regulando intensamente algunos servicios de las industrias audiovisuales, mientras que el resto permanece sin regular. Si durante décadas la industria del entretenimiento estuvo dominada por la radio y la televisión, hoy ese control ha sido erosionado por una enorme cantidad de actores y tecnologías, entre las que podemos incluir: televisión por cable y televisión satelital, radio por satélite, VCR y DVD, Internet, blogging, redes sociales, podcasts, equipos de música y vídeo digitales portátiles, videoconsolas, etc.

No es factible en este mundo convergente y cambiante, imponer regulaciones a los servicios audiovisuales como si nos encontráramos en la década de los cincuenta. Es indispensable antes, hacer un análisis del mercado relevante. Si lo hiciéramos veríamos que en un mismo mercado convergen además de los medios de comunicación tradicionales -radio y televisión-, diversas tecnologías que difícilmente serán alcanzados por la regulación gubernamental tradicional y su largo brazo de corruptelas y sobrecostos.

Elinor Ostrom, premio inesperado a los comunes

Garret Hardin fue un biólogo graduado en las universidades de Chicago y Stanford y su nombre habría pasado casi desapercibido si en 1968 no hubiera publicado el conocido e influyente estudio The tragedy of the commons (La tragedia de los comunes). Hardin explica la tragedia de los bienes comunales a partir del ejemplo de un pastizal en una situación de estabilidad social. Un pastor racional añadirá tantos animales a su rebaño como le sea posible, de tal forma que la libertad de explotar los recursos comunes resultará en la ruina para todos, pues el pastizal no es un recurso ilimitado.

El trabajo de Hardin se hizo muy popular entre los economistas para desacreditar la viabilidad de los bienes comunes. Sin embargo, matizando las cosas, el ejemplo citado por Hardin no es en estricto sentido un bien común, es un páramo, un espacio de frontera, una tierra del lejano oeste. Como señala con acierto David Bollier (Los bienes comunes: un sector soslayado de la creación de riqueza) «Hardin describe un régimen de acceso abierto no regulado, la tierra de la que habla no tiene límites, ni existen reglas para gestionar el acceso a ella y su uso. Cualquiera se puede apropiar de lo que desee. Nadie está gestionando las tierras comunes. Dicho de otra forma, de lo que habla Hardin es de una tierra de nadie.«

Hace unos días la Real Academia Sueca de Ciencias decidió otorgar el Premio Nobel de Economía a los estadounidenses (curiosamente también californianos) Elinor Ostrom (primera mujer en conseguirlo) y Oliver E. Williamson. Confieso, en lo que debe ser una evidencia de mi pereza, que es la primera vez que los suecos entregan el Nobel a alguien que ya había leído y en este caso lo he hecho con los dos.

En lo que nos ocupa. Es quizá el premio de Ostrom el que tendrá mayor repercusión para analizar algunos aspectos relacionados con la gestión de Internet y es, sobretodo, una puesta en valor de las posiciones de quienes venían cuestionando los postulados de Hardin.

La mayor parte de los trabajos de Ostrom se han dedicado al estudio de cómo se gestionan los recursos comunes, como bosques, ríos o pastizales. De esta forma, intenta echar por tierra la tesis de que los individuos racionales utilizan generalmente de forma excesiva estos recursos comunales y que la asignación de derechos de propiedad es el mejor camino para evitar su depredación.

Ostrom encontró que diversas sociedades tienden a crear y mantener a lo largo del tiempo complejas reglas, normas y sanciones para garantizar que estos recursos comunales se utilicen de forma sostenible y llega a la conclusión que este mecanismo de gobierno a menudo funciona bien, pudiendo rivalizar en eficiencia con formas tradicionales de propiedad.

Aunque Ostrom no ha estudiado el fenómeno de Internet como un bien común, distintos autores como Lessig, Boyle o Benkler parecen haber hecho correctamente esta tarea. En principio Internet puede entenderse como una sucesión de niveles o capas. En la capa de red, se afirma, que Internet es viable gracias a la creación de un conjunto de protocolos no propietarios que permiten la interconexión de las diferentes computadoras. De esta forma Internet se habría convertido en el mayor y más robusto bien comunal de la historia.

Existen innumerables ejemplos de bienes comunes digitales como Linux y demás software de código abierto. Wikipedia, Craigslist (anuncios clasificados), Flickr (compartir fotos), Internet Archive (webs históricas), SourceForge (Aguantan los comunes) y Public.Resource.org (información gubernanmetal). Cada web comunal actúa como un administrador eficiente de su riqueza colectiva.

David Bollier (Elinor Ostrom And The Digital Commons) sostiene que una de las razones fundamentales para la creación y proliferación de que todos estos bienes comunales digitales, es que los comuneros no tienen que obtener el permiso de nadie o efectuar pagos a un intermediario empresarial. Pueden construir lo que quieren directamente, y gestionar su trabajo de la forma que deseen.

Creo que tanto como las tesis de Ostrom resultan aplicables a bosques y pastizales, lo contrario se podría afirmar de los postulados de Hardin para bienes informacionales. Cabe recordar que hace algún tiempo (La virtud de no dar, a prósito del último libro de Michael Heller) señalamos que cuanto más propiedad se entregue sobre un recurso cultural, más difícil será que se construya a partir de ellos. En este contexto la administración comunal de bienes digitales no parece descabellada. Aunque no debemos olvidar que Internet es un ecosistema complejo y hay espacio para todos y para todas las formas de gestión en él.

En el site de la Asociación Internacional para el Estudio de los Bienes Comunes (The International Association for the Study of the Commons – IASC) se pueden revisar más de cien documentos de Ostrom (aquí) además de una selección de textos (aquí). El Fondo de Cultura Económica (2000) tradujo al español el que tal vez sea su trabajo más representativo (El gobierno de los bienes comunes. La evolución de las instituciones de accion colectiva).

Algunos comentarios de la entrega del Nobel a Ostrom:

Quemar las naves (El premio nobel del bien)

Soitu.es (Sobre el gobierno de los ‘ecosistemas digitales’: en honor de Elinor Ostrom)

The Economist (The Nobel prize for economics, The bigger picture)

Pagar por «linkear»

Ilustración: David Horsey

Ira Shapira, es un periodista del Washington Post que escribió una nota (Speaking to Generation Nexus, Guru Explains Gens X, Y, Boomer To One Another) sobre Anne Loehr una “consultora generacional”. El artículo detallaba los problemas entre la generación X (nacidos en la década de 1970) y los Baby boomers (nacidos entre los años 1946 y principios de la década de 1960) para relacionarse con la generación Y (nacidos a finales de 1970 y principios de 1980). Hamilton Nolan recogió la historia del Post e hizo una breve entrada (‘Generational Consultant’ Holds America’s Fakest Job) en Gawker -una sarcástica web sobre la vida cultural de Nueva York- copiando algunos párrafos del artículo original y cuidándose de enlazar su artículo con la versión del Post.

Inicialmente, Shapira se mostró entusiasmado con el rebote de su artículo; pero, posteriormente montó en cólera, tanto que publicó otro artículo denunciando el hecho (The Death of Journalism (Gawker Edition)). En esta segunda entrega, Shapira describe el arduo trabajo que le costó hacer la nota de 1,500 palabras: participar en un seminario generacional, notas preparatorias, cita con Anne Loher y todo un día para redactarlo. Para Hamilton Nolan de Gawker el trabajo no fue tan arduo, entre media y una hora.

Como la ley de derechos de autor americana permite reutilizar el trabajo de los diarios y vender anuncios sin pago alguno, Shapira propone revivir algunas regulaciones que se dejaron de lado desde fines de la década de 1970. Recuerda que en 1918 la Corte Suprema de los Estados Unidos falló a favor de Associated Press en un caso contra una agencia de noticias que había copiado sus noticias. Cuando el Congreso revisó las leyes del copyright en 1976, el Department of Justice (DoJ) se opuso a la decisión de la Corte Suprema, argumentando que otorgaba a los medios de comunicación un «monopolio sin límites» sobre las noticias.

Resumiendo, Shapira pretende que los bloggers citen la fuente original de inmediato; y, si se quiere una cita textual importante, se tendría que pagar una tasa.

Richard Posner en el blog que mantiene con Gary Becker (The Future of Newspapers) también piensa que para salvar a la prensa es necesario expandir las protecciones legales a los autores. Posner considera que si los periódicos tradicionales desaparecen y pasan a publicarse íntegramente en línea, sería muy difícil que sigan realizando su labor como lo hacen hoy, pues es más fácil aprovecharse gratuitamente de las distintas fuentes en línea y apropiarse de la información de los medios impresos. Para solucionar el problema, Posner propone ampliar los derechos de autor limitando los links hacia contenidos protegidos sin el consentimiento del titular e impedir el refraseo de los artículos sin contar con autorización expresa.

De la crisis de la prensa se viene hablando incluso desde antes que la crisis financiera mundial la exacerbara (The Economist: Who killed the newspaper?). Blawyer ha dedicado algunas entradas al tema (Y el culpable es… !Google¡, Un zoco o un gran almacénMuere la prensa). Creemos que es posible abordar esta crisis desde un doble análisis. Primero determinar si es acertada la posición de quienes creen que el único modelo de prensa posible es el tradicional y por lo tanto son necesarias protecciones especiales para evitar su desaparición. Ya habrá tiempo para discutir sobre este tópico. El otro es verificar si las propuestas de protección son plausibles. Creo sinceramente que no.

Como es conocido los derechos de autor otorgan una protección especial a los creadores para incentivarlos a seguir creando. Sin embargo, este derecho no es absoluto. Para limitarlo están aquellas disposiciones que reducen esta exclusividad sólo por un período de tiempo, también lo que los americanos llaman fair use o uso justo, que en nuestra jurisdicción se conoce como limitaciones al derecho de explotación; como el derecho de cita, derecho a hacer críticas o realizar copias con fines académicos.

Estas limitaciones pretenden, no sólo paliar los efectos negativos del monopolio otorgado a los autores, sino también racionalizar los efectos que supondrían otorgar unos derechos absolutos. De esta forma el derecho de cita al tiempo que permite la difusión del trabajo referido, reduce los costos que implicaría exigir la autorización del titular cada vez que se hace una referencia.

Las posiciones de Shapira y Posner parecieran no ser recomendables, en la medida que las citas y los links de artículos y noticias benefician a los diarios al aumentar, gracias a ellos, las audiencias de sus ediciones en línea. Por otro lado, expandir los derechos de autor de la forma aconsejada generaría un aumento de los costos de transacción. Finalmente, un aspecto que no debe olvidarse, las normas están hechas para cumplirse y no veo la forma, dado el desarrollo actual de la Red y sus patrones de consumo, cómo una medida como la propuesta podría cumplirse.

Borges 2.0

«Nadie rebaje a lágrima o reproche esta declaración de la maestría de Dios, que con magnífica ironía me dio a la vez los libros y la noche«.

Mi contacto con Borges (1899 – 1986) fue más bien tardío, creo que andaba por el ecuador de la carrera de Derecho en la Universidad de Lima. Ficciones fue el libro que escogí -o me eligió- para adentrarme en la obra del genio porteño, confieso que su prosa me sedujo para siempre inmisericordemente. Curiosamente también por aquella época empecé a leer novelas de ciencia ficción, nombres como Isaac Asimov, Arthur C. Clarke, Alfred Bester o Roger Zelazny se convirtieron en habituales sobre mi mesa de noche. Como veremos el enroque entre Borges y la novela de ciencia ficción, casual en mi experiencia, no es forzado.

Ficciones es tal vez el título más conocido de Borges. Siempre encontré misteriosa la forma en la que estaba dividido (El jardín de senderos que se bifurcan y Artificios), sin embargo, hace poco descubrí que el motivo de su seccionamiento se debía a que la primera parte fue publicada tres años antes, en 1941. La edición de 1944, tiene un prólogo adicional y seis cuentos más, completada en 1956 con tres nuevos relatos.

Miguel Morachimo ya se refirió a alguno de estos cuentos en una de sus primeras entradas (La biblioteca de Babel y la paternidad responsable de los derechos de autor). Borges está de moda, por tanto no es casualidad que una antología de sus trabajos (Labyrinths) se haya reeditado el año pasado en los Estados Unidos luego de casi cincuenta años por New Directions. Tampoco es accidental que esta edición esté prologada por William Gibson, el famoso novelista padre del ciberpunk que acuñara el término ciberespacio.

Una de las razones que parece impulsar este renovado acercamiento con la prosa de Borges, es que algunos (Umberto Ecco entre ellos) creen ver en sus relatos referencias a Internet y al fenómeno blogger, supongo que otra razón será su calidad narrativa, aunque nunca se sabe.

Perla Sassón-Henry, profesora asociada del departamento de estudios lingüísticos de la Academia Naval de los Estados Unidos, publicó el año pasado Borges 2.0: From text to virtual worlds (Borges 2.0: Del texto a las palabras virtuales), donde explora las conexiones entre la Internet descentralizada YouTube, los blogs y la Wikipedia -la web 2.0- y algunas de las historias de Borges.

Noam Cohen, en una reseña del libro publicada originalmente en The New York Times (Borges and the Foreseeable Future), nos advierte que un grupo central de las historias de Borges -Funes el memorioso, La biblioteca de Babel y Tlön, Uqbar, Orbis Tertius-, con sus bibliotecas y hombres que no olvidan (Si Internet no olvida, Google tampoco), enciclopedias de colaboradores (Un nuevo paradigma: ¿todos pueden usar mi contenido?), mundos virtuales evocados desde la página impresa (La muerte y los impuestos) y portales que vigilan  todo el planeta (Viacom y la privacidad de los usuarios de YouTube), se han convertido en canon para los que encuentran una intersección entre las nuevas tecnologías y la literatura.

Cy-Borges: Memories of the Posthumous in the Work of Jorge Luis Borges (Cy-Borges: Recuerdo de lo póstumo en la obra de Jorge Luis Borges) de Stefan Herbrechter (Trinity and All Saints College, Universidad de Leeds) e Ivan Callus (Universidad de Malta) iría en la misma línea, lamentablemente, más allá de la escueta reseña en Amazon no he podido encontrar más sobre este libro.

Algunos párrafos de Ficciones, como verán si hasta parece ciberpunk:

De «La Biblioteca de Babel«

«Cuando se proclamó que la Biblioteca abarcaba todos los libros, la primera impresión fue de extravagante felicidad. Todos los hombres se sintieron señores de un tesoro intacto y secreto. No había problema personal o mundial cuya elocuente solución no existiera: en algún hexágono. El universo estaba justificado, el universo bruscamente usurpó las dimensiones ilimitadas de la esperanza. En aquel tiempo se habló mucho de las Vindicaciones: libros de apología y de profecía, que para siempre vindicaban los actos de cada hombre del universo y guardaban arcanos prodigiosos para su porvenir. Miles de codiciosos abandonaron el dulce hexágono natal y se lanzaron escaleras arriba, urgidos por el vano propósito de encontrar su Vindicación. Esos peregrinos disputaban en los corredores estrechos, proferían oscuras maldiciones, se estrangulaban en las escaleras divinas, arrojaban los libros engañosos al fondo de los túneles, morían despeñados por los hombres de regiones remotas. Otros se enloquecieron… »

De «Tlön, Uqbar, Orbis Tertius«:

«Ese arriesgado cómputo nos retrae al problema fundamental: ¿Quiénes inventaron a Tlön? El plural es inevitable, porque la hipótesis de un solo inventor –de un infinito Leibniz obrando en la tiniebla y en la modestia– ha sido descartada unánimemente. Se conjetura que este brave new world es obra de una sociedad secreta de astrónomos, de biólogos, de ingenieros, de metafísicos, de poetas, de químicos, de algebristas, de moralistas, de pintores, de geómetras… dirigidos por un oscuro hombre de genio. Abundan individuos que dominan esas disciplinas diversas, pero no los capaces de invención y menos los capaces de subordinar la invención a un riguroso plan sistemático. Ese plan es tan vasto que la contribución de cada escritor es infinitesimal. Al principio se creyó que Tlön era un mero caos, una irresponsable licencia de la imaginación; ahora se sabe que es un cosmos y las íntimas leves que lo rigen han sido formuladas, siquiera en modo provisional

Memorias de un pueblo fantasma, cerveza gratis y socialismo 2.0

Es difícil emplear conceptos acuñados en el pasado para describir los actuales procesos sociales. Creo que es precisamente lo que ocurre con el término socialismo para aplicarlo a algunos fenómenos de Internet. Hace unos días realizamos una breve crónica (¿Es la web 2.0 socialista?) de la discusión que mantenían Lawrence Lessig y Kevin Kelly respecto de si Internet es socialista. Coincido con Kelly cuando señala que muchos de los esfuerzos de lo que hoy en día llamamos web 2.0 son colectivos y por tanto podrían presentar algunas similitudes con un modelo de organización colectivista o cooperativo. Sin embargo, considero que Lessig tiene razón, aunque discrepe con su análisis político, respecto que Internet no es socialista. Sobre el particular el comentario que hace Miguel Morachimo a la entrada me parece de lo más acertado.

En la misma línea, destaco otro comentario al post. Lupi nos dice que «…llame como se le llame, socialismo o etc. Si no altera en nada las bases materiales, pues, no altera nada radicalmente (más sí, obviamente, en el campo cultural, lo cual podría cambiar todo luego). Mas no nada radicalmente. Los ricos siguen siendo menos. Los pobres siguen siendo más. Cuando cambie algo en eso, podría recién hablarse de palabras mayores.«

Ignoro cuál es la carga de profundidad que tiene el comentario de Lupi, pero en esencia vale para entender que la posición de Kelly es una versión descafeinada de socialismo, pues la existencia de estructuras comunitarias organizadas no es suficiente para calificar a la web 2.0 como socialista. Me valdré para ello de algunos ejemplos.

En el artículo de Kelly en Wired (The New Socialism: Global Collectivist Society Is Coming Online) que utilicé para contraponer su tesis a la de Lessig, se hace una cronología moderna del socialismo, en ella aparecen diversos hitos del socialismo 2.0 como Blogger, Wikipedia, Facebbok y Twiter junto con la Revolución de Octubre o la Revolución cubana. ¿Son en realidad socialistas modelos como Wikiedia o Facebook?

Wikipedia es una de esas raras historias en las que el postre termina siendo más importante que el plato de fondo. En el 2000, Jimmy Wales lanzó Nupedia, una enciclopedia en línea alimentada por artículos de especialistas no remunerados y un proceso de revisión entre pares. Como el proyecto avanzaba lentamente se creó un wiki para agilizar la creación de artículos. La historia siguientes es conocida Wikipedia se tragó a Nupedia que dejó de funcionar en el 2003.

Sin embargo, lo importante en este extremo no es determinar quien tiene la capacidad de colaborar en el desarrollo del sitio, sino cuál es el modelo de gestión. Veremos otro ejemplo.

¿Quién no se acuerda de GeoCities? GeoCities (antecedente de redes como Facebook, MySpace y de plataformas de blogs como Blogger y WordPress) era un servicio gratuito de webhosting fundado en 1994 como Beverly Hills Internet (BHI). Originalmente, los usuarios seleccionaban un «barrio» en el cual alojaban su página web de acuerdo con su contenido. En enero de 2000 Yahoo! compró GeoCities por 4 millones de dólares, lo gestionó fatal y sus ciudadanos migraron masivamente a plataformas más amigables. Nueve años después de su compra Yahoo anunció el cierre definitivo de GeoCities (So Long, GeoCities: We Forgot You Still Existed) y que sus archivos serán eliminados de los servidores. Se veía venir, hacía tiempo que GeoCities era un pueblo fantasma.

¿En qué se parecen Wikipedia y GeoCities? En que ambos son -eran- gratuitos. ¿Qué los diferencia? Que en Wikipedia los niveles de participación escalan hasta la cabeza y en Geocities como hoy en Facebook, MySpace o Blogger el sitio era -es- administrado por una empresa bajo patrones de dirección capitalistas. No es lo mismo hablar de un bien común que tener cerveza gratis.

David Bollier en onthecommons.org (When Web Communities Become Ghost Towns) señala algunas cosas interesantes sobre cuándo nos encontramos ante un bien común o ante una iniciativa empresarial. Muchas empresas desarrollan sitios de acceso libre, porque esa es la dinámica del mercado, es la forma para atraer una mayor audiencia y la forma obtener mayores ingresos por publicidad.

No olvidemos que en muchos de estos esquemas la razón de ser del site es hacer dinero y las condiciones del servicio se diseñan para alcanzar este objetivo. Aquellas comunidades alojadas en un sitio de esta naturaleza están subordinadas a un agente empresarial y éste impone una serie de condiciones sobre los contenidos generados por los usuarios como apropiarse de este material.

Resumiendo, creo que la economía de Internet ha logrado moldear gran parte de su dinámica social. Muchos sitios son gratuitos porque los modelos de pago fracasaron estrepitósamente y porque hay alguien dispuesto a pagar vía la publicidad por esta gratuidad. El hecho que en estos sitios se pueda compartir material no los aparta de la dinámica del mercado y por supuesto no los convierte en espacios libres de la lógica capitalista. Cerveza gratis no es socialismo.

¿Es la web 2.0 socialista?

Si algo ha desaparecido en los últimos tiempos del mundo real  es la discusión dogmática. La otrora confrontación de ideas políticas, con su propuesta de mundos ideales según se viera desde la derecha o izquierda, ha sido dejada de lado por una retórica más o menos insulsa sobre la mejor forma de administrar la cosa pública. Salvo algunos alucinantes proyectos, encabezados por el Chavismo venezolano y sus satélites latinoamericanos, la nueva arena política es tan entretenida como bailar con la hermana. Mejor.

Pero el ciberespacio es otra cosa. Aquí se discuten con profundidad algunos tópicos que hace unos lustros estaban reservados para otras realidades. Mientras que en el mundo real tenemos practicidad aquí encontramos dogmática, si allí desinterés aquí participación y frente a la apatía en el metaverso se actúa con pasión.

Prueba de ello son dos de los últimos posts del blog de Lessig (Et tu, KK? (aka, No, Kevin, this is not «socialism»On «socialism»: round II), que nos dejan una interesante polémica con Kevin Kelly, de la cual participaré humildemente desde este pequeño rincón. El tema es sugerente, aunque ignoro cuál sea su utilidad: ¿Es la web 2.0 socialista?

Kelly sostiene en un artículo publicado en Wired (The New Socialism: Global Collectivist Society Is Coming Online), que la fiebre mundial para conectar a todos con todos es una versión revisada del socialismo. Para Kelly los aspectos comunitarios de la cultura digital son profundos y amplios. Wikipedia es un ejemplo notable de un colectivismo emergente. Proliferan los sitios de colaboración como Digg, StumbleUpon, The Hype Machine y Twine, los cuales sugieren un movimiento constante hacia una especie de socialismo sintonizado con un mundo en red.

En este socialismo en lugar de granjas colectivas, nos reunimos en mundos colectivos. En lugar de fábricas estatales, tenemos fábricas de escritorio conectados a cooperativas virtuales. En lugar de compartir brocas, picos y palas, se comparten aplicaciones, scripts y APIs. En lugar de politburós sin rostro, tenemos una meritocracia sin rostro, donde lo único que importa es hacer las cosas. Si las masas poseen los medios de producción, contribuyen hacia una meta común sin salario y sin gozar de los frutos de su esfuerzo ¿No es razonable decir que es socialismo?

Lessig discrepa y cree que por el contrario web 2.0 no es socialista (Et tu, KK? (aka, No, Kevin, this is not «socialism») y On «socialism»: round II). Considera que El núcleo del socialismo es la coacción (justificada o no). El núcleo de las conductas que Kelly celebra es la libertad.

Lessig mete mano a un clásico -nada menos que a Adam Shmith-. Señala, el objetivo de Smith era tanto entender el papel del mercado como explicar la provisión de los bienes públicos. Sólo se puede comprender el papel del mercado en un contexto de bienes públicos y un asunto de vital importancia es cómo una sociedad los produce.

Smith estuvo fascinado por los bienes públicos (no rivales y no excluyentes, como los economistas conceptuaron más tarde), pero que no fueron creados por cualquier actor central como el Estado, sino por las acciones voluntarias de los individuos. Lo que Smith estaba señalando no es razonable llamarlo socialismo, debido a que el socialismo utiliza el poder del Estado para obtener un resultado que de otro modo no habría sido sostenido voluntariamente por las personas.

Lessig cree que no es momento de hacer una redefinición lúdica de un término que tiene un sentido claro y particular. Lo que quiera que el «socialismo» pudo haber sido si no hubiera sido secuestrado por las revoluciones en el Este es intrascendente, pues el significado del término no es lo que es hoy Wikipedia.

Ignoro si nos encontramos ante una discusión trascendente, en realidad muy pocas lo son, pero no cabe duda que es interesante. Hace unos días conversaba con Enrique Pasquel con ocasión de la presentación del  libro «El impacto de las innovaciones tecnológicas en el Derecho Privado«, precisamente sobre este tópico. Anotábamos, como algunas posiciones antagónicas en otros escenarios -los derechos de propiedad reales específicamente- no lo son tanto en la Red, donde austriacos y neo marxistas parecen coincidir.

Jorge del Prado (1910-1999), miembro del Partido Comunista Peruano, definió al socialismo como la «socialización de los medios de consumo para liberar a los hombres de la explotación» (HILDEBRANT, Cesar. Cambio de palabras. 2008). Es difícil, atendiendo a su concepto clásico, calificar a Internet como socialista. El hecho que se produzcan una serie de desarrollos colaborativos no afecta en esencia el hecho de que la web siga siendo capitalista. Lo que está en manos de los usuarios, son algunos insumos y el producto del proceso productivo, pero los medios de producción no son colectivos. Bajo este esquema no es posible definir a la web 2.0 como socialista. Punto para Lessig.

El último egregor

Interbrain

Nota preliminar:¿Qué es un egregor? Para hacerlo simple, es un término esotérico que describe a una “entidad” autónoma formada y alimentada por la energía de un grupo de pensamientos alineados alrededor de un concepto o concentrados en un objetivo.

Desde que el hombre es hombre, o mejor dicho, desde que las almas hicieron su descenso a este mundo material y quedaron atrapadas en los vehículos físicos que nosotros llamamos cuerpo; hemos sido testigos de la incesante búsqueda de estas almas por lograr que sus pensamientos y emociones puedan ser captadas o recibidas por otras almas (y mientras mas de ellas mejor).

El primer salto evolutivo, y que algunos dirían que es justo aquello que define a la humanidad y la diferencia de los animales, fue la creación del lenguaje. Con este desarrollo biológico, estas pobres almas prisioneras lograron finalmente transmitir sus pensamientos y emociones a otras almas cercanas a ellas. Así fue durante siglos. Los humanos se comunicaban con otros humanos primero dentro de sus núcleos familiares o tribales logrando formar los primeros egrégores que, aunque pequeños, permitieron el flujo de experiencias y la acumulación de conocimiento dentro de ese grupo de almas. Este conocimiento acumulado permitió diversos desarrollos tecnológicos que dieron su nombre a posteriores épocas del desarrollo pre-histórico de la humanidad, i.e. la edad de piedra, la edad de bronce, etc.

El segundo salto evolutivo en importancia, desde nuestro punto de vista, fue la creación de la escritura. Es tan importante que, a partir de este momento, la historia recién comienza a llamarse historia y empieza a guardarse registro de los pensamientos, experiencias y conocimientos de la humanidad. A diferencia de la anterior etapa; en ésta, las pobres almas a que hacíamos referencia lograron llevar sus pensamientos y emociones más allá del círculo de seres cercanos a ellos, más allá de la fogata o reunión tribal logrando la creación de egrégores de mayor tamaño. Con la escritura, las emociones y experiencias de un hombre podían quedar guardadas para la posteridad y compartidas con seres humanos con los que nunca pudiera haber tenido contacto. Así, las pobres almas del futuro podrían acceder a los pensamientos del pasado y revivirlos o a los pensamientos de personas alejadas y sentirlos cercanos (¿el correo?).

Aunque la escritura permitió el crecimiento de los egrégores, el acceso a los textos escritos estaba limitado por dos razones: (i) los textos eran generalmente realizados en pequeñas cantidades –de modo que solo eran conocidas por un pequeño número de personas allegadas al dueño de la copia—y (ii) la mayoría de personas no sabían leer –por lo que el número de privilegiados se reducía mientras el resto seguía viviendo en egrégores de menor tamaño (y por ende de menor “potencia”?). En efecto, imaginemos la época en que los textos eran colocados en tablillas de barro o en papiro, en donde casi en la generalidad de los casos había un original el cual solo podía ser leído por aquellos que tenían acceso físico al documento y que, además, pertenecían a las clases sociales privilegiadas (generalmente iniciados de alguna escuela mística o miembros de una casta política). Algo distinto ocurrió posteriormente en la época de los copistas en la que tanto el número de copias como el número de letrados se había incrementado aunque, sin embargo, surgieron mecanismos para impedir el flujo de información como la inquisición y la censura (ver Index Librorum Prohibitorum) que impedían inclusive a los letrados tener acceso a los conocimientos, experiencias o emociones de almas anteriores o lejanas a ellos.

Un poco más adelante en este rápido escarceo (ver la quinta definición) histórico, surge un nuevo invento –como es la imprenta— la  cual permitió incrementar el número de copias de cada documento y brindar acceso a mayor cantidad de personas. Como es obvio a estas alturas de la exposición, el egregor que se formó en este caso alrededor de cada escrito fue gigantesco y poderoso, permitiendo revoluciones científicas, sociales y religiosas como nunca antes se había visto.

Posteriormente, se produjo la creación de las telecomunicaciones. Estas permitieron que las personas pudieran romper las barreras de espacio para transmitir sus pensamientos casi instantáneamente alrededor del mundo. Aunque si hablamos de los egrégores formados alrededor del teléfono, fax, telex y otros medios similares pareciera que son menores en tamaño que aquél formado por la televisión o la radio que, sin duda, formaron los egrégores mas grandes que conoció la humanidad hasta hace 40 años.

Efectivamente, el día de ayer se han celebrado los 40 años de la creación de Internet (…y finalmente se aprecia la razón de este post en un blog de derecho y tecnología) cuya potencia ha permitido que las personas no solo rompamos las barreras del espacio sino también la del tiempo. Ahora, las pobres almas apresadas en este mundo pueden conectarse con miles de almas al mismo tiempo (blogs), mantenerse cercano a aquellos seres queridos alejados geográficamente (facebook), tener acceso instantáneo a los sentimientos de otras personas (twitter), crear la compilación de conocimiento mas grande de la historia (wikipedia), compartir mis intereses con millones de personas (social bookmarking) o lograr una agrupación de sentimientos o pensamientos alrededor de un objetivo –un egregor??—en un tamaño infinitamente superior a lo que puede haber ocurrido en cualquier otra época (Activismo 2.0). Es decir, nos encontramos frente a la revolución mas grande de la historia de la humanidad y no debemos mantenernos alejados pues perderemos la oportunidad de alimentarnos de esta conjunción de energías.

¿Qué nos deparará el futuro? ¿Será posible crear un egregor más poderoso? Les dejo un video que encontré al respecto y que les permitirá dar una mirada a lo que se viene…

[vsw id=»VFf2eDWHLh0″ source=»youtube» width=»425″ height=»344″ autoplay=»no»]

El último egregor

Interbrain

Nota preliminar:¿Qué es un egregor? Para hacerlo simple, es un término esotérico que describe a una “entidad” autónoma formada y alimentada por la energía de un grupo de pensamientos alineados alrededor de un concepto o concentrados en un objetivo.

Desde que el hombre es hombre, o mejor dicho, desde que las almas hicieron su descenso a este mundo material y quedaron atrapadas en los vehículos físicos que nosotros llamamos cuerpo; hemos sido testigos de la incesante búsqueda de estas almas por lograr que sus pensamientos y emociones puedan ser captadas o recibidas por otras almas (y mientras mas de ellas mejor).

El primer salto evolutivo, y que algunos dirían que es justo aquello que define a la humanidad y la diferencia de los animales, fue la creación del lenguaje. Con este desarrollo biológico, estas pobres almas prisioneras lograron finalmente transmitir sus pensamientos y emociones a otras almas cercanas a ellas. Así fue durante siglos. Los humanos se comunicaban con otros humanos primero dentro de sus núcleos familiares o tribales logrando formar los primeros egrégores que, aunque pequeños, permitieron el flujo de experiencias y la acumulación de conocimiento dentro de ese grupo de almas. Este conocimiento acumulado permitió diversos desarrollos tecnológicos que dieron su nombre a posteriores épocas del desarrollo pre-histórico de la humanidad, i.e. la edad de piedra, la edad de bronce, etc.

El segundo salto evolutivo en importancia, desde nuestro punto de vista, fue la creación de la escritura. Es tan importante que, a partir de este momento, la historia recién comienza a llamarse historia y empieza a guardarse registro de los pensamientos, experiencias y conocimientos de la humanidad. A diferencia de la anterior etapa; en ésta, las pobres almas a que hacíamos referencia lograron llevar sus pensamientos y emociones más allá del círculo de seres cercanos a ellos, más allá de la fogata o reunión tribal logrando la creación de egrégores de mayor tamaño. Con la escritura, las emociones y experiencias de un hombre podían quedar guardadas para la posteridad y compartidas con seres humanos con los que nunca pudiera haber tenido contacto. Así, las pobres almas del futuro podrían acceder a los pensamientos del pasado y revivirlos o a los pensamientos de personas alejadas y sentirlos cercanos (¿el correo?).

Aunque la escritura permitió el crecimiento de los egrégores, el acceso a los textos escritos estaba limitado por dos razones: (i) los textos eran generalmente realizados en pequeñas cantidades –de modo que solo eran conocidas por un pequeño número de personas allegadas al dueño de la copia—y (ii) la mayoría de personas no sabían leer –por lo que el número de privilegiados se reducía mientras el resto seguía viviendo en egrégores de menor tamaño (y por ende de menor “potencia”?). En efecto, imaginemos la época en que los textos eran colocados en tablillas de barro o en papiro, en donde casi en la generalidad de los casos había un original el cual solo podía ser leído por aquellos que tenían acceso físico al documento y que, además, pertenecían a las clases sociales privilegiadas (generalmente iniciados de alguna escuela mística o miembros de una casta política). Algo distinto ocurrió posteriormente en la época de los copistas en la que tanto el número de copias como el número de letrados se había incrementado aunque, sin embargo, surgieron mecanismos para impedir el flujo de información como la inquisición y la censura (ver Index Librorum Prohibitorum) que impedían inclusive a los letrados tener acceso a los conocimientos, experiencias o emociones de almas anteriores o lejanas a ellos.

Un poco más adelante en este rápido escarceo (ver la quinta definición) histórico, surge un nuevo invento –como es la imprenta— la  cual permitió incrementar el número de copias de cada documento y brindar acceso a mayor cantidad de personas. Como es obvio a estas alturas de la exposición, el egregor que se formó en este caso alrededor de cada escrito fue gigantesco y poderoso, permitiendo revoluciones científicas, sociales y religiosas como nunca antes se había visto.

Posteriormente, se produjo la creación de las telecomunicaciones. Estas permitieron que las personas pudieran romper las barreras de espacio para transmitir sus pensamientos casi instantáneamente alrededor del mundo. Aunque si hablamos de los egrégores formados alrededor del teléfono, fax, telex y otros medios similares pareciera que son menores en tamaño que aquél formado por la televisión o la radio que, sin duda, formaron los egrégores mas grandes que conoció la humanidad hasta hace 40 años.

Efectivamente, el día de ayer se han celebrado los 40 años de la creación de Internet (…y finalmente se aprecia la razón de este post en un blog de derecho y tecnología) cuya potencia ha permitido que las personas no solo rompamos las barreras del espacio sino también la del tiempo. Ahora, las pobres almas apresadas en este mundo pueden conectarse con miles de almas al mismo tiempo (blogs), mantenerse cercano a aquellos seres queridos alejados geográficamente (facebook), tener acceso instantáneo a los sentimientos de otras personas (twitter), crear la compilación de conocimiento mas grande de la historia (wikipedia), compartir mis intereses con millones de personas (social bookmarking) o lograr una agrupación de sentimientos o pensamientos alrededor de un objetivo –un egregor??—en un tamaño infinitamente superior a lo que puede haber ocurrido en cualquier otra época (Activismo 2.0). Es decir, nos encontramos frente a la revolución mas grande de la historia de la humanidad y no debemos mantenernos alejados pues perderemos la oportunidad de alimentarnos de esta conjunción de energías.

¿Qué nos deparará el futuro? ¿Será posible crear un egregor más poderoso? Les dejo un video que encontré al respecto y que les permitirá dar una mirada a lo que se viene…

[vsw id=»VFf2eDWHLh0″ source=»youtube» width=»425″ height=»344″ autoplay=»no»]