El fin de la doctrina de la imparcialidad

Los orígenes de la Doctrina

En 1928, con los republicanos en Washington, las autoridades de los Estados Unidos advirtieron a una emisora de Nueva York, propiedad del Partido Socialista, que debía mostrar «el debido respeto» hacia las opiniones de los demás (imaginamos que las opiniones de los demás eran las de los propios republicanos). Así empezó a gestarse la doctrina de la imparcialidad (The Fairness Doctrine) como una forma de intervención del Estado en el mercado de las ideas. Si el Estado no lo hacía -se pensó en aquella época – muchas voces no tendrían la oportunidad de ser escuchadas.

La doctrina de la imparcialidad se materializó formalmente como una política de la Federal Communications Commission (FCC) en 1949, al considerar a las estaciones de radio como «administradores públicos» de las frecuencias y por lo tanto obligadas a permitir la exposición de los problemas de interés público locales de una manera que, a juicio de la Comisión fuera, honesta, justa y equilibrada.» La doctrina propuesta por la FCC se construyó sobre la base de dos obligaciones exigibles a las emisoras de radio: (1) «dar cobertura sobre temas polémicos de interés e importancia vital para la comunidad atendida por los concesionarios»; y, (2) «dar oportunidad razonable para la discusión de opiniones contrapuestas sobre estos temas.» En su aspecto más extremo la FCC desarrolló también la llamada «Doctrina Mayflower«, que prohibió entre 1941 y 1949 a las estaciones de radio editorializar sobre algún aspecto polémico relativo a la comunidad.

Si a criterio de la FCC se determinaba que una emisora ​​había violado la doctrina de la imparcialidad, se le ordenaba que permitiera la presentación de los puntos de vista opuestos omitidos. Si la emisora ​​se negaba, la FCC tenía el poder de revocar la licencia.

La Doctrina en los tribunales

La doctrina de la imparcialidad fue muy cuestionada por los periodistas de radio y televisión pues la consideraban como una violación a la Primera Enmienda relativa a la libertad de expresión. No obstante, en el caso Red Lion Broadcasting Co. v. FCC, 395 EE.UU. 367 (1969) la Corte Suprema de los Estados Unidos estimó valida la doctrina de la imparcialidad dado que las licencias de radio se concedían sobre recursos escasos los cuales podían ser reguladas para preservar la transparencia en la cobertura de las noticias. Criterio que la Corte Suprema, consistente con esta decisión, no mantuvo para la prensa escrita en el caso Miami Herald Publishing Co. v. Tornillo, 418 EE.UU. 241 (1974).

Algunos usos políticos

No obstante los buenos deseos que la inspiraron, no siempre se utilizó la doctrina de la imparcialidad para defender la pluralidad de ideas. John Samples publicó, en mayo del 2009, un estudio (Broadcast Localism and the Lessons of the Fairness Doctrine) donde reveló cómo en el año 1963 el Gobierno de la Administración Kennedy se valió de la FCC para demandar espacios en casi todos los medios de comunicación cada vez que se criticaba la posible firma de un tratado de prohibición de pruebas nucleares con la Unión Soviética. Luego, continuó aprovechándose de la doctrina para promover la reelección del presidente, tarea que Oswald impidió bruscamente.

El uso con fines políticos de la doctrina de la imparcialidad continuó con la administración de Lyndon B. Johnson. Richard Nixon tampoco se apartó de esta tendencia, en 1969 y en medio de feroces manifestaciones contra la Guerra de Vietnam fustigó a los miembros de su administración para que tomaran «medidas específicas respecto a lo que podría ser una cobertura injusta en la televisión».

Muerte de la Doctrina

La doctrina de la imparcialidad desapareció primero en la década de los 80 durante la Administración del presidente Reagan. En 1985, la FCC publicó un informe donde alegaba que la doctrina de la imparcialidad no servia al interés público. En 1987, la agencia derogó formalmente la doctrina de la imparcialidad, justo un año después de que la Corte de Apelaciones del Distrito de Columbia afirmó en el caso Meredith Corp. v. FCC, que la Agencia tenía el poder suficiente para hacerlo.

En junio de este año otro informe (The Information Needs of Communities) de la FCC sugirió que aunque la doctrina de la imparcialidad ya no se aplicaba se mantenía en las regulaciones de la Agencia. Finalmente, este 22 de agosto el presidente de la FCC, Julius Genachowski, anunció la eliminación de 83 regulaciones anticuadas -pero todavía vigentes- entre ellas los rezagos de la original doctrina de la imparcialidad.

Algunos apuntes finales

Vivimos en un periodo de clamor neutral, como hemos visto en este blog, no son pocos los que claman la necesidad de imponer soluciones de este tipo en distintos escenarios (Que el portero marque tarjeta: Google Neutrality). Sin embargo, estimamos que la doctrina de la imparcialidad perturba más que ayuda, pues en la práctica muchos periodistas se verán tentados a dejar de presentar las noticias controvertidas para no tener que salir a buscar puntos de vista opuestos sobre cada cuestión planteada. Este efecto de autocensura parece ser justo lo opuesto a lo deseado por la FCC al formular la doctrina.

Hoy existen múltiples plataformas que permiten acercar las ideas al ciudadano además de las tradicionales: radio, televisión y prensa escrita, tenemos a la televisión por cable y por satélite y al Internet. En un escenario donde la radio y la televisión tradicionales compiten día a día con Internet por atraer audiencia, una legislación de este tipo sólo entorpece su accionar y limita sus posibilidades de competir eficientemente con Internet.

Una advertencia final, la doctrina de la imparcialidad no es aplicable para temas políticos para eso está la regla del mismo tiempo (Equal-time rule) a la que seguro dedicamos otra entrada.

Sobre la doctrina de la imparcialidad: ars technica (Out, damned spot! FCC kills Fairness Doctrine again) y mbc (Fairness Doctrine).

Indecencia y libertad de expresión

Los MTV Movie Awards son unos premios cinematográficos que otorga la cadena MTV a partir de la votación realizada por el público desde el sitio web de la cadena. Estos premios se han venido a llamar también los «anti-Oscar« en lo que intenta ser una especie de reivindicación para aquellas películas que no han sido nominadas a los premios de la Academia. Sin embargo, el que elija el público no asegura un mayor nivel de calidad en las películas galardonadas. Basta para ello ver la lista de premios a mejor película de los últimos años. El 2007 Piratas del Caribe: El Cofre de la Muerte; un año después el bodrio Transformers; y, en los dos últimos años los fanáticos de MTV se desvivieron por los vampiros enamorados de Crepúsculo y Crepúsculo: Luna Nueva.

Lo relevante de la gala de este año (en la foto), además del beso entre Sandra Bullock y Scarlett Johannson (aquí), es que durante su transmisión pudimos escuchar una impresionante cantidad de insultos y palabrotas, casi una por minuto. Términos como «shit» o «fuck» fueron moneda común para presentadores y ganadores durante toda la ceremonia sin ningún tipo de censura, a pesar que MTV transmitió la ceremonia bajo la modalidad de falso directo. Como era de esperarse y frente a las iras del conservador Parents Television Council, MTV terminó pidiendo disculpas públicas por los excesos verbales cometidos durante la ceremonia (aquí).

Este caso es muy similar a los de Cher y Nicole Richie en los Billboard MusicAwards de 2002 y 2003 respectivamente. En ambos casos, la Federal Communications Commission (FCC) señaló que las interjecciones de Cher y de Nicole Richie eran indecentes. No pudo hacer lo mismo con las transmisiones de los MTV Movie Awards, porque la FCC carece de competencias para supervisar los contenidos que se distribuyen por las redes de cable.

En Blawyer hemos estado pendientes de los reclamos judiciales de la Fox por la posición de la FCC a los excesos de Cher y Nicole Richie (La regulación de la (in)decencia, a propósito del caso FCC v. Fox).  Como se recordará, inicialmente la Corte de Apelaciones del Segundo Circuito encontró que las normas de la FCC eran arbitrarias y caprichosas, pero optó por no abordar las cuestiones relacionadas con la Primera Enmienda (libertad de expresión). La Corte Suprema revirtió el falló (FCC v. Fox Television Stations) y señaló que la FCC tiene el derecho a hacer sus propias reglas contra la obscenidad, ya sean arbitrarias o caprichosas. No obstante, devolvió el caso a la Corte de Apelaciones para que evaluara si las políticas de la FCC violaban la Primera Enmienda.

En una sentencia unánime (aquí) dictada el 13 de julio de este año (F.C.C. Indecency Policy Rejected on Appeal), la Corte de Apelaciones señaló que las actuales políticas de la FCC producen el efecto de limitar la libertad de expresión más allá de los improperios fugaces, ya que las empresas de radiodifusión carecen de unas reglas claras de lo que podría considerarse ofensivo. Para la Corte, los esfuerzos de la FCC para castigar a las empresas de radiodifusión por emitir improperios fugaces es «inconstitucionalmente vaga».

La decisión de la Corte es muy interesante. Considera que una de las razones por las que se permitió a la FCC regular la indecencia era, siguiendo el precedente FCC v. Pacifica Foundation, la omnipresencia de los medios de radiodifusión. Sin embargo, en un mundo conectado a Internet o que utiliza las redes de cable, este tipo de regulaciones tiene cada vez menos sentido. Quienes no oyen maldecir en la televisión lo escucharán en Youtube. Además, la Corte nos recuerda que la tecnología ha dado, como nunca, un poder a los padres para bloquear el acceso de sus hijos a contenidos inapropiados, de forma que la FCC  no tiene que supervisar los contenidos de radiodifusión con tanto cuidado.

En Blawyer hemos seguido de cerca los intentos para liberar a nuestra radio y televisión abierta de contenidos obscenos y pornográficos (El faenón del hermanón y La última pastilla para levantar la moral de Belmont). En la última de estas entradas, Joel pedía a Miguel Morachimo un ejemplo de cómo el proyecto de Belmont podía derivar en algún tipo de censura. La sentencia que discutimos es una buen ejemplo de ello. Se vulnera la libertad de expresión, y por lo tanto se impone una forma de censura, cuando las normas son lo suficientemente ambiguas como para que los medios de radiodifusión no puedan identificar el contenido de lo obsceno. El proyecto de ley de Belmont tiene este pecado original, deja al arbitrio de jueces y fiscales la tarea de dar contenido a los términos pornográfico y obsceno, sin que los medios de comunicación tengan la posibilidad de saber cuáles serán estos criterios. Algo así como las sentencias de nuestro Tribunal Constitucional, que pueden decir cualquier cosa.

Debate servido: Google, Verizon y Web 3.0

Ignoro si los chicos de Google hagan el mal, creo particularmente que no, pero lo cierto es que nunca aburren. Ayer Google y Verizon presentaron al alimón una propuesta (aquí) para mantener la neutralidad de Internet, en la que se muestran en principio opuestos a cualquier tipo de bloqueo o discriminación de contenidos legales en Internet. Con esta iniciativa Google y Verizon pretenden impulsar un diálogo para la implantación definitiva de la legislación sobre la Neutralidad de la Red (Net Neutrality) en los Estados Unidos, en un momento en el que el fuego del caso Comcast todavía no se ha extinguido (El ruido y la furia del caso Comcast (1) y (2)).

Este anuncio conjunto aparece sólo unos días después de que ambas empresas desmintieran un supuesto acuerdo por el que Verizon se comprometía a priorizar los contenidos de Google en sus redes de telecomunicaciones (aquí 1 y 2).

Uno de los aspectos más polémicos de la propuesta es el de reconocer la excepcionalidad, por su intrínseca naturaleza competitiva e innovadora, de la banda ancha inalámbrica. Es así, que echando mano a estas características proponen que la regulación de la Neutralidad de la Red no se extienda inicialmente a la banda ancha inalámbrica.

Las reacciones la propuesta de Google y Verizon no se han hecho esperar. Internet brama, bulle, se escandaliza y en este contexto el New York Times ha abierto rápidamente en su sección de debates un tópico sobre el tema: ¿Quién tiene prioridad en la Web? Los participantes son de lujo, como veremos a continuación.

Tim Wu, profesor de Columbia Law School: «Controlando el comercio y la opinión»

Internet y las comunicaciones están en la misma categoría que la energía, el transporte y las finanzas, porque son el alma del comercio y de la expresión de esta nación. Verizon o Google ubicadas encima de la web, pueden influir sobre qué empresas tendrán éxito o fracasarán, haciendo que los sitios se carguen más rápido, más lentamente o terminen en la página 10 del ranking de resultados.

El mayor peligro de una vía rápida es que cambia por completo la competencia en la red. Si hubiera habido una Internet de nivel 2 en 1995, probablemente, Barnes & Noble habría destruido a Amazon, Microsoft Search habría golpeado a Google y Skype no habría sino empezado. Todos seríamos perdedores.

Lawrence Lessig, profesor de Harvard Law School y director de la Fundación Centro Edmond J. Safra para la Ética: «Otra debacle desregulatoria».

El éxito económico de Internet proviene de su arquitectura. La arquitectura y las fuerzas competitivas que lo aseguran, es lo único interesante en juego en esta batalla por la Neutralidad de la Red. Sin embargo, los asesores económicos de más alto rango en la Casa Blanca no parecen saber lo que eso significa.

Los políticos, utilizan un marco económico establecido en la década de 1980, convencidos de su verdad y demasiado arrogantes para reconocer incluso su ignorancia, permitirán a los propietarios de los «tubos» destruir Internet.

David Gelernter, professor de Yale University: Llámalo «Irracionalidad de la Red».

La neutralidad es una política. A menudo es una mala política. «Neutralidad fiscal», por ejemplo, es gravar cada dólar de ingresos de la misma forma; la «Neutralidad de las Carreteras»: todos los vehículos deben pagar el mismo peaje. El punto fuerte de la Neutralidad de la Red es su nombre.»Neutralidad» suena como el estilo americano. Sin embargo, «red irracional» sería un nombre más preciso para esta idea mal concebida.

Supongamos que una compañía aérea quiere comprar espacio adicional en el aeropuerto local para hacer su check-in más rápido. ¿Debemos decir, «lo siento, pero la neutralidad del aeropuerto exige que American Airlines y Southwest Peoria Air tengan exactamente la misma cantidad de espacio en LaGuardia»?

Edward W. Felten, profesor de la Universidad de Princeton: «»Neutralidad» es difícil de definir».

La cuestión no es si queremos mantener esta Internet neutral abierta, es si a partir de la elaboración de normas el Gobierno nos puede asegurar el resultado que queremos. «Neutralidad» es fácil de imaginar, pero difícil de definir. Los operadores de redes necesitan un margen razonable para gestionar sus redes. No queremos entorpecer sus complejas prácticas de gestión de red neutrales, pero tampoco permitir la discriminación o hacer posible una discriminación sutil envuelta en la jerga de la red.

Jim Harper, director de estudios de política de información del Cato Institute: «Un cautivo de la Industria».

La Comisión Federal de Comunicaciones (Federal Communications Commission – FCC) ha socavado el desarrollo y la inversión mediante su propuesta para regular Internet como solía hacerse con la industria telefónica. En lugar de llevar a cabo la regulación planteada por la industria, la FCC simplemente debería desaparecer. No debe participar en la regulación de Internet, incluso si la industria lo quiere.

Jonathan Zittrain, profesor de Harvard Law School: «Una red impenetrable de peajes».

Esta cuestión se plantea en medio de una economía muy confusa para el movimiento de bits a través de Internet. Con los teléfonos la norma era sencilla: el remitente paga. En Internet es más complicado: tanto emisor y receptor pagan a sus respectivos ISPs.

Google sería capaz de lograr un acuerdo con Verizon para tener un acceso más veloz, dejando a los proveedores de contenidos menos afortunados detrás. Cuando cada ISP puede hablar en nombre de sus suscriptores sin saberlo, en calidad de cobrador de peaje bajo el puente ofreciendo diferentes condiciones de acceso, la economía de la red estará a favor de la consolidación, de los influyentes y adinerados.

En un medio en el que muchos de los gigantes eran advenedizos ayer – eBay, Google, incluso la propia web – sería una parodia congelar la siguiente ronda de innovación por el despliegue de una red impenetrable de contratos y tarifas.

Marvin Ammori, profesor de la Universidad de Nebraska-Lincoln: «Regular al Rockefeller de hoy».

El gobierno puede y debe hacer cumplir la neutralidad de la red. La competencia y el debate democrático en el siglo 21 dependerán de la no discriminación, al igual que la evolución a la web 3.0 ó 4.0.

Las compañías de teléfono y de cable, ahora unidas a Google, están gastando millones para convertir a Internet en un servicio de todo pago. Internet es la infraestructura básica del comercio y las comunicaciones. La discriminación en Internet minará la innovación. Podemos hablar de estas versiones «nuevas» de la web (web 2.0 y 3.0) sólo porque Internet evoluciona rápidamente. No lo hace porque le de prioridad a las compañías telefónicas o de cable, sino más bien porque los usuarios determinan la mejor manera de utilizar Internet.

En marcha el Plan Nacional de Banda Ancha

A mediados del siglo XIX la idea del progreso se asimiló con los ferrocarriles. En el Perú si bien la construcción de ferrocarriles se inició con la línea Lima – Callao en 1851, no fue hasta que Manuel Pardo (Lima, 1834 – 1878) iniciara su particular lucha para transformar el guano en ferrocarriles que se puso empeño en este propósito. Allí están sus “Estudios sobre la provincia de Jauja” (Revista de Lima, 1862) como biblia del desarrollo decimonónico. En 1868 se contrató Henry Meiggs (rebautizado por Watt Stewart como el Pizarro Yankee) para la construcción de la línea Mollendo – Arequipa. Un año después se le encargó el proyecto del polaco Ernesto Malinowski, la linea Lima – La Oroya. Curiosamente estas líneas son la base de los dos únicos ferrocarriles que siguen en funcionamiento en el Perú (la línea Tacna – Arica es sólo una ilusión para turistas y aventureros).

La importancia del ferrocarril en el Perú fue enorme. En el anuario de John Vavasour Noel (Londres, 1911) se registran 2 528 kilómetros de líneas férreas en operación, 722 en construcción y 3 686 en proyecto, importante esfuerzo para un país que cuenta con «(…) la orografía más intimidante de América Latina«(1). Ahora como antes, el desarrollo de proyectos de infraestructura en el Perú es tarea de titanes.

Hoy el ferrocarril ya no es sinónimo de modernidad, ahora el desarrollo viene con Internet. Las naciones lo han entendido así y vienen elaborando una serie planes de banda ancha, como una hoja de ruta donde plasman metas y obligaciones de los sectores público y privado, en lo que vendría a constituir la versión relowded de los «Estudios sobre la provincia de Jauja» de Pardo.

En los Estados Unidos tenemos el National Broadband Plan (NBP), elaborado por la Federal Communications Commission (Comisión Federal de Comunicaciones – FCC) a partir de la orden del Congreso en la Stimulus Bill de 2009. En este extremo se destinó $7,2 mil millones para inversiones en banda ancha (Lluvia de millones).

El NBP plantea como política de Estado una serie de metas a largo plazo: (i) 100 millones de hogares conectados a una velocidad de 100 Mbps en el 2020; (ii) el 80% de los hogares con líneas de banda ancha de por lo menos 50 Mbps en el 2015; (iii) 500 MHz de espectro para los proveedores móviles de 4G en los próximos 10 años; (iv) cada comunidad con acceso a servicios de banda ancha de por lo menos 1 Gbps en escuelas, hospitales y edificios públicos; (v) construir una red de banda ancha móvil para seguridad pública; (vi) fomento de la competencia en el mercado de set-top boxes y acabar con los sistemas de acceso condicional propietarios antes de 2012; y, (v) como parte de las obligaciones del servicio universal, una conexión a una velocidad de descarga de 4Mbps.

La implementación del NBP costará entre $ 15 y 35 mil millones, los cuales serán asumidos en parte por el Estado. La FCC viene solicitando al Congreso una partida de $ 9 mil millones para el despliegue de banda ancha rural.

Iniciativas similares existen Australia, Brasil y España.

¿Qué tenemos en el Perú? En el año 2007 y 2008 se modificaron los «Lineamientos de Política de Apertura del Mercado de Telecomunicaciones» (aprobados por Decreto Supremo N° 20-98-MTC) estableciéndose como meta para el 2011 contar con un millón de conexiones de banda ancha. No parece un objetivo muy ambicioso.

Con la declarada intención de contar con un plan nacional de banda ancha en marzo de este año se creó la Comisión Multisectorial Temporal encargada de elaborar el “Plan Nacional para el desarrollo de la Banda Ancha en el Perú” (Resolución Suprema Nº 063-2010-PCM). Esta Comisión debe presentar al Ministro de Transportes y Comunicaciones (MTC) un informe con sus recomendaciones y propuestas.

La Comisión ya se ha conformado y está sesionando. También ha implementado una web y ha elaborado dos papers sobre la situación de la banda ancha en el Perú: (i) Diagnóstico preliminar sobre el desarrollo de la banda ancha; y, (ii) Barreras que limitan el desarrollo de la banda ancha.

El primer documento nos dice lo que ya sabiamos, que el Perú tiene uno de los menores índices de penetración en la región. Con relación al segundo, identifica las barreras que limitan la banda ancha en el país como: (i) no es de extrañar, que el MTC no cumple con la norma que obliga a las carreteras a incluir ductos para fibra óptica; (ii) inobservancia de la Ley de Expansión de Infraestructura por gobiernos locales; (iii) percepción de riesgo en la salud por la instalación de antenas; (iv) restricciones de espectro para banda ancha móvil; (v) limitaciones del FITEL; (vi) ausencia de competencia interplataforma y competencia minorista; (vii) restricciones para la compra de computadoras; y, (viii) uso ilegal de servicios de banda ancha. Un comentaro a este documento lo pueden encontrar en el Diálogo Regional sobre la Sociedad de la Información (aquí).

Ya iremos abundando sobre el particular.

Julius Genachowski presidente de la FCC presenta en sociedad el NBP:

[vsw id=»QYf2AVCdzZw» source=»youtube» width=»425″ height=»344″ autoplay=»no»]

(1) GOOTENBERG, Paul. Imaginar el desarrollo. Lima: IEP/ BCRP, 1998.

Net neutrality a consulta pública

Coincidiendo con el caso Medison River Communications en el 2005, algunos intelectuales y proveedores de contenidos en Internet lanzaron la idea de aprobar legislativamente el principio conocido como neutralidad de la red o Net neutrality. Desde aquel momento, openistas y regulacionistas han venido afilando el hacha y se han enfrentando regularmente, ya sea para negar o estimular la validez de esta pretensión.

Y así andaban, como Massé y Sifuentes en Radio Capital (Massé y Sifuentes a porrazos), hasta que el hoy presidente Barack Obama, rendido a los pies del ciberactivismo más radical, anunció durante la campaña electoral presidencial americana su firme compromiso con la Net neutrality. También prometió implementar, durante su primer año en funciones, el marco legislativo para asegurar su escrupuloso cumplimiento. De esta forma el movimiento pro neutralidad empezó a mover sus fichas.

httpv://www.youtube.com/watch?v=Vd8qY6myrrE

A finales del mes de junio Barack Obama nombró al defensor de la Net neutrality, Julius Genachowski, como presidente de la Federal Communications Commission (Comisión Federal de Comunicaciones – FCC), el regulador de las telecomunicaciones en los Estados Unidos (Cambios en la FCC). Una vez cumplido este trámite, lo único que cabía era esperar cuando se anunciarían las medidas legislativas en favor de la Net Neutrality.

Hace poco más de un mes, el pasado 21 de septiembre para ser exactos, el flamante presidente de la FCC pronunció un discurso ante The Brookings Institution, en el que desvelaba su programa para «preservar una Internet libre y abierta: una plataforma para la innovación, la oportunidad y la prosperidad». La propuesta de Genachowski significa en la práctica el incremento de la regulación y de las obligaciones que soportan los operadores de red de telecomunicaciones. Específicamente se pretende incorporar al marco regulatorio seis nuevas obligaciones para los operadores de red. Estas obligaciones parten del proceso de incorporar dos nuevas recomendaciones a las cuatro ya existentes sobre la neutralidad de red (New Principles Preserve and Promote the Open and Interconnected Nature of Public Internet), vigentes desde agosto de 2005, y de elevar todas a rango de ley. No nos olvidemos que estas recomendaciones, únicamente constituían principios informadores de las políticas de la FCC.

Las dos obligaciones adicionales serían: (5) Principio de no discriminación: Los proveedores de acceso no pueden discriminar contra contenidos o aplicaciones concretas, siempre que sean legales; y, (6) Principio de transparencia: los operadores de red deben informar de los mecanismos que utilicen para gestionar el tráfico en la red.

Siguiendo esta línea, el 22 de octubre, la FCC ha iniciado una consulta pública (Nota de prensa) sobre el proyecto de reglamento para complementar los principios de apertura existente en Internet (Propuesta de regulación). Pero como a toda acción le sigue una reacción, de acuerdo con la Tercera Ley de Newton, ya se están presentando en el congreso de los Estados Unidos diversas iniciativas para limitar el papel regulador de la FCC sobre Internet (McCain introduces bill to block Net neutrality).

En diciembre del año pasado Cord Blonquist en openmarket.org profetizaba que el 2009 vería el apaciguamiento de las posiciones de quienes defendían la Net nutrality (¿Habrá una ley pro Net Neutrality en USA?). Parece que acertó, no tendremos ley pro neutralidad de la red este año, pero es más que probable que se apruebe el año que viene. Creo que la principal virtud de quienes propusieron regular sobre la neutralidad de la red, ha sido traer al tapete aspectos tan importantes como la gestión del tráfico, el financiamiento de la red, la censura y la necesidad -o no- de mantener la arquitectura original de Internet. No mucho más.

Los regulacionistas no vociferan la necesidad de la Net neutrality para proteger a Internet de una epidemia moderna, lo hacen para evitar que determinadas organizaciones puedan imponer una serie de restricciones consideradas ilegítimas -o por lo menos cuestionables- en un futuro. Aclarando, no lo han hecho pero se presume que podrían hacerlo. Es decir, reconocen la maldad intrínseca de los operadores de red y por lo tanto es necesario reprimir su capacidad para dañar a Internet. No creo que nos encontremos ante un argumento plausible.

Todos los casos reportados como amenazas al Internet libre (Medison River Communications o Comcast), fueron solucionados por las instancias competentes sin necesidad de echar mano a ningún nuevo ordenamiento (Comcast incumplió las políticas de la FCC, pero no será multada). No parece pues necesario desplegar todo un cuerpo legislativo para componer algo que no está malogrado.

Desarrollaremos estas ideas en entradas posteriores.

[vsw id=»dF7rbOj-HPA» source=»youtube» width=»425″ height=»344″ autoplay=»no»]

Discruso de Julius Genachowski en el Brookings Institute

Diferencias entre el Carterphone y el iPhone Jailbreaking

El año pasado se cumplió el 40 aniversario del famoso caso Carterfone (13 F.C.C.2d 420 (1968); 13 Rad. Reg. 2d (P & F) 597). Creemos que vale la pena dedicar pluma al tema. Básicamente porque no nos encontramos ante un proceso legal cualquiera -aunque en su momento pasó casi desapercibido- y también por el contexto actual, en el que se viene discutiendo la posible legalización del iPhone Jailbreaking.

El Carterfone fue un dispositivo inventado por Thomas Carter (propietario de la Carter Electronics Corporation con sede en Dallas) a fines de la década de los 60, el cual permitía conectar manualmente un sistema de radio móvil a la red telefónica pública conmutada (RTPC). En la práctica, el Carterfone era un sistema de comunicaciones privado independiente del operador de la red telefónica.

AT&T, la compañía telefónica más importante de los Estados Unidos en aquella época y la General Telephone & Electronics Corporation la última empresa de telecomunicaciones independiente del sistema Bell, se opusieron ferozmente a que este dispositivo se implementara. El mensaje a los clientes era sencillo, no debían utilizar el Carterfone ya que era un «dispositivo de interconexión prohibido». En este período los consumidores estadounidenses sólo podían comprar los aparatos telefónicos a AT&T gracias a que la Federal Communications Commission (FCC) en su Arancel Número 132 había señalado que: «Ningún equipo, aparato, circuito o dispositivo que no sea suministrado por la compañía telefónica se puede conectar a la o a las instalaciones relacionadas con el servicio proporcionado por la compañía telefónica, ya sea físicamente, por inducción o de otro tipo. «

Carter no se amilanó ante estas amenazas y llevó el caso a la FCC, la cual en 1968 -en una histórica decisión- revocó el monopolio de AT&T sobre los equipos terminales al considerarlo «indebidamente discriminatorio«. De esta forma, el regulador americano de las telecomunicaciones descartó el argumento de AT&T que proponía la necesidad de controlar todo equipo que se conectara a la red como una forma de garantizar su buen funcionamiento.

Es por ello, que desde 1968 se constituye la posibilidad de conectar dispositivos a las redes domésticas (right to attach devices) como un derecho del consumidor de las telecomunicaciones.

Este principio derivado del caso Carterfone ha tenido importantes alcances que son destacados sin mesura (ars technica: Any lawful device: 40 years after the Carterfone decision y BNET: Carterfone Changes Our World) por numerosos especialistas. La capacidad de construir un dispositivo para normalizar la interfaz de red (el enchufe de teléfono, conocido como RJ-11) permitió la aparición de un nuevo mercado de equipos terminales y el desarrollo de una  multitud de innovaciones como el fax, la contestadora automática y el módem se suelen citar como beneficios de la Decisión Carterfone. Algunos analistas (Wu – Wireless Net Neutrality: Cellular Carterfone and consumer Choice in Mobile Broadband) creen que el caso Carterfone impulsó la innovación de forma descentralizada en la medida que cualquier empresa o individuo puede construir una clavija telefónica normalizada, sin tener que obtener el permiso de la compañía telefónica.

El mes pasado vimos (iPhone Jailbreaking) como contractualmente Apple no permite crear o desarrollar aplicaciones que vulneren los niveles de seguridad del iPhone, además de limitar la distribución de aplicaciones fuera de su tienda iTunes Store. También señalamos que a pesar de estas restricciones, los usuarios del iPhone rompen los dispositivos de seguridad para instalar aplicaciones no autorizadas por Apple, práctica que se conoce como iPhone Jailbreaking.

Cabría preguntarnos, en este contexto, si el principio Carterfone es válido para sostener la legalidad del iPhone Jailbreaking.

Partimos del hecho de que el iPhone no es otra cosa que un teléfono móvil inteligente multimedia con conexión a internet. Es decir, por definición estamos ante un equipo terminal, tal como lo fue el Carterfone en su oportunidad. En dicha línea no podemos considerar al iPhone como una red de telecomunicaciones, sino tan sólo como un dispositivo periférico que además de transmitir señales de voz es capaz de agregar una serie de aplicaciones y contenidos multimedia. No parece razonable entonces que se impongan las mismas condiciones de libre conectividad a los equipos terminales conectados a la red, pues para desarrollarlos es necesario dinero, paciencia, suerte e inventiva. Si en el caso Carterfone la decisión de la FCC potenció las funcionalidades de la red de telefonía, no necesariamente el mismo efecto se produciría de extenderse este principio a los componentes de la red. Por el contrario es altamente que genere efectos del tipo free-rider y constituyan un freno a la innovación.

La regulación de la (in)decencia, a propósito del caso FCC v. Fox

El 1 de febrero de 2004 se jugó la XXXVIII edición del Super Bowl en el estadio Reliant de Houston. Los campeones de la Conferencia Nacional, los Patriots de Nueva Inglaterra se enfrentaban a los mejores de la Conferencia Americana, los Carolina Panthers. Los Patriots vencieron por 32 a 29, adjudicándose la Liga Nacional de Fútbol (NFL) americano. ¿Alguien se acuerda del partido? Seguro que no, una crónica en español en esmas. Pero es una de las ediciones más controvertidas y recordadas del Super Bowl.

Durante el entretiempo, Justin Timberlake cantó Rock your body a dúo con Janet Jackson. La Jackson estaba vestida de cuero negro, con un ajustado corsé. Al final de la canción y justo cuando Timberlake cantaba «Cause I, gotta have you naked by the end of this song«, el ex novio de Britney Spears dejó a Janet Jackson con un seno al aire. Como suele ocurrir en los Estados Unidos en este tipo de casos las cámaras cambiaron de plano al instante y ningún locutor comentó el hecho. Pueden ver el vídeo  en Youtube. La Federal Communications Commission (FCC) impuso una multa de US$ 550,000 a la CBS por el incidente.

En los Billboard Music Awards del año 2002, transmitidos por Fox, Cher al ganar uno de los premios, obsequió algunos comentarios a aquellos críticos que le pedían el retiro por razón de su edad: «People have been telling me I’m on the way out every year, right? So fuck ‘em«. En los premios del año siguiente la presentadora, Nicole Richie, disertó sobre la dificultad de  «have you ever tried to get cow shit out of a Prada purse? It’s not so fucking simple«. También en el 2003 y en el marco de la entrega de los Golden Globe Awards, el lider de la banda U2, Bono, señaló al recibir su premio que esto era «really, really fucking brilliant«. En otro hecho, el programa policiaco NYPD Blue, transmitido por ABC, comenzó a incluir lenguaje vulgar en las voces de algunos de sus protagonistas, especialmente el detective Andy Sipowitz, utilizaba expresiones como «bullshit,» «dick,» y «dickhead«. Finalmente, durante el reality show de la CBS, Survivor: Vanuatu – Islands of fire, uno de los participantes se refirió a un colega como un «bullshitter«.

La FCC dictaminó, cambiando un criterio anterior, que las interjecciones fugaces de Cher y de Nicole Richie en los Billboard Music Awards eran indecentes. En los Estados Unidos existe una legislación que prohibe la programación de contenidos potencialmente indecentes entre las 10 de la noche y las 6 de la mañana. La Corte Suprema (en el caso de 1978, FCC v. Pacifica Foundation) declaró que, a diferencia de los libros o los periódicos, la emisión por ondas son excepcionalmente influyentes y omnipresentes en la vida de los estadounidenses, y que, por tanto, la regulación gubernamental de su contenido no viola la Primera Enmienda.

La CBS y la Fox cuestionaron la decisión de la FCC en los tribunales y en principio la decisión judicial les fue favorable. En el caso Janet Jackson (CBS Corporation v. FCC) la Corte de Apelaciones del Tercer Circuito fustigó la actuación de la FCC al considerar que ésta no puede cambiar una línea de acción sin advertirlo y motivarlo previamente. Razonamiento similar señaló la Corte de Apelaciones del Segundo Circuito en el caso Fox Television Stations v. FCC .

La FCC apeló ambas decisiones. El pasado 28 de abril, la Corte Suprema de los Estados Unidos falló (FCC v. Fox Television Stationsen favor de la política de la FCC aunque omitió pronunciarse sobre la posible vulneración de la Primera Enmienda. El caso Jackson todavía no ha sido resuelto.

Lo interesante de ambos casos, es que nos permiten discutir la racionalidad de continuar aplicando una regulación para las emisiones de radiodifusión (radio y televisión) en medio del fenómeno de la convergencia tecnológica. Tal como señala Adam Thierer (The Thechnology Liberation Front: Supreme Court Decision in FCC v. Fox (Part 3: The Majority Decision)) los niños que la Corte Suprema cree que la FCC protege están más tiempo en YouTube o en Hulu viendo imágenes potencialmente obscenas o escuchando lenguaje procaz.

La abundancia de plataformas tecnológicas de comunicación es el argumento que estaría utilizando la FCC para endurecer la regulación de los contenidos de radio y televisión, según señala tiene la intención de convertir estas señales en un puerto seguro de contenido indecente. No parece un argumento razonable, desde que la escasez fue la excusa que justificó la regulación de la radiodifusión antes de la aparicón de la convergencia.

Cambios en la FCC

De acuerdo con savetheinternet.com (Net Neutrality Advocate to Lead FCC), el Wall Street Journal (Obama to Tap Tech Adviser as FCC Chief) y el Washington Post (Obama Picks Julius Genachowski to Head FCC) el hoy presidente electo de los Estados Unidos Barack Obama estaría pensando en el defensor de los criterios de la Net neutrality, Julius Genachowski, para presidente de la Federal Communications Commission (Comisión Federal de Comunicaciones – FCC), el regulador de las telecomunicaciones en los Estados Unidos.

Genachowski es uno de los artífices de la campaña en línea de Obama y de su plataforma tecnológica en pro de la Net neutrality, por la que Obama se comprometió a «garantizar un pleno y libre intercambio de información» y de no cejar en su compromiso con la neutralidad de la Red.

Genachowski ha sido jefe legal de Reed Hundt, presidente de FCC durante el periodo del presidente Bill Clinton, más recientemente es co fundador de LaunchBox Digital, una empresa de capital de riesgo con sede en Washington. También trabajó para IAC/InterActive Corp. en varios cargos ejecutivos.

En octubre de 2007, Obama se comprometió en una entrevista en YouTube / MTV a establecer una norma que asegurara la Net neutrality durante su primer año en funciones y a nombrar como presidente de la FCC a alguien que estuviera comprometido con esta meta.

La FCC está dirigida por cinco comisionados nombrados por el Presidente y ratificados por el Senado para un periodo de 5 años. Es el presidente quien designa cual de los comisionados hará las veces de presidente. Sólo tres Comisarios pueden ser miembros del mismo partido político.

Esta es una noticia doméstica que no tendría mayor relevancia si no fuera por el impulso que aparentemente Obama pretende darle a la Net nutrality durante su gestión, ya sabemos de la influencia ideológica que ejerce sobre nuestros reguladores la FCC. En lo particular pienso que un esfuerzo de esta naturaleza traerá más problemas que beneficios, pero es posible que la apuesta que reprodujeramos en un post antetior (¿Habrá una ley pro Net Neutrality en USA?) no se vaya a cumplir.

Genachowski realizó donaciones a la campaña de Obama por un valor de US$ 500,000.

Lessig quiere demoler la FCC

En una reciente columna de la revista Newsweek (Reboot the FCC) el profesor Larence Lessig sostiene que la Comisión Federal de las Telecomunicaciones (Federal Communications Commission – FCC), regulador de los Estados Unidos de las Telecomunicaciones, en lugar de proteger la innovación, ha sucumbido a un irresistible deseo de proteger a los más poderosos. Es decir, cree que la FCC es un ejemplo perfecto de cómo los reguladores, creados a inicios del siglo pasado, son un freno para el desarrollo.

La FCC se ha convertido en el centro que coordina casi todos los aspectos importantes relacionados con la tecnología. Es el protector de Internet y regulador de la radio, televisión y de las comunicaciones satelitales. En las próximas décadas, Lessig cree que podría convertirse en el regulador por defecto de cada nueva tecnología de las comunicaciones y especialmente, de las nuevas formas de utilizar las comunicaciones inalámbricas, que hoy portan las señales de televisión, radio, internet y telefonía celular, las que podrán proporcionar acceso a Internet de alta velocidad.

El inconveniente de la FCC es que, con tantas facultades a su alcance, se ha convertido en blanco de campañas de enorme influencia. Sus comisionados tienen que ser «expertos» e «independientes», pero en la realidad, para el autor, nunca han sido realmente expertos y ahora están abiertamente influenciados por el juego político. La solución. Como las inconsistencias de la FCC son estructurales, están en su ADN no se pueden maquillar, la FCC se tiene que enterrar. No es la primera vez que Lessig aboga por su destrucción, en marzo de este año sostuvo una posición similar en una entrevista para National Review Online (Professor Lessig Is In). La alternativa es crear una institución diferente, que Lessig llama Innovation Environment Protection Agency (IEPA), algo así como Agencia de la Protección para el Fomento de la Innovación, la cual tendría una misión muy simple: «mínima intervención para incrementar al máximo la innovación«.

La primera tarea de la IEPA, sería frenar el poder incontrolado de los monopolios. Como ejemplo, gran parte del espectro radioeléctrico ha sido subastado en los Estados Unidos a monopolios de telecomunicaciones, sobre la base de que sólo mediante este monopolio las empresas podrán emprender la costosa tarea de construir una red de estaciones de radiodifusión. La IEPA pondría a prueba esta hipótesis. De esta forma, un organismo fortalecido con la prohibición de cualquier tipo de vínculos con la industria se podría evitar la cultura de favoritismo que viene definiendo el accionar de la FCC. Y si logra alcanzar credibilidad en el control de los monopolios, la agencia podría aplicar esta experiencia en otras áreas como patentes y derechos de autor.

El título del artículo de Lessig nos da la idea de una crítica al sistema de regulación, o mejor dicho una crítica institucional, sin embargo nos encontramos ante un cuestionamiento meramente formal: la FCC no sirve hay que crear otro organismo que lo reemplace, «desvestir a un santo para vestir a otro» decimos por estos lares. Pero cabe preguntarnos, «quis custodiet ipsos custodes» (¿quien vigila a los vigilantes?), es una conocida locución latina del poeta Juvenal. La idea de crear un nuevo regulador libre de los vicios que se suelen imputarse a las diferentes agencias gubernamentales es conmovedora por su inocencia. El problema de los fallos regulatorios, que los hay y muchos, no es formal es estructural y la noticia más desalentadora -y es un apunte particular- es que una nueva institución no los solucionará, pues el defecto está en el ADN de la propia burocracia que sirve a estos organismos.

Sobre el particular recomiendo leer el post de Adam Thierer (Lessig on Building a Better Bureaucrat) en Technology Liberation Front cuando nos dice que muchos expertos y políticos creen tontamente que todo sería mejor, como por arte de magia, una vez que las normas sean aplicadas por infalibles reyes-filósofos, personas que caminarán por los pasillos del nuevo IEPA. Es claro, la burocracia estatal tiene su propia lógica. No existe ninguna razón que nos lleve a pensar que estos reyes-filósofos de la IEPA tendrán un mejor desempeño que sus antecesores de la FCC.

Esta observación es también aplicable a otras realidades. Por ejemplo en el caso peruano aparecen de cuando en vez críticas importantes para con el accionar de los organismos reguladores (OSIPTEL, OSITRAN, OSINERGMIN y SUNASS). Una de las formas que se levantan para resolver estos inconvenientes es la creación de una superintendencia que realice las funciones agregadas de todos ellos. Creemos que no es la salida, la única ventaja si se crara una Superintendencia sería un pequeño ahorro presupuestal, sin embargo, se perdería en especialización y sería más sencillo para el poder político captar a esta nueva institución que a las cuatro anteriores.

La FCC libera el espectro

El pasado 4 de noviembre el regulador de las telecomunicaciones de los Estados Unidos, la Federal Communications Commission (FCC), aprobó el uso sin licencia de los llamados espacios de televisión en blanco (Television White Spaces – TWS). La decisión de la FCC tiene una gran importancia ya que permitirá en un futuro inmediato el acceso de los usuarios a servicios de banda ancha únicamente a partir de la adquisición de los equipos necesarios. Ya en un anterior post de Blawyer dimos cuenta de esta discusión (We want the airwaves o la liberalización del espectro radioeléctrico).

Las TWS son porciones no utilizadas del espectro radioeléctrico y por lo mismo su liberalización es exigida por muchos agentes del mercado para brindar acceso a Internet de banda ancha. Como es conocido, el espectro radioeléctrico ha sido considerado tradicionalmente como un recurso natural escaso por los gobiernos y lo administran limitando su uso a unos pocos beneficiarios, a los que se les atribuyen frecuencias con fines específicos. Sin embargo, de un tiempo a esta parte existen importantes porciones de espectro que se están dejando de utilizar como resultado de la obsolescencia y el cambio tecnológico.

Este es el caso del espectro empleado por la industria de la radiodifusión de los Estados Unidos para sus emisiones de televisión analógicas, entre los 54 y 806 MHz. Dentro de unos pocos meses, en el mes de febrero de 2009, estos espacios van a dejar de utilizarse con el apagón analógico y el inicio de las transmisiones en la modalidad digital en la frecuencia entre los 54 y 698 MHz.

De acuerdo con un comunicado de prensa de la FCC, la norma aprobada es un cuidadoso primer paso para permitir la operación de dispositivos fijos o portátiles sin licencia en los TWS para acceso a Internet. Estos dispositivos deberán contar con la capacidad de geolocalización suficiente y el acceso a Internet a partir de una base de datos la cual permitirá reconocer el espacio en blanco que puede ser utilizado, sin interferir con equipos de baja potencia, micrófonos inalámbricos, estaciones de televisión y cabeceras de sistemas de televisión por cable.

Sin embargo, la medida de la FCC no está libre de polémica, pues se adivierte que estos dispositivos de acceso a Internet podrían interferir con algunas industrias que han venido utilizando tradicionalmente estos espacios. Las empresas de radiodifusión, productores de teatro y franquicias deportivas se han mostrado temerosas de que estas tecnologías afecten sus actividades. «Estamos profundamente decepcionados con la decisión de la  FCC que podría silenciar las producciones de Broadway y las que se ejecutan en otros lugares de todo el país«, señaló Charlotte St Martin, directora ejecutivo de la Liga de Teatro y Productores Americana (League of American Theatres and Producers), una asociación que representa a la industria teatral de la ciudad de Nueva York. Igual opinión ha sido expresada por la Asociación Nacional de Organismos de Radiodifusión (National Association of Broadcasters).

Como en toda medida de esta naturaleza tendremos ganadores y perdedores. Entre los ganadores están empresas como Google (incluso abrió un blog para promocionar esta liberalización), Microsoft, Intel,   Motorola, Phillips y Dell. En el otro extremo además de las industrias afectadas que hemos señalado, se resentirán algunos modelos de negocio que sustentan a empresas de telecomunicaciones como Verizon, AT&T, Sprint y Comcast. Cabe mencionar, por ejemplo, que Verizon y AT&T han pagado en los últimos años una importante cantidad de dinero para adquirir porciones de espectro para su explotación exclusiva.

No cabe duda que nos encontramos ante una decisión de indiscutible relevancia, vremos como se van desarrollando las cosas. Creo que podríamos tener algunos problemas a partir de algunas características económicas del recurso liberalizado. El espectro no es acumulable, por lo tanto el espectro que no se usa en determinado momento se pierde. Si su uso es limitado y no hay congestión su costo marginal es nulo, en esta situación lo recomendable es que se permita su uso libre. Sin embargo, a partir de determinado momento, cuando el número de usuarios aumenta hasta cierto nivel se empieza a registrar cierto nivel de congestión, lo cual hace que el costo marginal para los usuarios sea positivo, entonces el recurso no alcanzará para satisfacer a todos los demandantes. Creo que el acceso libre a Internet a partir de los TWS podría llegar a generar importantes niveles de congestión en algunos entornos, sobre todo urbanos, si se llega a este punto los usuarios podrían volver a exigir soluciones comerciales tradicionales con lo cual estaríamos como al principio, lo único que habríamos perdido es tiempo.