Arcos Dorados, Hamburguesas Rey y mercados de dos caras (I)

En noviembre del año pasado -y luego de poco más de cuatro años de investigación, que se dice pronto- la Comisión de Libre Competencia de INDECOPI emitió la esperada Resolución (aquí) en el caso seguido por Operaciones Arcos Dorados de Perú S.A. (McDonald’s) contra Administradora Jockey Plaza Shopping Center S.A. (Jockey Plaza), Sigdelo S.A. (Burger Kig) y otros; por abuso de posición de dominio en la modalidad de negativa injustificada a contratar.

Contra todo pronóstico, la Comisión declaró fundada la denuncia de McDonald’s contra el centro comercial Jockey Plaza y Burger King y sus representantes, además, calificó la infracción como grave y sancionó a las empresas denunciadas con multas de 564.4 y 100 UITs, respectivamente, y, a sus representantes con una multa de 5 UIT a cada uno.

La decisión tiene relevancia de cara a los temas que tratamos cotidianamente en este espacio, pues al igual que los centros comerciales -como el Jockey Plaza- los mercados tecnológicos son del tipo de dos caras (two sided makets), un refinamiento teórico desarrollado simultáneamente por Geoffrey Parker y Marshall Van Alstyne (Information Complements, Substitutes, and Strategic Product Design) para el mercado del software y por Jean-Charles Rochet y Jean Tirole (Platform competition with two-sided markets) para analizar los mercados de tarjetas de crédito. Es sobre la base de este refinamiento que la Comisión ha analizado la denuncia de McDonald’s.

Uno podría esperar que luego de cuatro años de incubar la solución de este caso, el análisis de la Comisión fuera refinado, sólido en sus fundamentos económicos, carezca de contradicciones y permita sostener un modelo de actuación para los agentes del mercado de cara a situaciones similares. Lamentablemente, de todo ello carece la Resolución de INDECOPI. La Resolución es rústica, sus criterios económicos son cuestionables, tiene numerosas contradicciones estructurales y el mensaje de cara a los agentes del mercado no puede ser de lo mas contradictorio. Vayamos a los hechos.

Los Hechos

En de febrero de 1997, el Jockey Plaza suscribió con Burger King cuatro contratos de arrendamiento respecto de igual número de locales ubicados en el Jockey Plaza. De acuerdo con los mencionados acuerdos, el Jockey Plaza se obligó expresamente a no arrendar locales comerciales a McDonald’s en ningún lugar del Centro Comercial.  El plazo de duración de esta obligación era de 20 años.

A partir del año 2000, McDonald’s envía diversas comunicaciones para que el Jockey Plaza le arriende un local comercial; lógicamente, el Jockey se niega a hacerlo alegando la existencia del contrato con Burger King. No está en discusión que los acuerdos existen y que el Jockey Plaza se negó a arrendar un local McDonald’s.

Los mercados de dos caras

Un mercado de dos caras o two sided market es aquel en el que los usuarios de una empresa reciben externalidades de otros usuarios que utilizan la misma plataforma. Cada grupo de consumidores se relacionan con la plataforma de distribución. Pero además, los grupos que acceden a la plataforma se interaccionan ente sí.

Existen muchos ejemplos de este tipo de mercados como el de tarjetas de crédito, el audiovisual o el de centros comerciales. En los centros comerciales, se relacionan compradores y vendedores minoristas. Cuantos más compradores atraiga el centro comercial, mayor será la disposición a pagar de los vendedores minoristas por un local. Del mismo modo, cuanto mayor sea el número de tiendas establecidas en el centro comercial, mayor será el interés de los consumidores para desplazarse hacia él. En esta página hemos abordado varios casos de este tipo de mercados: Macmillan Blitzkrieg para el caso del Kindle; Cómo se financia la televisión pública para el caso del audiovisual; Nokia y las telcos enemigos íntimos, para los smartphones; y, En el mundo del todo es gratis, Microsoft ¿Un pionero? para los negocios gratuitos en Internet.

El mercado relevante

Uno de los aspectos más importantes al investigar una denuncia por abuso de posición de dominio es la determinación del mercado relevante. Una determinación equivocada o poco prolija del mercado relevante nos llevará a conclusiones equivocadas y a una solución que lejos de resolver el problema -si acaso lo hubiere- terminará por afectar el proceso competitivo.

Para la Comisión el mercado relevante está conformado por el arrendamiento de espacios en el Jockey Plaza para la venta de hamburguesas similares a las de McDonald´s. Es decir, nos encontramos ante un mercado relevante en exceso restrictivo, el Jockey Plaza se constituye casi como sinónimo de facilidad esencial y por ende de dominancia per se.

La Comisión llega a la conclusión anterior luego de advertir que el servicio solicitado por McDonald´s consiste en el arrendamiento de espacios en centros comerciales similares al Jockey Plaza para la venta de hamburguesas y que los consumidores acuden a los centros comerciales como el Jockey porque buscan una combinación de servicios entre los que se encuentran necesariamente las hamburguesas. Como no hay centros comerciales similares al Jockey, este centro comercial se constituye en el mercado relevante.

Sin embargo, los consumidores no acuden a un centro comercial como el Jockey Plaza buscando necesariamente una combinación abstracta y uniforme de bienes y servicios con hamburguesas dentro. Cada consumidor identifica una necesidad temporal y es en virtud de esa necesidad -y no de otra- que decide acudir a un centro comercial como el Jockey Plaza o a cualquier local que satisfaga esa necesidad particular.

La Comisión trata al centro comercial como si fuera una plataforma única, lo cual es correcto para el caso del mercado de tarjetas de crédito o el de videojuegos, pero no necesariamente es aplicable para los centros comerciales. Un centro comercial es en realidad una multiplataforma que no sólo compite con otras multiplataformas de igual dimensión, sino también con multiplataformas menores y otros establecimientos menores como los del tipo free standing, de acuerdo con la necesidad inmediata y temporal de los clientes. Es decir, un centro comercial trata de satisfacer a una demanda claramente heterogénea a partir de un catálogo de productos distribuidos de forma simultánea en varias de sus plataformas, algunas de las cuales pueden competir entre sí. Así, el Jockey plaza tiene varias plataformas competitivas, el patio de comidas es sólo una más, pero también lo son el nuevo Boulevard, los cines (con oferta de comida incluida), también  Happiland y Divercity y hasta el reciente centro médico Jockey Salud.

Es curioso que la Comisión cite en su Resolución cuatro sentencias americanas sobre casos similares al que investiga y no repare que en ninguna de ellas las cortes utilizaron su análisis de mercado relevante.

En el caso Recetas por Menos v. Five Development (368 F.Supp.2d 124 (2005)) citado por la Comisión, en el que se analizó la legalidad de un acuerdo de exclusiva entre una cadena de farmacias y un centro comercial en Puerto Rico, la Corte del Distrito -con encomiable simpleza- fustigó el mercado relevante presentado por los demandantes (el centro comercial cuyo acceso se les negaba) rechazando la posibilidad de que el mercado relevante no fuera otra cosa que la «zona de competencia efectiva», donde los competidores están dispuestos a concurrir por el consumidor potencial, y no sólo el área del mercado donde se ubica una sola empresa. Contando sólo con una farmacia dentro del centro comercial, esta área no es económicamente significativa y por lo tanto no podrá definir los linderos del mercado relevante.

La defensa de la estructura competitiva

Para terminar, es importante repetir el análisis que realiza la Corte de Distrito puertoriqueña en el caso citado respecto de la pretensión de los demandantes, la que considera está orientada más que a defender el proceso competitivo a obtener el acceso a una ubicación que consideran ideal. Sin embargo, la Corte recordó sobre el particular que los reclamos de violación de la competencia no se preocupan por las ofensas dirigidas contra el interés privado de una empresa individual, sino contra una conducta que impide la competencia. Es evidente que las leyes antimonopolio se aprobaron para la protección de la competencia, no de un competidor particular. Finaliza diciendo la Corte que el daño al mercado no significa una simple pérdida de negocio o incluso la desaparición de un competidor, sino un deterioro de la estructura competitiva del mercado. Precisamente el camino contrario al transitado por la Comisión en esta oportunidad.

Seguiremos analizando el caso en una siguiente entrada. Lo peor está por venir.

La nacionalización de la Red

El Instituto Juan de Mariana ha «liberado» el libro de Albert Esplugas Boter: «La comunicación en una sociedad libre. Una crítica liberal al statu quo» (aquí) lo cual es de agradecer. El texto de Espulgas constituye un análisis de los principios éticos que fundamentan una sociedad libre teniendo para ello como piedra angular el respeto a la propiedad privada, tan socavada en los últimos tiempos.

En lo que nos interesa, destacamos dos capítulos, aquél referente a la apropiación del espectro por parte del Estado con todas las ineficiencias harto conocidas (a lo que no nos dedicaremos); y, el intento de nacionalizar (léase estatización o socialización) las infraestructuras de Internet a través de iniciativas del tipo neutralidad de la red (Net neutrality).

El análisis es sencillo. Hasta determinado momento, las redes interconectadas que integraban Internet eran de propiedad de las empresas de cable y telefonía, las cuales habían gestionado estas redes de acuerdo con el principio de la neutralidad. Es decir, permanecían neutrales respecto de la informacuión transmitida, sin modificarla o priorizarla.

No obstante, con la explosión del tráfico cursado a través de estas redes algunas empresas se ven en la necesidad de imponer determinadas restricciones y a discriminar entre usuarios. Como lo haría cualquier propietario. Por ejemplo, algunas de estas compañías ofrecen servicios priorizados a determinados proveedores de contenidos a cambio de una contraprestación mayor (¿Es Internet como una carretera? y ¿Es malo que pague más quien más consume?) o paquetes con limites de descargas para los consumidores (AT&T estrena nueva política para su DSL).

La posibilidad de que se impusieran estas políticas no neutrales desataron una agría polémica que todavía no termina de resolverse. Los defensores de la neutralidad afirman que si se permite a los propietarios de las infraestructuras de Internet discriminar entre determinados usos y fijar precios diferenciados en función de éstos se atenta contra los principios fundacionales de Internet.

Espulgas ve estas restricciones como el resultado inevitable de la escasez de ancho de banda. En la medida que es materialmente imposible que todos los usuarios utilicen la Red al mismo tiempo, sin límite alguno, es necesario administrar su uso. La pregunta entonces, no es si debe restringirse Internet, sino cómo debe hacerse.

La respuesta liberal a esta cuestión debiera ser siempre la misma. El propietario de un bien escaso debe decidir su mejor uso. Sin embargo, voces mayoritarias reclaman que el Estado debe imponer legislativamente el criterio de la neutralidad para que los propietarios de las infraestructuras, bajo la excusa de su congestión, no desplieguen prácticas anticompetitivas y restrinjan los contenidos de sus competidores.

Espulgas cree que estos miedos son infundados sobre la base de cuatro consideraciones:

Primero, el sistema de precios permite orientar los recursos hacia los usos más demandados. Un factor se desplaza al sector productivo que mejor se remunera, previendo el empresario que ha invertido en este factor que recuperará la inversión cuando los consumidores paguen por el bien o servicio. En el caso de la banda ancha, un sistema de precios libre, permite que aquellos que ansían con mayor ahínco un bien, paguen más por él. Si se permite la discriminación y fijar precios diferenciados, aquellos que quieran una mayor capacidad podrán obtenerla pagan el mayor precio. La neutralidad de la red en esencia, no sólo no soluciona el problema de la congestión, sino que lo agrava.

Segundo, el cobro por unos servicios diferenciados incrementa los ingresos de las compañías propietarias de las redes  y haría -en un escenario competitivo- más atractiva la inversión en nuevas redes y en el desarrollo de Internet. Por el contrario, la imposición de la neutralidad de la red equivale a una regulación por precio máximo y por ende se reducen los incentivos para invertir.

Tercero, el propietario de la red tiene derecho a decidir qué es lo que circula por ella. No obstante, en un entorno competitivo, un operador difícilmente decidirá bloquear determinados contenidos, pues sus abonados podrán marcharse al operador que no los bloquea. El problema es que los entornos no suelen ser competitivos por el accionar de las propias autoridades del Estado.

Cuarto, la neutralidad de la red menoscaba la competencia, no la incentiva, si todas las redes van a ofrecer lo mismo, desparece la posibilidad de que los operadores entrantes diseñen sus redes para atender nichos de mercado específicos. Es decir, la oferta de los entrantes será idéntica que la del incumbente.

Coincido en gran parte, una visión distinta entre tato discurso intervencionista monocorde.

Nombres de dominio y libre competencia: el caso del rico .xxx

Luego de una larga andadura ya está en funcionamiento el dominio genérico patrocinado de nivel superior (gTLD) .xxx; y que como cualquiera podrá adivinar, está destinado para identificar a aquellas páginas web de contenido pornográfico o erótico.

Llama la atención las peripecias que tuvo que pasar el domino del porno para su aprobación. Propuesto en 2001 por ICM Registry, fue inicialmente aprobado algunos años después por la Corporation for Assigned Names and Numbers  (Corporación de Internet para la Asignación de Nombres y NúmerosICANN), aunque terminó siendo rechazado el 2006. Un año después, el 2007, ICM Registry volvió a la carga, pero el resultado final fue identico, rechazado por ICANN en la reunión de Lisboa. El proyecto reaparece el 2010 y se aprueba en la reunión de julio en Bruselas. Roto el dique las peticiones se desbordan, sólo unas semanas después de su aprobación ICM Registry (única designada para el registro de los gTLD .xxx) se frotaba las manos, pues ya tenía más de cien mil peticiones de registro en cartera. El primer dominio «triple x» recién estuvo operativo en agosto de este año (Casting.xxx, el primer dominio porno en Internet), aunque el lanzamiento oficial del dominio está previsto recién para el mes que viene.

El porno contra el dominio porno

Pero no todos están felices con el dominio de marras. Para sorpresa de muchos, el dominio .xxx está siendo combatido duramente por sectores de la propia industria del porno, además de por elementos religiosos y conservadores (Porn stars join religion in protest against .xxx domain). Desde el lado del porno, la Free Speech Coalition (Coalición de Libertad de Expresión – FSC), una asociación que protege los intereses de la industria del porno en los Estados Unidos, ha señalado que el uso de estos dominios perjudicará a la industria invitando la censura y facilitando el bloqueo de los sitios con esta extensión.

La libre competencia, otro frente

Manwin Licensing International especializada en la administración de sitios web de alto tráfico para entretenimiento para adultos (es decir, porno), presentó una demanda (aquí) contra la ICANN e ICM Registry por supuesta violación de la libre competencia y competencia deslial.

Manwin, domiciliada en Luexemburgo, administra una de las carteras más importantes del planeta de marcas y nombres de dominio relacionados con el entrentenimiento para adultos con más de 60 millones de visitantes diarios. Manwin es propietaria de sitios como: YouPorn.com, Pornhub.com, xTube.com y Brazzers.com. La compañía también administra todos los contenidos en línea de «Playboy» a través de la marca «Playboy Plus Entertainment».

La demanda, presentada ante una Corte Federal del Distrito Central de California, sostiene que la ICANN e ICM Registry han conspirado para imponer una serie de restricciones en el mercado de los servicios de registro del tipo .xxx, con la intención de perjudicar la competencia y a los consumidores.

Mercado Relevante

El eje central de una investigación por vulneración de la libre competencia es la delimitación del mercado. Una equivocado análisis del mercado relevante puede llevar al investigador a lamentables equívocos, allí tenemos el conocido caso del celofán para sostener lo señalado (United States v. E. I. Du Pont De Nemours and Company (351 U.S. 377)).

De acuerdo con la demanda, el mercado de servicios de registro de dominios de nivel superior (gTLD) del tipo .xxx constituye un mercado independiente para los registros defensivos, llamados también registros negativos. Los propietarios de marcas registradas, con registros en otros gTLD necesitan comprar adicionalmente dominios .xxx para fines de defensa o bloqueo. Gracias, en parte a estos registros defensivos, ICM Registry espera obtener ingresos por US$ 200 millones de dólares. Nada mal.

El mercado de bloqueo de registros defensivos en el gTLD .xxx es un mercado distinto del mercado general de nombres de dominio, porque no existe un sustituto razonable para estos registros. Incluso si los titulares de nombres pudieran impedir el registro de sus nombres en todos los gTLD distintos al .xxx, tendrían que realizar un registro defensivo adicional bajo el nombre .xxx para evitar los problemas de dilución y la posible confusión del consumidor.

ICM Registry ostenta el monopolio del mercado de la venta de registros defensivos a través de su .xxx. Ninguna otra empresa o entidad puede prestar tal servicio. ICM Registry -siempre de acuerdo con la demanda- estaría tratando de monopolizar también el mercado de los «registros positivos» de los nombres de dominio destinados principalmente al contenido para adultos. Como los consumidores que buscan contenidos para adultos son conscientes de la existencia de los gTLD .xxx, el registro y la visualización de sitios web en otros dominios genéricos de nivel superior podría ser fácilmente sustituida. Esto se debe básicamente, a la asociación entre la «X» con el contenido para adultos, lo cual podría verse reforzado incluso por nuevas disposiciones contractuales u ordenes  de carácter regulatorio.

Vamos a estar atentos al caso.

Véase: Mark Hachman en PCMag: ICANN Approves .XXX Domain

Twitter, paloma o águila

Hace unos días The Wall Srteet Journal anunció (Antitrust Regulator Makes Twitter Inquiries) que la Comisión Federal de Comercio (Federal Trade Commission) de los Estados Unidos, o léase mejor la Agencia de Competencia del gigante del norte, tendría bajo la lupa Twitter por posibles prácticas anticompetitivas con relación a su interfaz de programación de aplicaciones o API (Application Programming Interface). A través de esta interfaz, Twitter permite que terceras empresas accedan a los «tweets» de sus usuarios. Estas empresas han sido muy importantes para Twitter pues desarrollaron una serie de programas que fueron muy importantes para su crecimiento dado que permitían una serie de acciones que no se podían hacer con el minimalista desarrollo de Twitter, como ordenar, organizar y búscar «tweets».

El motivo para iniciar esta investigación no es muy claro, sin embargo podría estar relacionado con los nuevos términos para los desarrolladores (Twitter to developers: we want to own the pipes, water, and faucets, but feel free to make soap), el bloqueo de algunos de estos servicios brindados por terceros (War Is Hell: Welcome to the Twitter Wars of 2011) o con su adquisición directa por Twitter (como TweetDeck y Tweetie). Twitter al parecer pretende evitar que terceros compitan directamente con la venta de publicidad -fuera de su plataforma- como una forma de potenciar sus ingresos. Con el robustecimiento del ecosistema Twitter estas terceras empresas pasan de ser complementos necesarios para su crecimiento a competidoras directas por el mercado publicitario.

Sobre la posible investigación que estaría desarrollando la FTC, son varias las preguntas que deberíamos hacernos al respecto, las más importantes: (i) ¿cuál es el mercado relevante? y (ii) ¿Donde está el daño?

Cuál es el mercado relevante

Un aspecto central en toda investigación de libre competencia es determinar cuál es la posición de la empresa sujeta a investigación en el mercado bajo análisis. Para ello es necesario determinar primero cuáles serán los contornos específicos de este mercado.

En lo que nos importa, el producto o servicio relevante, debe ser definido a partir del producto ofrecido por Twitter, es decir, el producto demandado por los consumidores supuestamente afectados por el abuso de posición de dominio. El producto relevante debe incluir a todos los productos que resulten buenos sustitutos de aquél.

Twitter, creado en marzo de 2006, estima que cuenta ya con más de 200 millones de usuarios, genera unos 65 millones de tweets al día y maneja más de 800 mil peticiones de búsqueda diarias. Estimamos que Twitter podría ser uno de decenas de productos de comunicación y de acceso a la información, como blogs, servicios de mensajes cortos, de mensajería instantánea, redes sociales, correos electrónicos, llamadas telefónicas, canales de RSS, incluso los noticieros de radio y televisión y hasta periódicos.

La juventud e inmadurez de este mercado es tanta que resultará muy complicado definirlo, por lo tanto no parece aconsejable tampoco mover ficha todavía para una investigación anticompetitiva o su regulación.

Dónde podría estar el daño

También la existencia de un posible daño al mercado es altamente cuestionable. Los ingresos de Twitter en el tercer trimestre del 2009 fueron sólo un modesto US$ 400 mil seguido de un más robusto US$ 4 millones en el 4 trimestre del mismo año. Se calcula que sus costos de operación ascienden a US$ 1 dolar por abonado (Twitter’s Financial Forecast Shows First Revenue In Q3, 1 billion users in 2013). En 2010, Twitter introduce la venta de publicidad, y obtiene unos ingresos de US$45 millones de dólares al año con una proyección de US$ 150 millones para este año (Twitter triplicaría sus ingresos por la venta de publicidad). Si comparamos el costo del servicio por usuario no parece que la operación esté todavía en azul.

No debemos olvidar que la operación de Twitter no le cuesta nada a los suscriptores y así es absolutamente lógico que intente robustecer sus ingresos por publicidad, que en suma significa la sostenibilidad en el largo plazo de la operación. Los usuarios no se perjudican con ello.

El fantasma de la neutralidad

Detrás de todo este tema parece estar de nuevo el fantasma de la neutralidad bajo la forma de la Application Neutrality (Que el portero marque tarjeta: Google Neutrality). La Neutralidad es una variante del principio de acceso abierto contenido en algunas regulaciones de servicios públicos, donde se impone a la empresa propietaria de determinada infraestructura que la ceda a sus rivales de forma no discriminatoria.

La Neutralidad de las aplicaciones o el establecimiento de una obligación de acceso forzado constituiría un error. Si Twitter decide monopolizar su ecosistema no deberíamos limitarlo, es su derecho. Si lo hace, aun cuando en el corto plazo sus ingresos aumenten, la plataforma terminará perdiendo valor y su futuro será incierto, pues será menos innovativa en la medida que los terceros que la enriquecieron estarán haciendo lo propio en otras plataformas. Así funciona este mercado y no debiéramos  entorpecer esta dinámica.

Recomendamos:

Adam Thierirer: Twitter, the Monopolist? Is this Tim Wu’s “Threat Regime” In Action?; y, A Vision of (Regulatory) Things to Come for Twitter?

Net neutrality, el turno de Europa

La Neutralidad de la red viene generando un interés creciente. Inicialmente parecía que el asunto era poco más que parte del folclore americano, pero con el tiempo diversas latitudes se vienen sumando a la discusión. Pasado el turno del debate norteamericano (Net neutrality a consulta pública y El ruido y la furia del caso Comcast (1 y 2)) y de la veloz aprobación de la Ley chilena (Neutralidad de red a la chilena), parece que Europa entra en la arena.

La Unión Europea se pronuncia

Al final del 2009 la Unión Europea (UE) aprobó el paquete de reforma del sector de las telecomunicaciones, teniendo a la Neutralidad de la red como un principio regulatorio a ser promovido por los organismos reguladores de cada país miembro. Siguiendo esta trocha, la Comisión Europea publicó el 19 de abril de este año una Comunicación sobre la neutralidad de la red y el estado de Internet abierto en Europa (COM(2011) 222 final).

De acuerdo con la Comunicación, el debate de la Neutralidad de la red se centra en la razonabilidad de las políticas de gestión de tráfico diseñadas por los operadores. Aún cuando se reconoce que los operadores pueden adoptar prácticas de gestión para garantizar un uso eficiente de las redes, se han denunciado algunas prácticas que irían contra el carácter abierto de Internet, como el bloqueo o degradación de servicios legales (como servicios de Voz sobre IP) que compiten con los servicios brindados por los operadores de telecomunicaciones.

La Comisión concluye, sin embargo, que no tenía evidencia para determinar que estas preocupaciones estuvieran justificadas, aunque reconoció que debía realizarse una investigación más exhaustiva.

Existiría consenso en que la transparencia sobre la calidad del servicio es un aspecto esencial. Teniendo en cuenta la complejidad y el carácter técnico de la multiplicidad de ofertas en Internet, debe establecerse un equilibrio entre las necesidades de simplicidad y el suministro de información detallada y adecuada. La Comisión considera que las normas sobre transparencia, distribución y calidad de servicios que forman parte de la revisión del marco de las comunicaciones electrónicas de la UE contribuirán a la generación de resultados competitivos.

Si el sistema en su conjunto no garantiza que los consumidores pueden acceder y distribuir contenidos, servicios y aplicaciones a su elección con una suscripción a Internet, la Comisión evaluará la necesidad de imponer medidas más estrictas para lograr la competencia y la elección que los consumidores se merecen. Cualquier regulación adicional debe evitar desalentar las inversiones, proteger modelos de negocio innovadores, conducir a un uso más eficiente de las redes y crear nuevas oportunidades de negocio en los diferentes niveles de la cadena de valor de Internet.

La consulta inglesa

Ofcom (Office of Communications), el regulador británico de las comunicaciones, publicó en junio del año pasado un documento (Traffic Management and ‘net neutrality’ – A Discussion Document) de debate sobre las prácticas de gestión del tráfico de Internet.

El documento reconoce que algunas redes ya están experimentando problemas de congestión debido al intenso uso. Como respuesta, los operadores de redes y proveedores de servicios de Internet (ISP) están haciendo un uso intensivo de técnicas de gestión del tráfico. Aunque la gestión de tráfico ofrece algunos beneficios a los consumidores, existe la preocupación de que las empresas utilicen la gestión del tráfico para dañar a la competencia.

Ninguna queja formal ha recibido  Ofcom sobre las políticas de gestión de tráfico que requiera su intervención. La posición inicial de Ofcom es que la conducta discriminatoria es sólo un problema potencial cuando las empresas tienen poder de mercado y potencia sus propios servicios. Ocfom no ha encontrado pruebas suficientes para justificar el establecimiento de restricciones globales sobre las formas de gestión del tráfico.

La gestión del tráfico presenta retos potenciales para los consumidores. Al comparar los diferentes servicios podría resultar difícil entender las políticas de gestión de tráfico y el impacto que estas políticas tendrían sobre su experiencia. Ofcom cree que la falta de transparencia es peligrosa ya que puede ser un problema para los consumidores. El potencial perjuicio para los consumidores podría aumentar en la medida que las políticas de gestión de tráfico se hagan más amplias y sofisticadas.

La propuesta francesa

Que los franceses crean que los problemas se solucionan regulando no es una novedad, la Neutralidad de la red parece no ser la excepción para esta tradición tan gala como Asterix. Recientemente un informe (Documento Informativo de la neutralidad de la Internet y redes) sobre la Neutralidad de la red para la Comisión de Asuntos Económicos del Parlamento francés presentado por Corinne Erhel y Laure de La Raudière, recomienda una serie de medidas para preservar el carácter abierto y neutral de Internet.

Los franceses nos presentan un pulcro y bien documentado Informe con el que se pude disentir en lo que a las políticas recomendadas, pero que constituye un revisión obligada sobre el estado del arte de la discusión de la Neutralidad de la red, con especial acento en la problemática europea y local. Absolutamente recomendable.

Se define a la neutralidad de Internet como la necesidad de ausencia de discriminación en el enrutamiento de los flujos de tráfico por Internet. El debate sobre la neutralidad, con especial atención a sus aspectos técnicos y económicos, evidencia que existe el riesgo de que los operadores de telecomunicaciones estén desarrollando prácticas no neutrales. El estado actual de la legislación no parece ser capaz de responder a este problema.

De acuerdo con el documento el debate sobre neutralidad de la red, se clarifica cuando se representa como el resultado de la superposición de tres elementos: técnico, económico y jurídico.

En lo que corresponde al debate técnico, éste tiene que ver con la forma en la que fue diseñado Internet, para funcionar de manera diferente de las redes telefónicas tradicionales: se basa en el principio de «enrutamiento de paquetes» en lugar de «conmutación de circuitos», que los hace más flexible y, a priori, menos fiable.

A esta dimensión técnica se añade una económica, de la fusión de la arquitectura de red con la teoría de los llamados mercados de dos caras, donde los intervinientes pueden remunerarse sobre dos categorías de actores que se ponen en contacto, donde una de las caras «subvenciona» a la otra.

Finalmente, tenemos a las cuestiones relacionadas con la libertad de expresión en Internet: las acciones de bloqueo y filtrado legales. Esta última dimensión del debate es esencialmente europea, y es, de alguna manera, consecuencia del debate sobre la neutralidad que se llevó a cabo con ocasión de la Ley HADOPI, y el respeto a la libertad de comunicación por aplicación de medidas administrativas para bloquear contenido de Internet, como parte de la recientemente aprobada Ley LOPSSI.

Para defender la Neutralidad de la red se propone, como primera prioridad, proteger el Internet de forma explícita en el ámbito de la regulación de las comunicaciones electrónicas.

Telefonía fijo-móvil, regulación y competencia

El Organismo Supervisor de la Inversión Privada en Telecomunicaciones (OSIPTEL), publicó este 20 de abril sendas resoluciones (Resoluciones NNº 044 y 045-2011-CD/OSIPTEL) que en lo sustantivo modifican el sistema tarifario vigente para las llamadas fijo-móvil (FM) y dan inicio al proceso para regular el nivel de las tarifas que cobrarán las operadoras fijas por dichas llamadas. De acuerdo con OSIPTEL, el objetivo de esta regulación sería el de asegurar unas tarifas razonables para los usuarios.

Es una buena noticia para los usuarios que OSIPTEL se percate (luego de quince años) que las tarifas FM se encuentran en un nivel extremadamente alto y que es necesario introducir algunas modificaciones al régimen. Sin embargo, al hacerlo, OSIPTEL vuelve a demostrarnos que está convencido que la opción regulatoria es siempre mejor que el mercado y la libre competencia. Creemos que es un error.

Los orígenes de la tarifa FM y «El que llama paga»

En 1996 se introdujo en el Perú el sistema “El que llama paga” (EQLLP) (Calling Party Pay – CPP) para las comunicaciones FM en reemplazo del sistema vigente conocido como «El que recibe paga» (Receiver Pays Principle – RPP). De acuerdo con el sistema EQLLP las llamadas FM son cargadas a los usuarios de la red fija que las originan. Asimismo, los operadores móviles fijaban libremente el nivel de estas tarifas. De esta manera, las empresas de telefonía fija facturaban y cobran a sus usuarios las llamadas FM que realizaban y conservaban para sí los cargos (peajes) de originación de llamada, facturación y cobranza y morosidad, luego debían entregar el saldo a las operadoras móviles.

Como ha ocurrido en otras latitudes, la implantación del sistema EQLLP dinamizó el mercado móvil peruano. La cantidad líneas móviles pasó de 75 mil en 1995, a 1,3 millones en el 2000, 5,5 millones en el 2005 y 27,1 millones en junio del 2010.

Dominancia en la terminación

Uno de los principales problemas del sistema diseñado por OSIPTEL fue que entregó la dominancia de la terminación de la llamada FM a los operadores móviles. En la medida que una llamada FM solamente puede terminar en la red del operador del usuario a quien se llama, se señala que se genera un monopolio en la terminación de llamada por parte de la red móvil de destino. Esta dominancia se vio exacerbada en el Perú desde que el operador móvil era quien fija la tarifa para las llamadas FM a un cliente que no era el suyo (lo era del operador fijo) y por lo tanto carecía disciplina competitiva para moderar su nivel tarifario.

Sin embargo, esta dominancia se pagó con creces con una constante expansión de las redes móviles, un incremento exponencial de la planta de abonados y una enorme gama de nuevos servicios para todas las economías familiares.

Razones que aconsejarían regular las tarifas FM

OSIPTEL, en el informe que sustenta las dos resoluciones mencionadas, advierte como única razón para regular el mercado de llamadas FM el actual nivel de concentración de la telefonía fija. Se señala que a junio de 2010, Telefónica contaba con el 74.1 por ciento del total de líneas en servicio y Movistar con el 18,5 por ciento, lo cual hacía que el Grupo Telefónica contara con el 92,6 por ciento de las líneas fijas en servicio. Su competidor más cercano sería el grupo económico formado por Telmex y América Móvil quienes ostentarían el 3,1 por ciento y el 2,8 por ciento de las líneas fijas respectivamente con un agregado del 5,9 por ciento. Dadas estas cifras se deduce que el mercado de telefonía fija de abonado presentaría un nivel de concentración muy alto.

Siguiendo esta lógica, si se permitiera al operador fijo establecer las tarifas para las llamadas FM, sería probable que se mantengan los altos niveles tarifarios que se observan actualmente.

La competencia al ático

Uno de los aspectos más debatibles de la propuesta de OSIPTEL es su visión estática de la competencia, es decir, parte de suponer que un cambio de la titularidad de las llamadas FM no alterará en lo sustancial la actual estructura competitiva del mercado.

Sin embargo, creemos que el cambio de titularidad en las llamadas FM generaría una serie de presiones competitivas que no permitirían a los operadores fijos con mayor participación en el mercado actuar con independencia de sus competidores o usuarios y por lo tanto mantener un elevado nivel de precios en las llamadas FM.

Existe numerosa evidencia que nos señala que existe un importante grado de sustitución entre la telefonía fija y móvil, incluso atendiendo a esta realidad algunos países han liberalizado su mercado de telefonía fija (Liberan mercado telefónico fijo en Chile). Siendo ello así, si los actuales precios para las llamadas FM se mantuvieran, seguiría acentuándose la tendencia de reemplazarlas por llamadas móvil-móvil (MM). Nada nos lleva a concluir que las operadoras fijas van a actuar en contra de sus intereses en beneficio de los operadores móviles.

Asimismo, se olvida que en el mercado peruano existen costos relativamente bajos para competir en el segmento de llamadas FM. Efectivamente, un cambio en la titularidad en las llamadas FM, permite que cualquier operador con una concesión de telefonía fija a través del sistema de interoperabilidad pueda vender llamadas FM. De esta forma, todas las operadoras fijas estarían en la capacidad de ofrecer llamadas FM a los propios abonados de Telefónica o Telefónica Móviles, lo cual generaría con seguridad una gran diversidad de nuevos planes y productos y mantendría las tarifas a un nivel considerablemente menor el que conocemos en la actualidad.

En lo particular, estimamos que la regulación de determinada actividad económica sólo se acoseja cuando no existe posibilidad de introducir competencia. Los intervencionistas, suelen olvidar que la regulación estatal suele tener costos asociados muy elevados como la utilización de fondos públicos que podrían tener un mejor destino, costos de monitoreo, daño al sistema de precios y costos asociados al poder coercitivo del Estado.

En este caso lo que no se logra entender es que se decida regular la llamada FM luego de quince años de no hacerse en un entorno de nula competencia y se decida hacerlo cuando aparecen presiones competitivas que nos aconsejarían actuar en el sentido contrario.

Cerco a la Biblioteca de Babel

A mediados del 2009 comentamos (¿Le llegó la hora a Google?) acerca de algunos de los problemas legales que enfrentaba el proyecto Google Books (antes conocido como Google Book Search y Google Print). En particular advertimos de las críticas que venía recibiendo el acuerdo que alcanzara Google con la industria editorial (Authors Guild y Association of American Publishers). Curiosamente, fue la propia industria editorial la que inicialmente demandó a Google por considerar que su intento para crear una moderna biblioteca de Alejandría a partir de la masiva digitalización inconsulta de libros de los repositorios de un puñado de bibliotecas vulneraba sus derechos de autor. Sin embargo, Dios los crea y ellos se juntan.

Breves antecedentes

En octubre de 2008, la industria editorial y Google suscribieron un Acuerdo de Solución (Settlement agreement) que ponía fin al pleito que mantenían en los tribunales. Sin embargo, las cosas no fueron tan fáciles. El Acuerdo inicial fue aprobado provisionalmente por el juez John E. Sprizzo poco antes de que falleciera y entró en vigencia en noviembre 2008. No obstante, la solución propuesta disparó una serie de críticas que motivó a que las partes presentaran un Acuerdo modificatorio para su aprobación final de acuerdo con las reglas del proceso. Pero la aprobación definitiva deberá esperar. Este 22 de marzo, el Juez Denny Chin de la Corte de Apelaciones del Segundo Circuito rechazó el Acuerdo al considerar que no es justo, ni adecuado y tampoco razonable.

Básicamente, el Acuerdo autoriza a Google a: (1) continuar con la digitalización de libros y encartes; (2) vender suscripciones de libros de una base de datos electrónica; (3) vender el acceso en línea de libros individuales; y, (4) insertar publicidad en las páginas de los libros. Google pagará a los titulares de los derechos el 63% de todos los ingresos recibidos por estos usos. Asimismo, en uno de sus aspectos más cuestionados, crea una Fiduciaria encargada de administrar las obras no reclamadas (Unclaimed Works Fiduciary).

La Opinión del Juez

Chin cree es al Congreso y no a Google a quien le corresponde encargarse de la tutela de las obras huérfanas, así como de determinar bajo qué condiciones deben ser explotadas. Recuerda que la Corte Suprema ha sostenido que «corresponde en general al Congreso, no a los tribunales, decidir la mejor manera de ejercer la cláusula de los objetivos del copyright» (Eldred v. Ashcroft, 537 EE.UU. 186, 212 (2003) y Sony Corp. v. Universal City Studios, Inc., 464 EE.UU. 417, 429 (1984). Sin embargo, el Acuerdo otorga a Google pleno acceso a explotar una serie de obras con derechos de autor que de otro modo no tendría derecho a explotar.

El Acuerdo permite a Google dedicarse descaradamente a copiar libros al por mayor, sin obtener los permisos de los titulares de los derechos de autor correspondientes. Mientras que, sus competidores están obligados a transitar por un cuidadoso y costoso proceso para obtener dichas autorizaciones.

Recuerda el magistrado que en este contexto los intereses de la industria editorial a veces están en conflicto con un gran número de titulares de los derechos de autor. Menciona especialmente el caso de muchos autores académicos que no comparten el afán de lucro de la industria, así como que este afán de lucro está en contradicción con los intereses de los propietarios de las obras no reclamadas, pues las partes que suscriben el Acuerdo tienen pocos incentivos para identificar y localizar a los propietarios de las obras huérfanas, en la medida que mientras menos cláusulas de responsabilidad, existirán más obras no reclamadas que Google puede explotar.

El Juez Chin criticó la estructura fundamental del Acuerdo desde el punto de vista de los derechos de derechos de autor. El fallo articula un precepto básico del derecho de autor a partir de cual los propietarios tienen incluso el derecho de optar por no hacer nada con sus obras. Sin embargo, en el marco del Acuerdo si los propietarios de los derechos de autor no hacen nada, pierden este derecho.

Otro aspecto que preocupa a Chin es que, aunque la propuesta de acuerdo fue revisada para limitar la explotación de obras de cuatro países (Estados Unidos, Reino Unido, Canadá y Australia), muchas obras extranjeras están registradas en los Estados Unidos. De esta forma, los titulares titulares extranjeros están en desventaja para determinar si se encuentran dentro del marco del Acuerdo y para hacer valer sus derechos. El tribunal declaró explícitamente que no consideraba que el Acuerdo violaba las normas internacionales de los derechos de autor. Sin embargo, los intereses de los titulares extranjeros de derechos de autor era una razón más para dejar al Congreso resolver este tema.

Finalmente, el Juez Chin consideró que gran parte de la preocupaciones planteadas al Acuerdo podrían ser revertidas si se cambiaba su estructura de una solución del tipo opt-out a una del tipo opt-in, es decir basado en el consentimiento, e  insta a las artes a considerar una revisión del Acuerdo en este sentido.

¿Y ahora que…?

De acuerdo con algunos especialistas son tres los pasos que podría seguir Google y la industria editorial: (i) aceptar la invitación para convertir la propuesta en una del tipo opt in, (ii)  abandonar el Acuerdo y regresar al pleito, con los riesgos y gastos que ello implica, y, (iii) apelar al Segundo Circuito la decisión del Juez.

Recomendamos

James Grimmelmann, Inside Judge Chin’s Opinion

Kenneth Crews, Google Books: Copyright Settlement Rejected

Randy Picker, Moving Forward in Google Book Search

Mary G. Mayiladumpara: Google Books and Digitisation of Libraries: Fair Use or Extension of Copyright? (pdf)

Eric M. Fraser: Antitrust and the Google Books Settlement: The Problem of Simultaneity (pdf), Stanford Technology Law Review.

Matthew Sag: The Google Book Settlement and the Fair Use Counterfactual (pdf), New York Law School Law Review.

AT&T estrena nueva política para su DSL

Hace unos años, Robert M. McDowell, en ese momento consejero de la Federal Communications Commission (FCC), señaló (Who Should Solve This Internet Crisis?) que Internet estaba en crisis y que en hora pico, sólo el 5 por ciento de los usuarios consumía el 90 por ciento del ancho de banda (¿Está en peligro Internet?). El problema no se ha solucionado. Según datos contenidos en el informe anual de Cisco Visual Networking Index (VNI) 2009-2014, se estima que el tráfico global se incrementerá más de cuatro veces desde el 2009 a 767 exabytes para el año 2014, cantidad equivalente a 10 veces el tráfico de todas las redes de Internet en el 2008. Uno de los mecanismos que vienen implementando algunos operadores de telecomunicaciones para paliar en parte este problema es el establecimiento de tarifas sensibles al tráfico en lugar del modelo de tarifa plana imperante hasta el momento.

Canadá aprueba tarifa sensible al uso

En enero de este año la Comisión Canadiense de Radiodifusión y Telecomunicaciones (Canadian Radio and Telecommunications Commission – CRTC), regulador de las telecomunicaciones de Canadá, aprobó (Decision CRTC 2011-44) una solicitud de Bell Aliant y Bell Canada para implementar una tarifa de banda ancha mayorista (Usage-Based Billing – UBB) para los ISPs independientes. De acuerdo con la solicitud, Bell Canada establecería un límite de 25 GB al mes por abonado, más un recargo de CAN$ 1.90 por GB de exceso para la mayoría del país y CAN$ 2.35 para la región francófona. La medida debió entrar en vigencia inicialmente el 1 de marzo.

La reacción ante la autorización de la CRTC no se hizo esperar. Una petición con más de 200 mil firmas (aquí) y miles de correos electrónicos fueron enviados al Ministro de Industria,  Tony Clement. Las críticas arreciaron en los medios de comunicación en un contexto político particularmente caldeado, tanto que terminó hace unos días con la caída del Primer Ministro  canadiense (aquí). La oposición liberal como el reciente Partido Democrático fueron los primeros en oponerse políticamente a la decisión de la CRTC.

La administración canadiense reaccionó a estas críticas y el 2 de febrero, el Primer Ministro, Stephen Harper, y su Ministro de Industria solicitaron a la CRTC que diera marcha atrás. Al día siguiente, la CRTC anunció que retrasaba la vigencia de su decisión por 60 días.

AT&T tras la huella de Comcast

El último 20 de marzo, AT&T aprobó un cambio en sus Políticas de Uso Aceptable (AUP) de acceso a Internet, estableciendo un modelo de tarifa escalonada y topes de descarga. Los topes de descarga establecidos son de 150 GB al mes para los usuarios DSL y 250 GB al mes para los abonados del servicio U-Verse de fibra hasta el nodo (Fiber-to-the-node – FTTN). Aquellos clientes que excedan estos límites tendrán que abonar un monto de US$ 10 por cada 50GB de consumo adicional. Asimismo, AT&T notificará a los usuarios cuando éstos consuman el 65, 90 y 100 por ciento de su límite mensual e implementará una herramienta de seguimiento de uso mensual. El nuevo sistema estará vigente desde este 2 de mayo.

La empresa justifica (Broadband Usage FAQs) su decisión en un dramático aumento del tráfico de sus redes de banda ancha. Este incremento estaría impulsado básicamente por una pequeña fracción de sus clientes. AT&T afirma que el 2 por ciento de sus usuarios utiliza el 20 por ciento de la capacidad total de la red. Señala que un abonado de alto tráfico puede consumir la capacidad de ancho de banda de 19 hogares típicos. Este patrón de consumo causa congestión en la red, ralentizan la velocidad de Internet e interfiere con el normal acceso de otros usuarios.

A pesar del efecto mediático que ha tenido la medida, AT&T no es la primera empresa de acceso a Internet en los Estados Unidos que toma una decisión de este tipo. En octubre de 2008 Comcast estableció un tope de descarga mensual de 250 GB al mes para sus clientes residenciales. Si un abonado supera este umbral por dos veces en un lapso de seis meses, Comcast puede dar por terminado el contrato. De la misma forma, Charter Communications (el cuarto operador de cable más importante de los Estados Unidos) impone un límite similar dependiendo del paquete contratado, los cuales incluyen topes desde los 100 GB a 500 GB al mes para abonados residenciales. Otros operadores como Verizon todavía no han incorporado esta política, aunque anuncian que la vienen estudiando.

Algunos sostienen que los principales afectados con los modelos de tarifas sensibles al tráfico son los servicios de entrega de contenidos como Spotify o Rdio (Google viene desarrollando un servicio de streaming de música para móviles similar). El problema con estos servicios es que su viabilidad parecería depender de la capacidad de descarga que brindan los proveedores de acceso, y si bien las limitaciones impuestas son generosas para los estándares actuales, señalan que no siempre 100 GB o 200 GB serán una gran cantidad de datos. The Economist da un paso más y pone al centro de la discusión al video por Internet. Sostiene que los servicios que se brindan en Internet como la transmisión de señales en vivo, sistemas de provisión de contenidos soportados en publicidad como Hulu, descargas legales de episodios de series y películas o descargas piratas de archivos a través de redes peer-to-peer, representan una alternativas real frente a la oferta de contenidos a través del cable. La implementación de una tarifa sensible al tráfico permite que los proveedores de acceso a Internet a través de las redes de cable, al mismo tiempo que multiplican la capacidad de transmisión del cobre, separar una parte del ancho de banda para sus propias señales de vídeo como la provisión regular de cientos de canales en formato digital, mientras que por otro lado restringen la capacidad de los servicios similares que se brindan a través de Internet. Al parecer, The Economist ve aquí un problema vinculado con la neutralidad de la red (Otro clavo para el martillo de la neutralidad de la red).

No sólo es un problema de costos

La idoneidad de la implementación de tarifas sensibles al tráfico es un asunto importante, incluso en el Perú la implementación de este tipo de tarifas ameritó la intervención de OSIPTEL, aunque el debate académico local sobre su idoneidad apenas se ha producido.

En Blawyer hemos señalado hace mucho que los sistemas de tarifas sensibles al tráfico por los servicios de banda ancha son racionales y están justificadas (¿Es Internet como una carretera? y ¿Es malo que pague más quien más consume?). En el mundo cotidiano casi no existen precios por productos o servicios que no tengan en cuenta en alguna medida un componente de uso. Se podrá argumentar que en ese mundo existe un costo por cada bien o servicios adicional que se provee, lo que no ocurre en Internet donde el costo marginal por bit transmitido es muy pequeño. Sin embargo, un sistema de tarifa por tráfico también es un mecanismo válido para gestionar los problemas de congestión, lo mismo ocurre con las carreteras que tienen un costo marginal muy pequeño pero se han implementado modelos de peaje para solucionar los atascos que se producen en las horas de mayor tráfico.

Nuevas tecnologías: Qué dicen los candidatos

Estamos a escasas semanas de las elecciones generales que decidirán al próximo Presidente del Perú para el período 2011-2016. En lo que al proceso respecta, éste discurre apacible lejos del mundanal ruido tan común en otros tiempos. Mejor. En este periodo calmo, más allá de las tonterías de rigor con que nos sorprenden regularmente los políticos criollos, como exigir el paso obligado de los candidatos por la peluquería para descubrir posibles vicios non sanctos, es poco lo que nos vienen a decir los partidos sobre qué es lo que harán en caso lleguen a Palacio.

Como todos los candidatos juegan al mudo en lo que detallar sus políticas de Estado se refiere, podemos acudir a la página web del Jurado Nacional de Elecciones para consultar qué es lo que dicen sus planes de gobierno.

En esta entrada haremos un recuento de lo que hemos encontrado en los mentados planes de gobierno sobre tecnologías de la información y las telecomunicaciones. Los planes de gobierno que he revisado son los de aquellos partidos que según mi humilde opinión creo que tienen alguna posibilidad llegar a la segunda vuelta.

Perú Posible (Alejandro Toledo): Red dorsal y satélite INCASAT.

Toledo nos promete un Proyecto Huascarán recargado, con la meta de alcanzar el 70 por ciento de escuelas y colegios del país con acceso a Internet  e interconexión satelital en todos los distritos del país.  Además, brindar acceso a Internet de banda ancha en zonas rurales del país.

Se plantea el lanzamiento del satélite INCASAT. De acuerdo con el Plan la adquisición de un satélite permitirá brindar acceso a Internet a las poblaciones rurales y urbanas, llegando alcanzar con este servicio a todos los lugares del país.

El objetivo central para el sector de las telecomunicaciones es cubrir el 100 por ciento de las poblaciones (no que eran los distritos o son sinónimos) del territorio nacional con servicios de telecomunicaciones rurales de banda ancha, mediante una red dorsal de fibra óptica y un sistema doméstico satelital de comunicaciones.

En lo que a la promoción de la competencia y marco regulatorio de las telecomunicaciones encontramos algunas generalidades como consolidar la competencia para reducir las tarifas, mejorar los servicios y modernizar el marco normativo de promoción y regulación de las telecomunicaciones y tecnologías de la información.

Alianza por el Gran Cambio (Pedro Pablo Kuczynski): Centros comunitarios

Para el 2021 todos (mismo Suiza) deben tener agua, luz e Internet en sus casas, salvo las zonas rurales más apartadas. Asimismo, promete desarrollar soluciones imaginativas para cerrar la brecha digital, como aquella en la que las grandes empresas contruyan y equipen centros deportivos y culturales para los jóvenes: pequeños complejos que tengan espacio para una cancha de fútbol, otra de vóley, un gimnasio y una biblioteca con acceso a Internet.

Solidaridad Nacional (Luis Castañeda): «Todos los colegios con acceso a Internet»

Asegurar que todos los colegios públicos cuenten con acceso de Internet y bibliotecas virtuales. El Ministerio de Economía (en realidad es el Ministerio de Transportes y Comunicaciones a través del FITEL) continuará con el financiamiento de la expansión de la infraestructura productiva, como Internet de banda ancha, tanto en las modalidades de inversión pública, como de iniciativa privada y asociaciones público privadas.

Gana Perú (Ollanta Humala): «Núcleo infraestructural y planificación central»

Propone establecer como un derecho el acceso a Internet y a la sociedad de la información. Asimismo, promete crear centros juveniles (con cabinas Internet y libros actualizados).

En lo que es la propuesta más discutible -y disparatada- propone diseñar -y supongo implementar- una serie de redes paralelas en forma de malla con una matriz de seis ejes transversales y tres longitudinales de unos 9 mil kilómetros que en forma de plantilla virtual se superponga sobre el mapa del Perú, esto vendría a llamarse «núcleo infraestructural». De esta forma como moderno tejido sanguíneo en esta visión fisiocrática se proveerá de energía eléctrica, gas natural, tren y fibra óptica en bloque como si fuera un solo trazo dentro de la propia malla. El ferrocarril corre por la vía férrea, que es alimentada por energía eléctrica a través de los pantógrafos y tanto la fibra óptica como las tuberías de gas se instalarán debajo o al costado de la vía férrea.

En lo que corresponde a las telecomunicaciones, se nos dice que su acceso debe ser universal y debe servir a la educación, la pacificación y de afianzamiento de la conciencia nacional. Reconoce que las telecomunicaciones cumplen un rol fundamental para la seguridad y defensa nacional y como no podía ser de otro modo, propone la creación de una empresa estatal de telecomunicaciones, con participación pública o público-privada.

No es todo, siguiendo con la planificación central, se propone que las telecomunicaciones tendrán una red única, con aplicación de la tecnología digital que priorice a la fibra óptica que se instalará en el núcleo infraestructural.

Fuerza 2011 (Keiko Fujimori): «Internet para todos»

Propone impulsar un ambicioso programa -según propia declaración-, que permita, basándose en los programas de telefonía rural implementados exitosamente desde los noventa, el acceso a internet.

Asimismo, impulsar la simplificación administrativa para reducir los trámites y sus costos, de manera que los ciudadanos no tengan que enfrentarse a la discrecionalidad de malos funcionarios públicos. Agilizar y simplificar los procedimientos administrativos, mediante la interconexión de las entidades del Estado.

Lo que no dice ningún programa es cómo se va a financiar tanta belleza.

Lo que aprendimos del Google-Verizon affair

Google trató de venderse durante mucho tiempo como el bastión de la libertad en Internet. Su Don’t be evil parecía resumir bien la política de una empresa dedicada a brindar los mejores servicios posibles a sus consumidores en forma “gratuita” y eficiente. Con el tiempo, su expansión lo hizo renunciar parcialmente a esta imagen: ahora tenía más activos e intereses en todo el mundo y no podía jugar al laissez-faire con cualquiera, digamos, el gobierno Chino. Pero la reciente propuesta legislativa sobre Neutralidad de Red que publicó junto a Verizon, su principal socio comercial en el mercado de móviles, ha terminado por convertir a Google en ese tipo ahora adinerado que se olvidó de sus viejos amigos. ¿Se vendió realmente Google?

Lo cierto es que el policy statement de Google/Verizon tiene muchas coincidencias con la propuesta que la FCC hizo pública el pasado octubre para comentarios. Ambas proscriben el bloqueo de contenido legal y la posibilidad de conectar aparatos legales a la red, al tiempo que promueven la transparencia en la gestión de red y la no discriminación arbitraria de contenidos o aplicaciones. Solo se distinguen cuando Google y Verizon pretenden excluir al mercado de acceso a Internet de banda ancha inalámbrico de este tipo de reglas y en lo que respecta al poder de la FCC para regular directamente el tema. Jonathan Zittrain tiene un extenso análisis del tema.

Pero el principal eslogan que se cayó el mes pasado es que la batalla por la Neutralidad de Red es de blancos y negros, de buenos y malos. Nadie, salvo alguien en completa ignorancia sobre el estado actual del mercado de servicios de acceso, puede sostener que todo trato diferenciado de paquetes de datos por parte de las operadoras es ilegal. La end-to-end architecture es vital para que Internet continúe siendo un campo fertil para la innovación pero en su traducción legal: la proscripción de que se establezcan vía código barreras de entrada al mercado de aplicaciones y servicios en Internet que reduzcan el nivel de competencia y de las cuales se deriven ineficiencias. Las normas de libre competencia cubren bien ese escenario. El problema cuando se abre la tapa de regular la Neutralidad de red son las normas que se pueden colar con ella, como son los casos donde la discriminación está permitida y peligro de captura.

De eso se trata el Google/Verizon affair: dos empresas con un plan de negocio en torno a los terminales con Android y el peligro de que la viabilidad del mismo sea eliminada por una norma de Neutralidad de Red aplicable al acceso inalámbrico buscando con locura un blindaje regulatorio. Con gran tacto, la FCC ha sabido aprovechar la coyuntura y ha dicho la semana pasada: OK, estamos llegando a ciertos consensos y aún debemos de explorar otros (como los de las redes móviles y los servicios especiales, que merecen un post aparte). Así, los primeros consensos que la FCC ha identificado son:

  1. que los proveedores de acceso no deben prohibir a sus usuarios enviar y recibir contenido “legal”, usando las aplicaciones “legales” de su preferencia o conectando los aparatos “legales” que consideren a la red, al menos en redes wireline;
  2. que los proveedores deben de transparentar sus prácticas de gestión de red;
  3. que, respecto del manejo de tráfico “legal”, debe de atacarse de alguna forma la discriminación;
  4. que los proveedores de acceso deben de poder llevar a cabo prácticas de gestión de red respecto de la congestión y tráfico no deseado o peligroso para la red; y,
  5. en un panorama cambiante, sería mejor hacer efectivas las obligaciones de la open Internet a través de un análisis caso por caso en lugar de reglas estrictas cuyas consecuencias son difíciles de medir.

Los que aprendimos del Google/Verizon affair, estemos de acuerdo o no con lo que proponen, es que las posturas extremas polarizan el debate. Y que este debate sobre ceros y unos, en particular en Estados Unidos, está muy lejos de ser uno en el que alguno de los extremos tenga la solución.

Foto: Steve Rhodes (CC BY NC-ND)