Comisión de la Mujer cambió para mejor la Ley Chehade

Esta semana se hizo público el Dictamen de la Comisión de la Mujer y Familia del Congreso sobre el Proyecto de Ley No. 2511/2012-CR presentado por el congresista Omar Chehade que planteaba un esquema de censura previa de contenidos en Internet y ponía en riesgo la libertad de expresión en línea en Perú.

El nuevo texto se aleja de la mirada pesimista de la tecnología del proyecto original y reconoce que la propuesta original era insostenible. En cambio, se enfoca hacia una solución más profunda y documentada del problema, superando el modelo de prohibición e intervencionismo estatal. En esa línea, el Proyecto ahora propone que el Estado juegue un rol facilitador en alianza con la empresa privada para desarrollar estrategias que eduquen a las familias sobre la importancia del uso responsable de Internet. Continuar leyendo

Sobre las leyes de Internet en el Perú

En una entrevista para el blog Globalizado de Juan Arellano, el blawyer Miguel Morachimo de Hiperderecho habló de los riesgos que se ciernen sobre Internet en Perú. Al respecto, señaló que la salud nuestro ecosistema digital no depende de más o menos normas sino de la posibilidad efectiva de que las autoridades las hagan cumplir.

La nota completa en la entrada ¿Hay un Internet libre en el Perú? de Globalizado. Nos tomamos la libertad de reproducir la entrevista a Miguel.

La nacionalización de la Red

El Instituto Juan de Mariana ha “liberado” el libro de Albert Esplugas Boter: «La comunicación en una sociedad libre. Una crítica liberal al statu quo» (aquí) lo cual es de agradecer. El texto de Espulgas constituye un análisis de los principios éticos que fundamentan una sociedad libre teniendo para ello como piedra angular el respeto a la propiedad privada, tan socavada en los últimos tiempos.

En lo que nos interesa, destacamos dos capítulos, aquél referente a la apropiación del espectro por parte del Estado con todas las ineficiencias harto conocidas (a lo que no nos dedicaremos); y, el intento de nacionalizar (léase estatización o socialización) las infraestructuras de Internet a través de iniciativas del tipo neutralidad de la red (Net neutrality).

El análisis es sencillo. Hasta determinado momento, las redes interconectadas que integraban Internet eran de propiedad de las empresas de cable y telefonía, las cuales habían gestionado estas redes de acuerdo con el principio de la neutralidad. Es decir, permanecían neutrales respecto de la informacuión transmitida, sin modificarla o priorizarla.

No obstante, con la explosión del tráfico cursado a través de estas redes algunas empresas se ven en la necesidad de imponer determinadas restricciones y a discriminar entre usuarios. Como lo haría cualquier propietario. Por ejemplo, algunas de estas compañías ofrecen servicios priorizados a determinados proveedores de contenidos a cambio de una contraprestación mayor (¿Es Internet como una carretera? y ¿Es malo que pague más quien más consume?) o paquetes con limites de descargas para los consumidores (AT&T estrena nueva política para su DSL).

La posibilidad de que se impusieran estas políticas no neutrales desataron una agría polémica que todavía no termina de resolverse. Los defensores de la neutralidad afirman que si se permite a los propietarios de las infraestructuras de Internet discriminar entre determinados usos y fijar precios diferenciados en función de éstos se atenta contra los principios fundacionales de Internet.

Espulgas ve estas restricciones como el resultado inevitable de la escasez de ancho de banda. En la medida que es materialmente imposible que todos los usuarios utilicen la Red al mismo tiempo, sin límite alguno, es necesario administrar su uso. La pregunta entonces, no es si debe restringirse Internet, sino cómo debe hacerse.

La respuesta liberal a esta cuestión debiera ser siempre la misma. El propietario de un bien escaso debe decidir su mejor uso. Sin embargo, voces mayoritarias reclaman que el Estado debe imponer legislativamente el criterio de la neutralidad para que los propietarios de las infraestructuras, bajo la excusa de su congestión, no desplieguen prácticas anticompetitivas y restrinjan los contenidos de sus competidores.

Espulgas cree que estos miedos son infundados sobre la base de cuatro consideraciones:

Primero, el sistema de precios permite orientar los recursos hacia los usos más demandados. Un factor se desplaza al sector productivo que mejor se remunera, previendo el empresario que ha invertido en este factor que recuperará la inversión cuando los consumidores paguen por el bien o servicio. En el caso de la banda ancha, un sistema de precios libre, permite que aquellos que ansían con mayor ahínco un bien, paguen más por él. Si se permite la discriminación y fijar precios diferenciados, aquellos que quieran una mayor capacidad podrán obtenerla pagan el mayor precio. La neutralidad de la red en esencia, no sólo no soluciona el problema de la congestión, sino que lo agrava.

Segundo, el cobro por unos servicios diferenciados incrementa los ingresos de las compañías propietarias de las redes  y haría -en un escenario competitivo- más atractiva la inversión en nuevas redes y en el desarrollo de Internet. Por el contrario, la imposición de la neutralidad de la red equivale a una regulación por precio máximo y por ende se reducen los incentivos para invertir.

Tercero, el propietario de la red tiene derecho a decidir qué es lo que circula por ella. No obstante, en un entorno competitivo, un operador difícilmente decidirá bloquear determinados contenidos, pues sus abonados podrán marcharse al operador que no los bloquea. El problema es que los entornos no suelen ser competitivos por el accionar de las propias autoridades del Estado.

Cuarto, la neutralidad de la red menoscaba la competencia, no la incentiva, si todas las redes van a ofrecer lo mismo, desparece la posibilidad de que los operadores entrantes diseñen sus redes para atender nichos de mercado específicos. Es decir, la oferta de los entrantes será idéntica que la del incumbente.

Coincido en gran parte, una visión distinta entre tato discurso intervencionista monocorde.

Net neutrality con sabor a café

Hace algunos meses, diversos grupos de ciberactivistas gozaron con la aprobación del Plan Nacional de Desarrollo de Colombia para el período 2010-2014, dispositivo que incluye un texto que garantiza la Neutralidad de Internet (léase Neutralidad de la red). Sin embargo, hay que tomar las cosas con calma pues existen casi tantas definiciones de la Neutralidad como ciberactivistas en el mundo hay, algunas ideas sobre el particular ya hemos soltado por estos lares (Los seguidores de la Net Neutrality se anotan una victoria).

Reproducimos la norma:

Artículo 56°. NEUTRALIDAD EN INTERNET. Los prestadores del servicio de Internet:

1) Sin perjuicio de lo establecido en la Ley 1336 de 2006, no podrán bloquear, interferir, discriminar, ni restringir el derecho de cualquier usuario de Internet, para utilizar, enviar, recibir u ofrecer cualquier contenido, aplicación o servicio lícito a través de Internet. En este sentido, deberán ofrecer a cada usuario un servicio de acceso a Internet o de conectividad, que no distinga arbitrariamente contenidos, aplicaciones o servicios, basados en la fuente de origen o propiedad de éstos. Los prestadores del servicio de Internet podrán hacer ofertas según las necesidades de los segmentos de mercado o de sus usuarios de acuerdo con sus perfiles de uso y consumo, lo cual no se entenderá como discriminación.

2) No podrán limitar el derecho de un usuario a incorporar o utilizar cualquier clase de instrumentos, dispositivos o aparatos en la red, siempre que sean legales y que los mismos no dañen o perjudiquen la red o la calidad del servicio.

3) Ofrecerán a los usuarios servicios de controles parentales para contenidos que atenten contra la ley, dando al usuario información por adelantado de manera clara y precisa respecto del alcance de tales servicios.

4) Publicarán en un sitio web, toda la información relativa a las características del acceso a Internet ofrecido, su velocidad, calidad del servicio, diferenciando entre las conexiones nacionales e internacionales, así como la naturaleza y garantías del servicio.

5) Implementarán mecanismos para preservar la privacidad de los usuarios, contra virus y la seguridad de la red.

6) Bloquearán el acceso a determinados contenidos, aplicaciones o servicios, sólo a pedido expreso del usuario.

Parágrafo. La Comisión de Regulación de Comunicaciones regulará los términos y Condiciones de aplicación de lo establecido en este artículo. La regulación inicial deberá ser expedida dentro de los seis meses siguientes a la entrada en vigencia de la presente Ley.

Antes que nada, cabe destacar que como en el caso chileno (Neutralidad de red a la chilena), pareciera que nuestros legisladores aprovechan el pánico y bajo la excusa de regular la Neutralidad de la red se lanzan furiosos a reglamentar también una serie de aspectos que poco o nada tienen que ver con este tópico. Sólo los numerales 1) y 2) del artículo 56o están relacionados con la Neutralidad de la red. De los otros cuatro, tres encarecen los costos generales de la provisión del servicio de acceso a Internet y por lo tanto perjudican, más que benefician, a los usuarios. El restante (el numeral 4) parece razonable.

En lo que nos interesa, el Plan Nacional hace inicialmente referencia a la Ley 1336 de 2006 (parecería que es un error, pues la norma aludida es en realidad del 2009), contra la explotación, la pornografía y el turismo sexual con niños, niñas y adolescentes, la cual obliga a los establecimientos abiertos al público que brindan acceso a Internet o café Internet a tener un código de conducta cuyo incumplimiento implica la expulsión del servicio de los usuarios infractores (artículo 4o).

En lo que viene a ser la declaración del principio de la neutralidad de la norma (numeral 1), se establece como un derecho de los usuarios de Internet el utilizar, enviar, recibir u ofrecer cualquier contenido, aplicación o servicio lícito a través de Internet sin que pueda ser bloqueado, interferido, discriminado o restringido por los prestadores del servicio de Internet. Sin embargo, se mediatiza este derecho en la medida que los mentados prestadores pueden hacer ofertas según las necesidades de los segmentos de mercado o de sus usuarios de acuerdo con sus perfiles de uso y consumo, lo cual no debe entenderse como discriminación. Bajo este último enunciado parecería que, por citar algún ejemplo, el tan recordado caso Speedygate o los cuestionados en su momento planes de Movistar por diferentes contenidos tendrían vía libre.

Otro aspecto a tener en cuenta es la obligación (numeral 3) que tienen los prestadores de ofrecer filtros parentales contra “contenidos que atenten contra la ley“. Suena una obligación muy extensa: sexo, pedofilia, porno duro, porno blando, drogas, tabaco y un largo etc. Pareciera que dicha obligación tiene que en todo caso que concordarse con el numeral 6) sólo a pedido expreso del usuario.

Veremos que es lo que dice la Comisión de Regulación de Comunicaciones (CRC) que a fin de cuentas es quien tendrá que elaborar el reglamento.

Twitter, paloma o águila

Hace unos días The Wall Srteet Journal anunció (Antitrust Regulator Makes Twitter Inquiries) que la Comisión Federal de Comercio (Federal Trade Commission) de los Estados Unidos, o léase mejor la Agencia de Competencia del gigante del norte, tendría bajo la lupa Twitter por posibles prácticas anticompetitivas con relación a su interfaz de programación de aplicaciones o API (Application Programming Interface). A través de esta interfaz, Twitter permite que terceras empresas accedan a los “tweets” de sus usuarios. Estas empresas han sido muy importantes para Twitter pues desarrollaron una serie de programas que fueron muy importantes para su crecimiento dado que permitían una serie de acciones que no se podían hacer con el minimalista desarrollo de Twitter, como ordenar, organizar y búscar “tweets”.

El motivo para iniciar esta investigación no es muy claro, sin embargo podría estar relacionado con los nuevos términos para los desarrolladores (Twitter to developers: we want to own the pipes, water, and faucets, but feel free to make soap), el bloqueo de algunos de estos servicios brindados por terceros (War Is Hell: Welcome to the Twitter Wars of 2011) o con su adquisición directa por Twitter (como TweetDeck y Tweetie). Twitter al parecer pretende evitar que terceros compitan directamente con la venta de publicidad -fuera de su plataforma- como una forma de potenciar sus ingresos. Con el robustecimiento del ecosistema Twitter estas terceras empresas pasan de ser complementos necesarios para su crecimiento a competidoras directas por el mercado publicitario.

Sobre la posible investigación que estaría desarrollando la FTC, son varias las preguntas que deberíamos hacernos al respecto, las más importantes: (i) ¿cuál es el mercado relevante? y (ii) ¿Donde está el daño?

Cuál es el mercado relevante

Un aspecto central en toda investigación de libre competencia es determinar cuál es la posición de la empresa sujeta a investigación en el mercado bajo análisis. Para ello es necesario determinar primero cuáles serán los contornos específicos de este mercado.

En lo que nos importa, el producto o servicio relevante, debe ser definido a partir del producto ofrecido por Twitter, es decir, el producto demandado por los consumidores supuestamente afectados por el abuso de posición de dominio. El producto relevante debe incluir a todos los productos que resulten buenos sustitutos de aquél.

Twitter, creado en marzo de 2006, estima que cuenta ya con más de 200 millones de usuarios, genera unos 65 millones de tweets al día y maneja más de 800 mil peticiones de búsqueda diarias. Estimamos que Twitter podría ser uno de decenas de productos de comunicación y de acceso a la información, como blogs, servicios de mensajes cortos, de mensajería instantánea, redes sociales, correos electrónicos, llamadas telefónicas, canales de RSS, incluso los noticieros de radio y televisión y hasta periódicos.

La juventud e inmadurez de este mercado es tanta que resultará muy complicado definirlo, por lo tanto no parece aconsejable tampoco mover ficha todavía para una investigación anticompetitiva o su regulación.

Dónde podría estar el daño

También la existencia de un posible daño al mercado es altamente cuestionable. Los ingresos de Twitter en el tercer trimestre del 2009 fueron sólo un modesto US$ 400 mil seguido de un más robusto US$ 4 millones en el 4 trimestre del mismo año. Se calcula que sus costos de operación ascienden a US$ 1 dolar por abonado (Twitter’s Financial Forecast Shows First Revenue In Q3, 1 billion users in 2013). En 2010, Twitter introduce la venta de publicidad, y obtiene unos ingresos de US$45 millones de dólares al año con una proyección de US$ 150 millones para este año (Twitter triplicaría sus ingresos por la venta de publicidad). Si comparamos el costo del servicio por usuario no parece que la operación esté todavía en azul.

No debemos olvidar que la operación de Twitter no le cuesta nada a los suscriptores y así es absolutamente lógico que intente robustecer sus ingresos por publicidad, que en suma significa la sostenibilidad en el largo plazo de la operación. Los usuarios no se perjudican con ello.

El fantasma de la neutralidad

Detrás de todo este tema parece estar de nuevo el fantasma de la neutralidad bajo la forma de la Application Neutrality (Que el portero marque tarjeta: Google Neutrality). La Neutralidad es una variante del principio de acceso abierto contenido en algunas regulaciones de servicios públicos, donde se impone a la empresa propietaria de determinada infraestructura que la ceda a sus rivales de forma no discriminatoria.

La Neutralidad de las aplicaciones o el establecimiento de una obligación de acceso forzado constituiría un error. Si Twitter decide monopolizar su ecosistema no deberíamos limitarlo, es su derecho. Si lo hace, aun cuando en el corto plazo sus ingresos aumenten, la plataforma terminará perdiendo valor y su futuro será incierto, pues será menos innovativa en la medida que los terceros que la enriquecieron estarán haciendo lo propio en otras plataformas. Así funciona este mercado y no debiéramos  entorpecer esta dinámica.

Recomendamos:

Adam Thierirer: Twitter, the Monopolist? Is this Tim Wu’s “Threat Regime” In Action?; y, A Vision of (Regulatory) Things to Come for Twitter?

Net neutrality, el turno de Europa

La Neutralidad de la red viene generando un interés creciente. Inicialmente parecía que el asunto era poco más que parte del folclore americano, pero con el tiempo diversas latitudes se vienen sumando a la discusión. Pasado el turno del debate norteamericano (Net neutrality a consulta pública y El ruido y la furia del caso Comcast (1 y 2)) y de la veloz aprobación de la Ley chilena (Neutralidad de red a la chilena), parece que Europa entra en la arena.

La Unión Europea se pronuncia

Al final del 2009 la Unión Europea (UE) aprobó el paquete de reforma del sector de las telecomunicaciones, teniendo a la Neutralidad de la red como un principio regulatorio a ser promovido por los organismos reguladores de cada país miembro. Siguiendo esta trocha, la Comisión Europea publicó el 19 de abril de este año una Comunicación sobre la neutralidad de la red y el estado de Internet abierto en Europa (COM(2011) 222 final).

De acuerdo con la Comunicación, el debate de la Neutralidad de la red se centra en la razonabilidad de las políticas de gestión de tráfico diseñadas por los operadores. Aún cuando se reconoce que los operadores pueden adoptar prácticas de gestión para garantizar un uso eficiente de las redes, se han denunciado algunas prácticas que irían contra el carácter abierto de Internet, como el bloqueo o degradación de servicios legales (como servicios de Voz sobre IP) que compiten con los servicios brindados por los operadores de telecomunicaciones.

La Comisión concluye, sin embargo, que no tenía evidencia para determinar que estas preocupaciones estuvieran justificadas, aunque reconoció que debía realizarse una investigación más exhaustiva.

Existiría consenso en que la transparencia sobre la calidad del servicio es un aspecto esencial. Teniendo en cuenta la complejidad y el carácter técnico de la multiplicidad de ofertas en Internet, debe establecerse un equilibrio entre las necesidades de simplicidad y el suministro de información detallada y adecuada. La Comisión considera que las normas sobre transparencia, distribución y calidad de servicios que forman parte de la revisión del marco de las comunicaciones electrónicas de la UE contribuirán a la generación de resultados competitivos.

Si el sistema en su conjunto no garantiza que los consumidores pueden acceder y distribuir contenidos, servicios y aplicaciones a su elección con una suscripción a Internet, la Comisión evaluará la necesidad de imponer medidas más estrictas para lograr la competencia y la elección que los consumidores se merecen. Cualquier regulación adicional debe evitar desalentar las inversiones, proteger modelos de negocio innovadores, conducir a un uso más eficiente de las redes y crear nuevas oportunidades de negocio en los diferentes niveles de la cadena de valor de Internet.

La consulta inglesa

Ofcom (Office of Communications), el regulador británico de las comunicaciones, publicó en junio del año pasado un documento (Traffic Management and ‘net neutrality’ – A Discussion Document) de debate sobre las prácticas de gestión del tráfico de Internet.

El documento reconoce que algunas redes ya están experimentando problemas de congestión debido al intenso uso. Como respuesta, los operadores de redes y proveedores de servicios de Internet (ISP) están haciendo un uso intensivo de técnicas de gestión del tráfico. Aunque la gestión de tráfico ofrece algunos beneficios a los consumidores, existe la preocupación de que las empresas utilicen la gestión del tráfico para dañar a la competencia.

Ninguna queja formal ha recibido  Ofcom sobre las políticas de gestión de tráfico que requiera su intervención. La posición inicial de Ofcom es que la conducta discriminatoria es sólo un problema potencial cuando las empresas tienen poder de mercado y potencia sus propios servicios. Ocfom no ha encontrado pruebas suficientes para justificar el establecimiento de restricciones globales sobre las formas de gestión del tráfico.

La gestión del tráfico presenta retos potenciales para los consumidores. Al comparar los diferentes servicios podría resultar difícil entender las políticas de gestión de tráfico y el impacto que estas políticas tendrían sobre su experiencia. Ofcom cree que la falta de transparencia es peligrosa ya que puede ser un problema para los consumidores. El potencial perjuicio para los consumidores podría aumentar en la medida que las políticas de gestión de tráfico se hagan más amplias y sofisticadas.

La propuesta francesa

Que los franceses crean que los problemas se solucionan regulando no es una novedad, la Neutralidad de la red parece no ser la excepción para esta tradición tan gala como Asterix. Recientemente un informe (Documento Informativo de la neutralidad de la Internet y redes) sobre la Neutralidad de la red para la Comisión de Asuntos Económicos del Parlamento francés presentado por Corinne Erhel y Laure de La Raudière, recomienda una serie de medidas para preservar el carácter abierto y neutral de Internet.

Los franceses nos presentan un pulcro y bien documentado Informe con el que se pude disentir en lo que a las políticas recomendadas, pero que constituye un revisión obligada sobre el estado del arte de la discusión de la Neutralidad de la red, con especial acento en la problemática europea y local. Absolutamente recomendable.

Se define a la neutralidad de Internet como la necesidad de ausencia de discriminación en el enrutamiento de los flujos de tráfico por Internet. El debate sobre la neutralidad, con especial atención a sus aspectos técnicos y económicos, evidencia que existe el riesgo de que los operadores de telecomunicaciones estén desarrollando prácticas no neutrales. El estado actual de la legislación no parece ser capaz de responder a este problema.

De acuerdo con el documento el debate sobre neutralidad de la red, se clarifica cuando se representa como el resultado de la superposición de tres elementos: técnico, económico y jurídico.

En lo que corresponde al debate técnico, éste tiene que ver con la forma en la que fue diseñado Internet, para funcionar de manera diferente de las redes telefónicas tradicionales: se basa en el principio de “enrutamiento de paquetes” en lugar de “conmutación de circuitos”, que los hace más flexible y, a priori, menos fiable.

A esta dimensión técnica se añade una económica, de la fusión de la arquitectura de red con la teoría de los llamados mercados de dos caras, donde los intervinientes pueden remunerarse sobre dos categorías de actores que se ponen en contacto, donde una de las caras “subvenciona” a la otra.

Finalmente, tenemos a las cuestiones relacionadas con la libertad de expresión en Internet: las acciones de bloqueo y filtrado legales. Esta última dimensión del debate es esencialmente europea, y es, de alguna manera, consecuencia del debate sobre la neutralidad que se llevó a cabo con ocasión de la Ley HADOPI, y el respeto a la libertad de comunicación por aplicación de medidas administrativas para bloquear contenido de Internet, como parte de la recientemente aprobada Ley LOPSSI.

Para defender la Neutralidad de la red se propone, como primera prioridad, proteger el Internet de forma explícita en el ámbito de la regulación de las comunicaciones electrónicas.

AT&T estrena nueva política para su DSL

Hace unos años, Robert M. McDowell, en ese momento consejero de la Federal Communications Commission (FCC), señaló (Who Should Solve This Internet Crisis?) que Internet estaba en crisis y que en hora pico, sólo el 5 por ciento de los usuarios consumía el 90 por ciento del ancho de banda (¿Está en peligro Internet?). El problema no se ha solucionado. Según datos contenidos en el informe anual de Cisco Visual Networking Index (VNI) 2009-2014, se estima que el tráfico global se incrementerá más de cuatro veces desde el 2009 a 767 exabytes para el año 2014, cantidad equivalente a 10 veces el tráfico de todas las redes de Internet en el 2008. Uno de los mecanismos que vienen implementando algunos operadores de telecomunicaciones para paliar en parte este problema es el establecimiento de tarifas sensibles al tráfico en lugar del modelo de tarifa plana imperante hasta el momento.

Canadá aprueba tarifa sensible al uso

En enero de este año la Comisión Canadiense de Radiodifusión y Telecomunicaciones (Canadian Radio and Telecommunications Commission – CRTC), regulador de las telecomunicaciones de Canadá, aprobó (Decision CRTC 2011-44) una solicitud de Bell Aliant y Bell Canada para implementar una tarifa de banda ancha mayorista (Usage-Based Billing – UBB) para los ISPs independientes. De acuerdo con la solicitud, Bell Canada establecería un límite de 25 GB al mes por abonado, más un recargo de CAN$ 1.90 por GB de exceso para la mayoría del país y CAN$ 2.35 para la región francófona. La medida debió entrar en vigencia inicialmente el 1 de marzo.

La reacción ante la autorización de la CRTC no se hizo esperar. Una petición con más de 200 mil firmas (aquí) y miles de correos electrónicos fueron enviados al Ministro de Industria,  Tony Clement. Las críticas arreciaron en los medios de comunicación en un contexto político particularmente caldeado, tanto que terminó hace unos días con la caída del Primer Ministro  canadiense (aquí). La oposición liberal como el reciente Partido Democrático fueron los primeros en oponerse políticamente a la decisión de la CRTC.

La administración canadiense reaccionó a estas críticas y el 2 de febrero, el Primer Ministro, Stephen Harper, y su Ministro de Industria solicitaron a la CRTC que diera marcha atrás. Al día siguiente, la CRTC anunció que retrasaba la vigencia de su decisión por 60 días.

AT&T tras la huella de Comcast

El último 20 de marzo, AT&T aprobó un cambio en sus Políticas de Uso Aceptable (AUP) de acceso a Internet, estableciendo un modelo de tarifa escalonada y topes de descarga. Los topes de descarga establecidos son de 150 GB al mes para los usuarios DSL y 250 GB al mes para los abonados del servicio U-Verse de fibra hasta el nodo (Fiber-to-the-node – FTTN). Aquellos clientes que excedan estos límites tendrán que abonar un monto de US$ 10 por cada 50GB de consumo adicional. Asimismo, AT&T notificará a los usuarios cuando éstos consuman el 65, 90 y 100 por ciento de su límite mensual e implementará una herramienta de seguimiento de uso mensual. El nuevo sistema estará vigente desde este 2 de mayo.

La empresa justifica (Broadband Usage FAQs) su decisión en un dramático aumento del tráfico de sus redes de banda ancha. Este incremento estaría impulsado básicamente por una pequeña fracción de sus clientes. AT&T afirma que el 2 por ciento de sus usuarios utiliza el 20 por ciento de la capacidad total de la red. Señala que un abonado de alto tráfico puede consumir la capacidad de ancho de banda de 19 hogares típicos. Este patrón de consumo causa congestión en la red, ralentizan la velocidad de Internet e interfiere con el normal acceso de otros usuarios.

A pesar del efecto mediático que ha tenido la medida, AT&T no es la primera empresa de acceso a Internet en los Estados Unidos que toma una decisión de este tipo. En octubre de 2008 Comcast estableció un tope de descarga mensual de 250 GB al mes para sus clientes residenciales. Si un abonado supera este umbral por dos veces en un lapso de seis meses, Comcast puede dar por terminado el contrato. De la misma forma, Charter Communications (el cuarto operador de cable más importante de los Estados Unidos) impone un límite similar dependiendo del paquete contratado, los cuales incluyen topes desde los 100 GB a 500 GB al mes para abonados residenciales. Otros operadores como Verizon todavía no han incorporado esta política, aunque anuncian que la vienen estudiando.

Algunos sostienen que los principales afectados con los modelos de tarifas sensibles al tráfico son los servicios de entrega de contenidos como Spotify o Rdio (Google viene desarrollando un servicio de streaming de música para móviles similar). El problema con estos servicios es que su viabilidad parecería depender de la capacidad de descarga que brindan los proveedores de acceso, y si bien las limitaciones impuestas son generosas para los estándares actuales, señalan que no siempre 100 GB o 200 GB serán una gran cantidad de datos. The Economist da un paso más y pone al centro de la discusión al video por Internet. Sostiene que los servicios que se brindan en Internet como la transmisión de señales en vivo, sistemas de provisión de contenidos soportados en publicidad como Hulu, descargas legales de episodios de series y películas o descargas piratas de archivos a través de redes peer-to-peer, representan una alternativas real frente a la oferta de contenidos a través del cable. La implementación de una tarifa sensible al tráfico permite que los proveedores de acceso a Internet a través de las redes de cable, al mismo tiempo que multiplican la capacidad de transmisión del cobre, separar una parte del ancho de banda para sus propias señales de vídeo como la provisión regular de cientos de canales en formato digital, mientras que por otro lado restringen la capacidad de los servicios similares que se brindan a través de Internet. Al parecer, The Economist ve aquí un problema vinculado con la neutralidad de la red (Otro clavo para el martillo de la neutralidad de la red).

No sólo es un problema de costos

La idoneidad de la implementación de tarifas sensibles al tráfico es un asunto importante, incluso en el Perú la implementación de este tipo de tarifas ameritó la intervención de OSIPTEL, aunque el debate académico local sobre su idoneidad apenas se ha producido.

En Blawyer hemos señalado hace mucho que los sistemas de tarifas sensibles al tráfico por los servicios de banda ancha son racionales y están justificadas (¿Es Internet como una carretera? y ¿Es malo que pague más quien más consume?). En el mundo cotidiano casi no existen precios por productos o servicios que no tengan en cuenta en alguna medida un componente de uso. Se podrá argumentar que en ese mundo existe un costo por cada bien o servicios adicional que se provee, lo que no ocurre en Internet donde el costo marginal por bit transmitido es muy pequeño. Sin embargo, un sistema de tarifa por tráfico también es un mecanismo válido para gestionar los problemas de congestión, lo mismo ocurre con las carreteras que tienen un costo marginal muy pequeño pero se han implementado modelos de peaje para solucionar los atascos que se producen en las horas de mayor tráfico.

Otro clavo para el martillo de la neutralidad de la red

Este último 15 de octubre casi 3 millones de abonados del servicio de televisión por cable de Cablevision (un operador de cable de los Estados Unidos) se quedaron en ascuas al no poder disfrutar de la programación de la cadena Fox (propiedad de News Corp.). La disputa, como era de imaginarse, se desencadenó luego que Cablevision y News Corp. no llegaron a un acuerdo respecto del monto que la primera debía pagar por los contenidos de Fox. Vencido el plazo estipulado en el contrato de provisión de señales sin que se alcanzara el acuerdo, News Corp. optó por el camino más agresivo y suprimió sus contenidos de la parrilla de programación de Cablevision. Esta decisión privó a los abonados de Cablevision de algunos programas de indudable valoración como los juegos de los Giants (importante si tenemos en cuenta que Cablevision sirve a la ciudad de Nueva York), del reality American Idol o de las populares series Los SimpsonsGlee y House.

Durante el lapso que duró el apagón de las señales de Fox, Cablevisión publicó un anuncio en el que afirmaba que pagaba a News Corp. más de US$ 70 millones al año por sus canales y por la renovación se exigía más de US$ 150 millones al año por la misma programación.

Hasta aquí nos encontramos ante una decisión empresarial en el marco de una disputa contractual y que no debió generar más problemas que el enfado normal de quien se ve incomodado por este tipo de conflictos.

Sin embargo, el altercado fue más lejos de lo que cabía esperar. News Corp. bloqueó adicionalmente para cualquier abonado del servicio de Internet de Cablevisión, el acceso a los contenidos de Fox desde los sitios Fox.com y Hulu (Hulu y el futuro de Youtube). Hulu es un sitio que permite vía streaming video ver una serie de programas de televisión y películas a la carta. El sitio nace de un joint venture entre ABCNBC Universal (NBC) y Fox Entertainment Group (Fox).

Este apagón generalizado tuvo importantes repercusiones. Era la primera vez que en este tipo de disputas un programador decidía restringir sus contenidos desde todas las plataformas. El mensaje que se pretendía dar era claro: no esperen ver las señales de Fox en Internet si no están disponibles en televisión, o para decirlo más crudamente, no disfrutarán de los contenidos de forma gratuita en Internet si no pagan por los de televisión.

La medida fue levantada casi inmediatamente, pues News Corp. se percató que al restringir el acceso a Fox.com y Hulu también se perjudicaba a aquellos abonados de Cablevision que sólo le habían contratado el acceso a Internet, mientras que los servicios de televisión por cable eran provistos por otros operadores, como DirecTV.

Sin embargo, algunas organizaciones como Public Knowledge (Public Knowledge Condemns Fox Internet Blocking) vieron en la disputa News Corp – Cablevisión como un ataque a la neutralidad de la red (TV blackout raises net-neutrality concerns). Así, en un comunicado, la organización condenó el bloqueo desde Internet de los contenidos de la cadena Fox: “El bloqueo de sitios web, está totalmente fuera de los límites de una controversia como ésta“. En otro pronunciamiento (Fox Steps Over The Internet Line) Public Knowledge consideró que se había “(…) cometido una de las más flagrantes violaciones a la apertura de Internet cometido por una empresa de EE.UU.

Contrariamente a lo que suele decirse, la neutralidad de la red no es un concepto bien definido y existen numerosas tendencias que intentan explicarlo. Podríamos definir a la neutralidad de la red, siguiendo a Wikipedia, como un principio que establece que si un determinado usuario paga por un determinado nivel de acceso, y otro paga por el mismo nivel, estos usuarios deben poder conectarse entre sí al nivel de acceso suscrito sin ninguna limitación. De esta forma, la neutralidad de la red constituye una respuesta al temor de que los proveedores de acceso de banda ancha utilicen su infraestructura para bloquear determinadas aplicaciones y contenidos en Internet. Sin embargo, desde hace algún tiempo este principio neutral empieza a retroalimentarse y a expandirse hacia casi todos los escenarios de Internet. En Blawyer hicimos en su oportunidad un recuento de todas las neutralidades de nuevo cuño (Que el portero marque tarjeta: Google Neutrality).

Desde este nuevo punto de vista, no serían los propietarios de los contenidos quienes deben determinar las condiciones bajo las cuales se accede a los mismos, serían los consumidores quienes tendrían un derecho sin restricciones para acceder a los contenidos de cualquier servidor con conexión a Internet.

No cabe duda que las restricciones que impuso News Corp. a los abonados de Cablevision, privándoles de acceder a Fox.com y Hulu, debe entrar más en el campo de la estupidez que en el de la racionalidad, sin embargo, la tesis de que nos encontramos ante una vulneración de la neutralidad de la red no puede tener una calificación menor. Creemos que es el propietario de los contenidos quien debe decidir quienes son los abonados que quiere recibir, estableciendo limitaciones vía pago, geográficas o de cualquier otra índole, aunque estas restricciones parezcan irrazonables o injustas.

Luego de más de quince días desde el apagón inicial News Corp. y Cablevision llegaron a un acuerdo el 1 de noviembre. Cablevision no se mostró conforme con el resultado de la negociación y señaló que había sido forzado a pagar un precio injusto por un paquete de canales que para muchos de sus clientes tienen poco o ningún interés.

Debate servido: Google, Verizon y Web 3.0

Ignoro si los chicos de Google hagan el mal, creo particularmente que no, pero lo cierto es que nunca aburren. Ayer Google y Verizon presentaron al alimón una propuesta (aquí) para mantener la neutralidad de Internet, en la que se muestran en principio opuestos a cualquier tipo de bloqueo o discriminación de contenidos legales en Internet. Con esta iniciativa Google y Verizon pretenden impulsar un diálogo para la implantación definitiva de la legislación sobre la Neutralidad de la Red (Net Neutrality) en los Estados Unidos, en un momento en el que el fuego del caso Comcast todavía no se ha extinguido (El ruido y la furia del caso Comcast (1) y (2)).

Este anuncio conjunto aparece sólo unos días después de que ambas empresas desmintieran un supuesto acuerdo por el que Verizon se comprometía a priorizar los contenidos de Google en sus redes de telecomunicaciones (aquí 1 y 2).

Uno de los aspectos más polémicos de la propuesta es el de reconocer la excepcionalidad, por su intrínseca naturaleza competitiva e innovadora, de la banda ancha inalámbrica. Es así, que echando mano a estas características proponen que la regulación de la Neutralidad de la Red no se extienda inicialmente a la banda ancha inalámbrica.

Las reacciones la propuesta de Google y Verizon no se han hecho esperar. Internet brama, bulle, se escandaliza y en este contexto el New York Times ha abierto rápidamente en su sección de debates un tópico sobre el tema: ¿Quién tiene prioridad en la Web? Los participantes son de lujo, como veremos a continuación.

Tim Wu, profesor de Columbia Law School: «Controlando el comercio y la opinión»

Internet y las comunicaciones están en la misma categoría que la energía, el transporte y las finanzas, porque son el alma del comercio y de la expresión de esta nación. Verizon o Google ubicadas encima de la web, pueden influir sobre qué empresas tendrán éxito o fracasarán, haciendo que los sitios se carguen más rápido, más lentamente o terminen en la página 10 del ranking de resultados.

El mayor peligro de una vía rápida es que cambia por completo la competencia en la red. Si hubiera habido una Internet de nivel 2 en 1995, probablemente, Barnes & Noble habría destruido a Amazon, Microsoft Search habría golpeado a Google y Skype no habría sino empezado. Todos seríamos perdedores.

Lawrence Lessig, profesor de Harvard Law School y director de la Fundación Centro Edmond J. Safra para la Ética: «Otra debacle desregulatoria».

El éxito económico de Internet proviene de su arquitectura. La arquitectura y las fuerzas competitivas que lo aseguran, es lo único interesante en juego en esta batalla por la Neutralidad de la Red. Sin embargo, los asesores económicos de más alto rango en la Casa Blanca no parecen saber lo que eso significa.

Los políticos, utilizan un marco económico establecido en la década de 1980, convencidos de su verdad y demasiado arrogantes para reconocer incluso su ignorancia, permitirán a los propietarios de los “tubos” destruir Internet.

David Gelernter, professor de Yale University: Llámalo «Irracionalidad de la Red».

La neutralidad es una política. A menudo es una mala política. “Neutralidad fiscal”, por ejemplo, es gravar cada dólar de ingresos de la misma forma; la “Neutralidad de las Carreteras”: todos los vehículos deben pagar el mismo peaje. El punto fuerte de la Neutralidad de la Red es su nombre.”Neutralidad” suena como el estilo americano. Sin embargo, “red irracional” sería un nombre más preciso para esta idea mal concebida.

Supongamos que una compañía aérea quiere comprar espacio adicional en el aeropuerto local para hacer su check-in más rápido. ¿Debemos decir, “lo siento, pero la neutralidad del aeropuerto exige que American Airlines y Southwest Peoria Air tengan exactamente la misma cantidad de espacio en LaGuardia”?

Edward W. Felten, profesor de la Universidad de Princeton: «”Neutralidad” es difícil de definir».

La cuestión no es si queremos mantener esta Internet neutral abierta, es si a partir de la elaboración de normas el Gobierno nos puede asegurar el resultado que queremos. “Neutralidad” es fácil de imaginar, pero difícil de definir. Los operadores de redes necesitan un margen razonable para gestionar sus redes. No queremos entorpecer sus complejas prácticas de gestión de red neutrales, pero tampoco permitir la discriminación o hacer posible una discriminación sutil envuelta en la jerga de la red.

Jim Harper, director de estudios de política de información del Cato Institute: «Un cautivo de la Industria».

La Comisión Federal de Comunicaciones (Federal Communications Commission – FCC) ha socavado el desarrollo y la inversión mediante su propuesta para regular Internet como solía hacerse con la industria telefónica. En lugar de llevar a cabo la regulación planteada por la industria, la FCC simplemente debería desaparecer. No debe participar en la regulación de Internet, incluso si la industria lo quiere.

Jonathan Zittrain, profesor de Harvard Law School: «Una red impenetrable de peajes».

Esta cuestión se plantea en medio de una economía muy confusa para el movimiento de bits a través de Internet. Con los teléfonos la norma era sencilla: el remitente paga. En Internet es más complicado: tanto emisor y receptor pagan a sus respectivos ISPs.

Google sería capaz de lograr un acuerdo con Verizon para tener un acceso más veloz, dejando a los proveedores de contenidos menos afortunados detrás. Cuando cada ISP puede hablar en nombre de sus suscriptores sin saberlo, en calidad de cobrador de peaje bajo el puente ofreciendo diferentes condiciones de acceso, la economía de la red estará a favor de la consolidación, de los influyentes y adinerados.

En un medio en el que muchos de los gigantes eran advenedizos ayer – eBay, Google, incluso la propia web – sería una parodia congelar la siguiente ronda de innovación por el despliegue de una red impenetrable de contratos y tarifas.

Marvin Ammori, profesor de la Universidad de Nebraska-Lincoln: «Regular al Rockefeller de hoy».

El gobierno puede y debe hacer cumplir la neutralidad de la red. La competencia y el debate democrático en el siglo 21 dependerán de la no discriminación, al igual que la evolución a la web 3.0 ó 4.0.

Las compañías de teléfono y de cable, ahora unidas a Google, están gastando millones para convertir a Internet en un servicio de todo pago. Internet es la infraestructura básica del comercio y las comunicaciones. La discriminación en Internet minará la innovación. Podemos hablar de estas versiones “nuevas” de la web (web 2.0 y 3.0) sólo porque Internet evoluciona rápidamente. No lo hace porque le de prioridad a las compañías telefónicas o de cable, sino más bien porque los usuarios determinan la mejor manera de utilizar Internet.

El ruido y la furia del caso Comcast (2)

En agosto de 2008, la Comisión hizo público su Memorandum Opinion and Order (.pdf) en el caso Comcast. La cuestión era si el bloqueo del tráfico peer-to-peer (p2p) constituía una práctica razonable de gestión de red por parte de Comcast. Si bien la FCC contaba con las reglas de la Net Neutrality enunciadas a manera de principios, no eran parte de ninguna regulación de fuente legal. En este caso, la Comisión afrontó el problema de bajo qué norma analizar y sancionar la conducta de Comcast. La decisión final fue ordenar a Comcast detener dicha práctica y ordenarle transparentar sus medidas de gestión de red, sin sancionarla. Contó con tres votos a favor, incluyendo el del presidente Kevin Martin, y dos en contra (3-2).

Los argumentos de la FCC

Como habíamos señalado, la provisión de acceso a Internet de banda ancha por parte de las empresas de cable no era considerada un servicio de telecomunicaciones y no estaba sujeto a reglas de no discriminación. La FCC intentó demostrar que es una prerrogativa de la agencia regulatoria la jurisdicción sobre temas no tratados expresamente en la regulación, pero comprendidos en ella en sentido lato (ancilliary jurisdiction). Para ello, expuso una serie de argumentos de derecho sobre la base de distintas secciones de la Telecommunications Act que en algún sentido lo autorizaban a supervisar cierta idoneidad y competitividad en el mercado de servicios de información.

En los hechos, la Comisión consideró adecuadamente probado a través de una serie de actuaciones presentadas por las asociaciones Free Press y Public Knowledge que Comcast enviaba reset packets –una práctica conocida como RST Injection– con la finalidad de interrumpir y terminar la conexión TCP establecida por los programas que conectados a redes p2p. Se demostró, además, que esta medida era insensible a la cantidad de ancho de banda que un usuario ocupaba o la proporción de este que ocupaba respecto de sus pares en la red local. Por ello, consideró probado que Comcast venía discriminando el tráfico p2p de sus usuarios y ello contravenía una de las Cuatro Libertades de Internet.

Sin embargo, la FCC admitió que podría estar equivocada al intentar sancionar a Comcast por discriminar el tráfico. Señaló que la existencia de una regulación explícita podría detener la innovación y por eso aplica una regla a un caso concreto (adjudication), creando un criterio decisorio que posteriormente podría revisar o terminar exigiendo legislativamente (como sucedió con el caso Carterphone). Explícitamente dijo que “las prácticas de gestión de red de los distintos ISPs llegan a ser tan distintas y especializadas en su naturaleza que resultaría imposible enmarcarlas en una regla general” (p. 19). La Comisión creía que no estaba abusando de su autoridad regulatoria, en tanto su adjudication no era del todo inesperada (si existían las Cuatro Libertades) y no estaba en contra de “la buena fe del mercado”.

De acuerdo con la FCC, no existió proporcionalidad entre las medidas tomadas por Comcast y el problema que intenta resolver: la congestión de tráfico. Así, pudo resultar afectando a usuarios que usen poco ancho de banda pero lo hagan a través de aplicaciones “desfavorecidas”, no se aplicó solamente durante los momentos del día en que hay mayor riesgo de congestión sino todo el tiempo, y no estuvo dirigida exclusivamente contra las áreas en los que existirían nodos congestionados sino al total de su planta de abonados. Para la Comisión existían soluciones más proporcionales al problema: (i) medir a los súper usuarios y cargarles un extra por el uso excesivo del ancho de banda, (ii) estrangular el ancho de banda solo de los súper usuarios, y no de la totalidad de la planta, (iii) trabajar soluciones conjuntas con los desarrolladores de las aplicaciones (ej. redes P4P). Aunque no la FCC no las patrocina expresamente, reconoce que son largamente más adecuadas a los propósitos que alega tener Comcast. Eso sí, la FCC reconoció que los ISPs tienen derecho de bloquear todo contenido ilegal (pornografía infantil, que viole derechos de autor) pero eligiendo soluciones neutrales que no alcancen a afectar tráfico legalmente cursado.

La Comisión señaló que el daño a la competencia perpetuado por las prácticas de Comcast radica en no haber transparentado sus criterios de gestión de red a sus usuarios, quienes podían pensar que las fallas en su servicio se debían a una falla de la propia aplicación y así afectar su mercado. Para la FCC, los términos de las Condiciones del Servicio que señalaban que el servicio estaba sujeto a “limitaciones de velocidad” eran demasiado vagos para el consumidor.

Como Remedio, la FCC ordenó a Comcast: (1) entregar a la Comisión toda la información referente a las prácticas de gestión de red investigadas, incluyendo los equipos que uso, cuándo y bajó que circunstancias fueron llevadas a cabo, los protocolos afectados y las zonas donde fueron implementadas; (2) enviar a la Comisión un plan de cumplimiento con puntos de referencia provisionales que describan cómo se pretende hacer la transición de las prácticas discriminatorias hacia las no discriminatorias; y (3) entregar a la Comisión y al público los detalles sobre sus prácticas de gestión de red futuras, incluyendo cualquier limitación de la forma en que sus usuarios acceden al servicio.

Reacciones

La decisión de la Comisión tuvo una respuesta mixta en los medios especializados. La EFF, aunque a favor de la Net Neutrality, vio con preocupación que la FCC pueda ampararse en la anciliary jurisdiction para imponer casi cualquier regla (como las de decencia en los contenidos). Por su parte, Wired señaló que la decisión de la FCC era una invitación abierta a filtrar Internet, al reconocer la posibilidad de que los ISPs actúen como policías y puedan filtrar cualquier tráfico considerado ilegal. Muchas empresas de telecomunicaciones, según reportó el New York Times, se mostraron de acuerdo con el fondo de la decisión pero también cuestionaron que esta regla venga a través de una decisión de la FCC y no de una ley del Congreso. Comcast, por su parte, señaló que apelaría la decisión ante la Corte de Apelaciones y, finalmente, lograría que se revoque. La historia de cómo una Corte de Apelaciones terminó diciéndole a la FCC que no tenía autoridad para exigir reglas de neutralidad de red a Comcast será el tema de la siguiente entrada de esta serie.

Foto: Alistair (CC BY-NC)