El mito de la desintermediación

Interesante paper de Christopher S. Yoo (Free Speech and the Myth of the Internet as an Unintermediated Experience - La libertad de expresión y el mito de Internet como una experiencia inintermediada) sobre los intermediarios en el Internet y su posible regulación para proteger la libertad de expresión de los usuarios.

Para Yoo, cuando Internet surgió muchos elogiaron su potencial para que los ciudadanos pudieran comunicarse directamente con el público sin tener que depender de los medios de comunicación. El lenguaje de la histórica decisión de la Corte Suprema (Reno vs. ACLU) no da lugar a equívocos: “cualquier persona con una línea telefónica” puede convertirse en un “panfleto” o en un “pregonero de la ciudad con una voz que resuene más allá de lo que tendría en cualquier tribuna.”

Sin embargo, en los últimos años la preocupación por el papel de los intermediarios de Internet ha ido creciendo. Inicialmente, el debate se centró en la capacidad de los proveedores de banda ancha de última milla para discriminar a favor de determinados contenidos o aplicaciones. El asunto llegó a un punto álgido cuando en el año 2008 la Comisión Federal de Comunicaciones (FCC) cuestionó las políticas de Comcast (Comcast incumplió las políticas de la FCC, pero no será multada) por ralentizar el tráfico asociado con una aplicación, aunque la decisión de la FCC fue revocada posteriormente por los tribunales (El ruido y la furia del caso Comcast 1 y 2). En este contexto, algunos académicos advierten sobre la posibilidad de que los motores de búsqueda puedan sesgar o direccionar los resultados. Tampoco faltan voces que han pedido que se ordene el libre acceso a las tecnologías de intercambio de archivos de redes sociales, como YouTube, BitTorrent, Facebook y MySpace. Más recientemente, la controversia ha surgido por el acceso a las tecnologías de dispositivos considerados clave, un ejemplo de ello es la investigación de la FCC sobre la decisión de Apple de no portar ciertas aplicaciones de voz desarrolladas por Google (F.C.C. Looking Into Rejection of Google App for iPhone).

Para Yoo estas posiciones reflejan una profunda contradicción. Por un lado se señala que es el proveedor de servicios de banda ancha, quien utilizando su poder, daña el mercado de dispositivos y aplicaciones; en otros casos, es el fabricante del dispositivo el acusado de cometer los abusos. Finalmente, sería el proveedor de aplicaciones quien estaría actuando de forma incorrecta. Como resulta lógico, estas acusaciones no pueden ser tomadas en serio al mismo tiempo. Si más de un nivel de esta cadena de distribución está dominada por un solo agente, la teoría de la doble marginalización sugiere que los consumidores estarían mejor si ambos son controlados por una sola entidad.

Numerosos estudios han comenzado a formular argumentos en contra de la intermediación en términos de la Primera Enmienda (libertad de expresión) de la Constitución de los Estados Unidos. Sin embargo, la Primera Enmienda restringe la acción del Estado y no las acciones de los actores privados. Así, bajo el entendimiento convencional de la Primera Enmienda, cualquier intento gubernamental para restringir la libertad de expresión de determinados actores privados es constitucionalmente problemático.

Diversos académicos vienen proponiendo transformar la Primera Enmienda, de una limitación negativa en la acción gubernamental a una obligación positiva del gobierno para exigir un mayor ejercicio de los derechos a la libertad de expresión. En este sentido, la Corte Suprema esbozó por un tiempo la tesis de que los organismos de radiodifusión y empresas de telecomunicaciones podían ser considerados actores estatales a efectos de la Primera Enmienda (Utils. Comm’n v. Pollak, 343 U.S. 451, 462 (1952)), aunque luego cerró esta posibilidad (Jackson v. Metro. Edison Co., 419 U.S. 345, 352–53 (1974)).

Como cuestión general, los que proponen la regulación de los intermediarios sostienen que lo importante es proteger la expresión de quienes transmiten sus contenidos y aplicaciones a través de la red. No obstante, el Internet moderno es tal vez la plataforma dominante para las comunicaciones de masas. La libertad de expresión de los medios de comunicación implica una gama más amplia de valores que incluye intereses de las audiencias, de los intermediarios, así como herramienta para la expresión de los ciudadanos.

Respecto de cómo balancear este complejo arsenal de valores, es posible explorar las decisiones de la Corte Suprema aplicables a los medios de comunicación históricos (televisión y cable). Estos precedentes han reconocido la discreción editorial y la promoción de valores importantes de la libre expresión, ayudando a la audiencia a protegerse de discursos indeseados y a identificar aquellos contenidos deseados.

Con respecto al Internet, los intermediarios ayudan a proteger a los usuarios finales contra el spam, la pornografía, los virus y otras formas de malware, mientras que permiten tamizar la avalancha cada vez mayor de contenido deseado. Así, las cortes reconocerían que la discreción editorial ejercitada por los motores de la búsqueda y los abastecedores de red implica valores importantes para la libre expresión.

La imagen del Internet como experiencia desintermediada, donde los ciudadanos hablan directamente con la audiencia sin pasar por un portero, es más un mito que realidad. La Jurisprudencia de la Primera Enmienda de la Corte Suprema de los Estados Unidos (Turner Broad. Sys., Inc. v. FCC (Turner II), 520 U.S. 180, 226–27 (1997)), se decanta a favor de la discreción editorial de los intermediarios, incluso cuando éstos simplemente sirven como el conducto para el discurso de otros.

Por otra parte, la Corte ha sostenido que el hecho de que un intermediario pueda ejercer el monopolio del poder y actuar como un censor privado no justifica que se regule su criterio editorial. Los precedentes de la Corte Suprema son agnósticos en cuanto a que el actor privado sirva de intermediario, y es muy claro que entre la censura del actor privado y el gobierno, la elección siempre debe favorecer a la primera sobre la segunda (CBS, Inc. v. Democratic Nat’l Comm., 412 U.S. 94, 124–26 (1973).

AT&T estrena nueva política para su DSL

Hace unos años, Robert M. McDowell, en ese momento consejero de la Federal Communications Commission (FCC), señaló (Who Should Solve This Internet Crisis?) que Internet estaba en crisis y que en hora pico, sólo el 5 por ciento de los usuarios consumía el 90 por ciento del ancho de banda (¿Está en peligro Internet?). El problema no se ha solucionado. Según datos contenidos en el informe anual de Cisco Visual Networking Index (VNI) 2009-2014, se estima que el tráfico global se incrementerá más de cuatro veces desde el 2009 a 767 exabytes para el año 2014, cantidad equivalente a 10 veces el tráfico de todas las redes de Internet en el 2008. Uno de los mecanismos que vienen implementando algunos operadores de telecomunicaciones para paliar en parte este problema es el establecimiento de tarifas sensibles al tráfico en lugar del modelo de tarifa plana imperante hasta el momento.

Canadá aprueba tarifa sensible al uso

En enero de este año la Comisión Canadiense de Radiodifusión y Telecomunicaciones (Canadian Radio and Telecommunications Commission – CRTC), regulador de las telecomunicaciones de Canadá, aprobó (Decision CRTC 2011-44) una solicitud de Bell Aliant y Bell Canada para implementar una tarifa de banda ancha mayorista (Usage-Based Billing – UBB) para los ISPs independientes. De acuerdo con la solicitud, Bell Canada establecería un límite de 25 GB al mes por abonado, más un recargo de CAN$ 1.90 por GB de exceso para la mayoría del país y CAN$ 2.35 para la región francófona. La medida debió entrar en vigencia inicialmente el 1 de marzo.

La reacción ante la autorización de la CRTC no se hizo esperar. Una petición con más de 200 mil firmas (aquí) y miles de correos electrónicos fueron enviados al Ministro de Industria,  Tony Clement. Las críticas arreciaron en los medios de comunicación en un contexto político particularmente caldeado, tanto que terminó hace unos días con la caída del Primer Ministro  canadiense (aquí). La oposición liberal como el reciente Partido Democrático fueron los primeros en oponerse políticamente a la decisión de la CRTC.

La administración canadiense reaccionó a estas críticas y el 2 de febrero, el Primer Ministro, Stephen Harper, y su Ministro de Industria solicitaron a la CRTC que diera marcha atrás. Al día siguiente, la CRTC anunció que retrasaba la vigencia de su decisión por 60 días.

AT&T tras la huella de Comcast

El último 20 de marzo, AT&T aprobó un cambio en sus Políticas de Uso Aceptable (AUP) de acceso a Internet, estableciendo un modelo de tarifa escalonada y topes de descarga. Los topes de descarga establecidos son de 150 GB al mes para los usuarios DSL y 250 GB al mes para los abonados del servicio U-Verse de fibra hasta el nodo (Fiber-to-the-node – FTTN). Aquellos clientes que excedan estos límites tendrán que abonar un monto de US$ 10 por cada 50GB de consumo adicional. Asimismo, AT&T notificará a los usuarios cuando éstos consuman el 65, 90 y 100 por ciento de su límite mensual e implementará una herramienta de seguimiento de uso mensual. El nuevo sistema estará vigente desde este 2 de mayo.

La empresa justifica (Broadband Usage FAQs) su decisión en un dramático aumento del tráfico de sus redes de banda ancha. Este incremento estaría impulsado básicamente por una pequeña fracción de sus clientes. AT&T afirma que el 2 por ciento de sus usuarios utiliza el 20 por ciento de la capacidad total de la red. Señala que un abonado de alto tráfico puede consumir la capacidad de ancho de banda de 19 hogares típicos. Este patrón de consumo causa congestión en la red, ralentizan la velocidad de Internet e interfiere con el normal acceso de otros usuarios.

A pesar del efecto mediático que ha tenido la medida, AT&T no es la primera empresa de acceso a Internet en los Estados Unidos que toma una decisión de este tipo. En octubre de 2008 Comcast estableció un tope de descarga mensual de 250 GB al mes para sus clientes residenciales. Si un abonado supera este umbral por dos veces en un lapso de seis meses, Comcast puede dar por terminado el contrato. De la misma forma, Charter Communications (el cuarto operador de cable más importante de los Estados Unidos) impone un límite similar dependiendo del paquete contratado, los cuales incluyen topes desde los 100 GB a 500 GB al mes para abonados residenciales. Otros operadores como Verizon todavía no han incorporado esta política, aunque anuncian que la vienen estudiando.

Algunos sostienen que los principales afectados con los modelos de tarifas sensibles al tráfico son los servicios de entrega de contenidos como Spotify o Rdio (Google viene desarrollando un servicio de streaming de música para móviles similar). El problema con estos servicios es que su viabilidad parecería depender de la capacidad de descarga que brindan los proveedores de acceso, y si bien las limitaciones impuestas son generosas para los estándares actuales, señalan que no siempre 100 GB o 200 GB serán una gran cantidad de datos. The Economist da un paso más y pone al centro de la discusión al video por Internet. Sostiene que los servicios que se brindan en Internet como la transmisión de señales en vivo, sistemas de provisión de contenidos soportados en publicidad como Hulu, descargas legales de episodios de series y películas o descargas piratas de archivos a través de redes peer-to-peer, representan una alternativas real frente a la oferta de contenidos a través del cable. La implementación de una tarifa sensible al tráfico permite que los proveedores de acceso a Internet a través de las redes de cable, al mismo tiempo que multiplican la capacidad de transmisión del cobre, separar una parte del ancho de banda para sus propias señales de vídeo como la provisión regular de cientos de canales en formato digital, mientras que por otro lado restringen la capacidad de los servicios similares que se brindan a través de Internet. Al parecer, The Economist ve aquí un problema vinculado con la neutralidad de la red (Otro clavo para el martillo de la neutralidad de la red).

No sólo es un problema de costos

La idoneidad de la implementación de tarifas sensibles al tráfico es un asunto importante, incluso en el Perú la implementación de este tipo de tarifas ameritó la intervención de OSIPTEL, aunque el debate académico local sobre su idoneidad apenas se ha producido.

En Blawyer hemos señalado hace mucho que los sistemas de tarifas sensibles al tráfico por los servicios de banda ancha son racionales y están justificadas (¿Es Internet como una carretera? y ¿Es malo que pague más quien más consume?). En el mundo cotidiano casi no existen precios por productos o servicios que no tengan en cuenta en alguna medida un componente de uso. Se podrá argumentar que en ese mundo existe un costo por cada bien o servicios adicional que se provee, lo que no ocurre en Internet donde el costo marginal por bit transmitido es muy pequeño. Sin embargo, un sistema de tarifa por tráfico también es un mecanismo válido para gestionar los problemas de congestión, lo mismo ocurre con las carreteras que tienen un costo marginal muy pequeño pero se han implementado modelos de peaje para solucionar los atascos que se producen en las horas de mayor tráfico.

El ruido y la furia del caso Comcast (2)

En agosto de 2008, la Comisión hizo público su Memorandum Opinion and Order (.pdf) en el caso Comcast. La cuestión era si el bloqueo del tráfico peer-to-peer (p2p) constituía una práctica razonable de gestión de red por parte de Comcast. Si bien la FCC contaba con las reglas de la Net Neutrality enunciadas a manera de principios, no eran parte de ninguna regulación de fuente legal. En este caso, la Comisión afrontó el problema de bajo qué norma analizar y sancionar la conducta de Comcast. La decisión final fue ordenar a Comcast detener dicha práctica y ordenarle transparentar sus medidas de gestión de red, sin sancionarla. Contó con tres votos a favor, incluyendo el del presidente Kevin Martin, y dos en contra (3-2).

Los argumentos de la FCC

Como habíamos señalado, la provisión de acceso a Internet de banda ancha por parte de las empresas de cable no era considerada un servicio de telecomunicaciones y no estaba sujeto a reglas de no discriminación. La FCC intentó demostrar que es una prerrogativa de la agencia regulatoria la jurisdicción sobre temas no tratados expresamente en la regulación, pero comprendidos en ella en sentido lato (ancilliary jurisdiction). Para ello, expuso una serie de argumentos de derecho sobre la base de distintas secciones de la Telecommunications Act que en algún sentido lo autorizaban a supervisar cierta idoneidad y competitividad en el mercado de servicios de información.

En los hechos, la Comisión consideró adecuadamente probado a través de una serie de actuaciones presentadas por las asociaciones Free Press y Public Knowledge que Comcast enviaba reset packets –una práctica conocida como RST Injection– con la finalidad de interrumpir y terminar la conexión TCP establecida por los programas que conectados a redes p2p. Se demostró, además, que esta medida era insensible a la cantidad de ancho de banda que un usuario ocupaba o la proporción de este que ocupaba respecto de sus pares en la red local. Por ello, consideró probado que Comcast venía discriminando el tráfico p2p de sus usuarios y ello contravenía una de las Cuatro Libertades de Internet.

Sin embargo, la FCC admitió que podría estar equivocada al intentar sancionar a Comcast por discriminar el tráfico. Señaló que la existencia de una regulación explícita podría detener la innovación y por eso aplica una regla a un caso concreto (adjudication), creando un criterio decisorio que posteriormente podría revisar o terminar exigiendo legislativamente (como sucedió con el caso Carterphone). Explícitamente dijo que “las prácticas de gestión de red de los distintos ISPs llegan a ser tan distintas y especializadas en su naturaleza que resultaría imposible enmarcarlas en una regla general” (p. 19). La Comisión creía que no estaba abusando de su autoridad regulatoria, en tanto su adjudication no era del todo inesperada (si existían las Cuatro Libertades) y no estaba en contra de “la buena fe del mercado”.

De acuerdo con la FCC, no existió proporcionalidad entre las medidas tomadas por Comcast y el problema que intenta resolver: la congestión de tráfico. Así, pudo resultar afectando a usuarios que usen poco ancho de banda pero lo hagan a través de aplicaciones “desfavorecidas”, no se aplicó solamente durante los momentos del día en que hay mayor riesgo de congestión sino todo el tiempo, y no estuvo dirigida exclusivamente contra las áreas en los que existirían nodos congestionados sino al total de su planta de abonados. Para la Comisión existían soluciones más proporcionales al problema: (i) medir a los súper usuarios y cargarles un extra por el uso excesivo del ancho de banda, (ii) estrangular el ancho de banda solo de los súper usuarios, y no de la totalidad de la planta, (iii) trabajar soluciones conjuntas con los desarrolladores de las aplicaciones (ej. redes P4P). Aunque no la FCC no las patrocina expresamente, reconoce que son largamente más adecuadas a los propósitos que alega tener Comcast. Eso sí, la FCC reconoció que los ISPs tienen derecho de bloquear todo contenido ilegal (pornografía infantil, que viole derechos de autor) pero eligiendo soluciones neutrales que no alcancen a afectar tráfico legalmente cursado.

La Comisión señaló que el daño a la competencia perpetuado por las prácticas de Comcast radica en no haber transparentado sus criterios de gestión de red a sus usuarios, quienes podían pensar que las fallas en su servicio se debían a una falla de la propia aplicación y así afectar su mercado. Para la FCC, los términos de las Condiciones del Servicio que señalaban que el servicio estaba sujeto a “limitaciones de velocidad” eran demasiado vagos para el consumidor.

Como Remedio, la FCC ordenó a Comcast: (1) entregar a la Comisión toda la información referente a las prácticas de gestión de red investigadas, incluyendo los equipos que uso, cuándo y bajó que circunstancias fueron llevadas a cabo, los protocolos afectados y las zonas donde fueron implementadas; (2) enviar a la Comisión un plan de cumplimiento con puntos de referencia provisionales que describan cómo se pretende hacer la transición de las prácticas discriminatorias hacia las no discriminatorias; y (3) entregar a la Comisión y al público los detalles sobre sus prácticas de gestión de red futuras, incluyendo cualquier limitación de la forma en que sus usuarios acceden al servicio.

Reacciones

La decisión de la Comisión tuvo una respuesta mixta en los medios especializados. La EFF, aunque a favor de la Net Neutrality, vio con preocupación que la FCC pueda ampararse en la anciliary jurisdiction para imponer casi cualquier regla (como las de decencia en los contenidos). Por su parte, Wired señaló que la decisión de la FCC era una invitación abierta a filtrar Internet, al reconocer la posibilidad de que los ISPs actúen como policías y puedan filtrar cualquier tráfico considerado ilegal. Muchas empresas de telecomunicaciones, según reportó el New York Times, se mostraron de acuerdo con el fondo de la decisión pero también cuestionaron que esta regla venga a través de una decisión de la FCC y no de una ley del Congreso. Comcast, por su parte, señaló que apelaría la decisión ante la Corte de Apelaciones y, finalmente, lograría que se revoque. La historia de cómo una Corte de Apelaciones terminó diciéndole a la FCC que no tenía autoridad para exigir reglas de neutralidad de red a Comcast será el tema de la siguiente entrada de esta serie.

Foto: Alistair (CC BY-NC)

El ruido y la furia del caso Comcast (1)

El debate sobre la Neutralidad de Red en Estados Unidos está más activo que nunca. Jules Genachowski, presidente de la FCC, ha asumido como un reto personal lograr que el regulador de las telecomunicaciones estadounidense pueda tratar a los proveedores de acceso de banda ancha bajo el régimen de common carriers en lo que él llama la lucha por preservar una Internet libre y abierta. Luego de que en abril una Corte de Apelaciones rechazara la jurisdicción de la Comisión sobre los proveedores de acceso de banda ancha en el caso Comcast, ahora la FCC pretende conseguir que el Congreso se lo autorice a través de una ley federal.

El resultado de este debate probablemente marque la pauta para el futuro del controvertido principio de Neutralidad de Red y el desarrollo del mercado de Internet en Estados Unidos. Esta es la primera entrega de una serie de entradas en las que leeré y analizaré los distintos elementos esta controversia. Si bien es un caso sobre derecho de la telecomunicaciones en Estados Unidos, la importancia de los temas que puede alcanzar tarde o temprano otras jurisdicciones.

El marco regulatorio de los proveedores de acceso de banda ancha

La provisión de acceso de banda ancha en Estados Unidos no está afecta al régimen de las public utilities (similar a nuesto régimen de servicio público). La intensidad de la regulación a la que está sujeta esta actividad, por ende, es considerablemente menor en comparación con la aplicable a las empresas de telefonía fija, por ejemplo. Las empresas que prestan servicios públicos de telecomunicaciones (common carrier) están bajo la supervisión directa de la FCC, tienen la obligación de cobrar tarifas razonables, están prohibidas de otorgar un acceso preferente y tienen una carga tributaria distinta.

El acceso a Internet a través de las redes telefónicas, incluyendo el acceso DSL, fue considerado desde el inicio como un servicio público de telecomunicaciones. En agosto de 2005, la FCC reclasificó a este tipo de servicio como servicios de información y los liberó de las obligaciones de los common carrier, pasando a estar regulados por el Título I de la Telecommunicatons Act. A la vez, publicó los famosos cuatro principios de Neutralidad de Red que intentaban compensar el efecto del cambio de regulación fijando ciertas limitaciones. Estos principios, sin embargo, eran una mera declaración de la FCC y no establecían obligaciones regulatorias exigibles administrativa o judicialmente. Cabe señalar que, desde entonces, la esencia de estos principios se ha volcado en distintos proyectos de ley federales que no han llegado a ser aprobadas por el Congreso.

Por otro lado, la provisión del servicio de acceso de banda ancha por parte de las empresas de cable siempre ha sido considerada como un servicio de información y no un servicio público de telecomunicaciones. Así lo estableció la Corte Suprema en el caso National Cable & Telecommunications Association v. Brand X Internet Services (2005). El desarrollo reciente del mercado en Estados Unidos ha hecho que sean estas empresas los mayores proveedores de Internet en el país y que, por lo señalado, no se encuentren sujetas a las regulaciones de un common carrier y fuera del ámbito de supervisión de la FCC.

Lo que pasó con Comcast

Comcast es el mayor proveedor de televisión por cable y acceso de banda ancha en Estados Unidos. Además, también participa del negocio del broadcasting como accionista mayoritario de la cadena NBC Universal. En el año 2007, Comcast fue denunciada ante la FCC por dos organizaciones de la sociedad civil por bloquear el tráfico peer-to-peer e impedir que sus usuarios utilicen las aplicaciones que se soportan en estas redes (como BitTorrent o Ares). La empresa inicialmente negó estas acusaciones y luego reconoció que solo estaba bloqueando dicho tráfico como una medida para descongestionar el flujo de datos en las redes en aquellos lugares donde el abuso de estas aplicaciones afectaba la calidad del servicio. Tras una serie de pruebas ofrecidas por la FCC, Comcast terminó reconociendo que dichas prácticas no se realizaban solamente en los lugares donde había congestión. Debido a la controversia que esto provocó, la empresa prometió públicamente abandonar dicha práctica. De cualquier forma, en agosto de 2008, la FCC determinó que Comcast había violando la ley federal y sus Cuatro Principios, ordenándole demostrar que había abandonado dichas prácticas y, en el futuro, hacer transparente con sus usuarios sus políticas respecto del manejo del tráfico (.pdf). La empresa, sin embargo, no fue sancionada económicamente. Antonio Rodriguez Lobatón siguió de cerca esta decisión.

La Comisión desestimó la tesis de Comcast, que sostenía que dichas prácticas constituían una forma razonable de gestión de red y que su único interés era contrarrestar la congestión de red. A contrario, la Comisión determinó que las medidas tomadas no necesariamente servían a el propósito alegado y tenían consecuencias que consideró contrarias al marco regulatorio. Así, el bloqueo del tráfico peer-to-peer: (1) afectaba a aquellos usuarios que usaban poco ancho de banda por el solo hecho de usar una aplicación desfavorecida, (2) no solo se usaba durante los períodos de congestión de red, (3) no se aplicaba únicamente en los lugares en los que se daba la congestión, y, (4) un usuario podría ser el causante de la congestión de red y no verse perjudicado si no usa una de las aplicaciones desfavorecidas.

La FCC dejó claro, sin embargo, que su intención era proteger el derecho de los consumidores a acceder a contenido legal (lawful content). En consecuencia, bloquear contenido ilegal como pornografía infantil o descargas ilegales de música sí sería consistente con la legislación federal sobre Internet. El problema con Comcast era que su sistema no era capaz de discriminar el contenido legal del ilegal.

En la siguiente entrada de esta serie analizaremos en detalle los argumentos de la Comisión.

Foto: Steve Garfield (CC BY-NC-SA)

¿Es malo que pague más quien más consume?

Free Press lidera una campaña (Stop the Internet Rip-Off of 2009) contra las nuevas estrategias de precios de los proveedores de banda ancha en los Estados Unidos. En particular, cuestiona el anuncio hecho por Time Warner Cable de cobrar por la cantidad de datos descargados en lugar de una suma fija por determinado ancho de banda. Siempre según Free Press, nos encontraríamos ante una forma descarada de restringir el uso de las personas que más usan Internet. Otras compañías telefónicas y gigantes del cable como Comcast y AT&T estarían siguiendo el ejemplo de Time Warner Cable. Se advierte también que estos esquemas de altos precios a los que más consumen reducen la innovación y la fluidez de la web.

La respuesta para detener este supuesto despropósito es el proyecto llamado “Ley de Equidad de la banda ancha” (Broadband Internet Fairness Act) que Free Press hace suya. De acuerdo con los considerandos del proyecto, los planes tarifarios de banda ancha por volumen de uso sólo son razonables si están basados en costos. Los precios por los servicios de banda ancha por encima de costos en un mercado sin un grado suficiente de competencia constituyen una práctica inaceptable. De aprobarse, la Comisión Federal de Comercio (Federal Trade Commission) estaría facultada para investigar y corregir las prácticas de fijación de precios por consumo de ancho de banda que considere injustas o contrarias a la competencia.

De esta forma se pretende que los proveedores de servicios de banda ancha no ofrezcan planes por volumen de uso, irrazonables, injustificados o discriminatorios. Para evitar este problema, los proveedores con planes por volumen de uso estarían obligados a presentar a la Comisión Federal de Comercio información suficiente que evidencie que sus tarifas no tienen efectos negativos. Es decir, vuelta en u, regresamos a la regulación de tarifas.

Adam Thierer (The (Un)Free Press Calls for Internet Price Controls: “The Broadband Internet Fairness Act”) se burla con ironía de la propuesta de Free Press y de la Broadband Internet Fairness Act:  “Oh, Dios mío, no … quiere decir que algunas personas podrían pagar por los costos que imponen? ¿Qué sigue? ¿Vamos a obligar a la gente a pagar por su propia energía, gasolina, electricidad o agua? ¡Piense en el horror!”

No le falta razón. Existen varios aspectos contradictorios en la propuesta. El principal desde nuestro punto de vista, es que no logra explicar suficientemente la razón que justifica regular sólo los precios por volumen de uso y no los demás tipos de tarifas.

Si los precios muy por encima de los costos en mercados con competencia insuficiente son inaceptables, por qué no se regulan también los esquemas de cargo fijo, pues podrían adolecer de los mismos problemas. Regular sólo un sistema tarifario mientras se mantienen incuestionables los demás, pareciera que constituye un mecanismo artificial para evitar que las empresas ofrezcan los sistemas no regulados.

Thierer encuentra más inconvenientes a las alegaciones de Free Press. Como en cualquier sistema de medición y tarificación, el volumen por cantidad de descarga no es más que un esfuerzo para poner precio a un recurso escaso y de esta forma maximizar su uso. Los operadores de banda ancha no se sientan regularmente alrededor de una mesa para intrigar respecto de cuál es la forma más rápida de reducir el uso de la red. Si actuaran de esta forma sus operaciones serían ruinosas, por el contrario, tienen que encontrar modelos de negocio novedosos que permitan cubrir sus costos y fomenten la inversión capaz de satisfacer la nueva demanda y sus desafíos competitivos.

Este tipo de sistemas tarifarios -por unidad consumida y por volumen- son comunes en muchas actividades económicas. En el caso de los restaurantes del tipo todo incluido (all inclusive) se cobra un precio de suma fija, a cambio, los comensales pueden despacharse sobre todos los platillos que sean capaces de comer. Este escenario no es el apropiado para aquellos clientes con una menor capacidad abdominal, pues es claro que el precio se determina en función del promedio de alimentos consumido y es conocido que este tipo de establecimientos son los predilectos de los más glotones. Por otro lado tenemos a los restaurantes con precios a la carta, donde cada platillo tiene un valor determinado y la suma de todos los alimentos elegidos determina el nivel de la cuenta.

Ambos criterios son aceptables, no existe ninguna razón para que se regulen los restaurantes con precios a la carta mientras se dejan de lado a aquellos que cobran un precio del tipo todo incluido, salvo que se quiera castigar a los clientes a dieta y alentar a los comilones.

¿Habrá una ley pro Net Neutrality en USA?

Cord Blomquist hace una polla (en el Perú lo que en otros lares es apuesta o lotería): en este año no se aprobarán las tan deseadas leyes que aseguren la neutralidad de la red. Esta profecía, aparece sustentada en un extenso post (Prediction 2009: No Net Neutrality Regulation) de OpenMarket.org, blog del Competitive Enterprise Institute. A continuación resumimos la posición de Blomquist no sin antes recomendar su lectura.

Para el autor el 2009 podría ver la muerte de las posturas en favor de la regulación de la Net neutrality y veremos a algunos de los más ardientes partidarios de la neutralidad suavizar sus posturas, pues parece obvio que las soluciones no neutrales son el mejor camino para hacer frente al aumento de los contenidos en Internet. 

La mayor útilidad neta de la neutralidad ha sido generar discusión política sobre la censura, la cuestión de la priorización de tráfico y sobre la arquitectura física de la Internet.

Censura. La historia ha demostrado que ninguna ley asegura que los proveedores de servicios se mantengan neutrales con relación a los contenidos. Es la acción pública la que ha forzado a los proveedores de Internet a caminar hacia la neutralidad. Como ejemplo, en setiembre de 2007 Verizon denegó una solicitud de la National Abortion Rights Action League (NARAL) para enviar un mensaje SMS a aquellos de sus miembros que habían autorizado su recibo. La decisión se interpretó como un ataque contra el movimiento. El clamor público generó un cambio en las políticas de Verizon, que finalmente concedió a NARAL la posibilidad de enviar sus mensajes y el mismo trato se dio a los grupos pro-vida.

Priorizar Tráfico. Un sofisticado proceso de priorización de datos ha acompañado el crecimiento de Internet, lo cual permite dar una respuesta a la dinámica de la demanda y reducir los abusos de prácticas como el spam. Los impulsores de la neutralidad creen que las técnicas de gestión de red son inaceptables. Sin embargo, el Internet comercial ha sido siempre un sistema de prioridades. Como ejemplo señala el caso de Comcast -que hemos seguido en este blog (Los seguidores de la Net Neutrality se anotan una victoriaComcast podría ser sancionada en agostoComcast incumplió las políticas de la FCC, pero no será multada), donde la operadora fue finalmente obligada a detener la práctica de bloquear el tráfico de BitTorrent y a asociarse con ésta para abordar el problema de la gestión de la red. La presión pública fue tan grande que Comcast cambió su política y aprobó un tope mensual de 250 gigabytes de tráfico para los usuarios.

Arquitectura de la Red. Internet está físicamente construido por muchas pequeñas redes. Estas redes intercambian datos entre sí para formar Internet. Este modelo de red, sin embargo, se ha construdo a través de lo que se conoce comúnmente como “lineas cortas” y “vías rápidas”. Las líneas cortas son utilizadas por compañías como Akamai y Google para brindar un mejor servicio, colocando los datos cerca a los usuarios. Las vías rápidas permiten burlar rápidamente las vías con mayor tráfico. Durante los Juegos Olímpicos de Beijing, los servidores del Comité Organizador enviaban los videos de los Juegos sobre su propia red mundial de fibra óptica a los servidores de los proveedores de servicios de Internet. Los partidarios de la neutralidad creen que un acuerdo de este tipo representa una ventaja injusta a las empresas más poderosas.

Algunos partidarios de la neutralidad se están apartando de la causa. A pesar del reciente artículo del Wall Street Journal (Google se pasa al lado oscuro, ahora es elooG), que señalaba que Google estaba construyendo su propia vía rápida, fue inexacto (en realidad se trataba de una línea corta), la historia era en parte cierta. Muchos de los partidarios de la neutralidad como Microsoft, Yahoo y Amazon han cambiado de tono. Estas empresas están realizando acuerdos con proveedores de servicios de Internet para ofrecer sus contenidos de manera más eficiente.

La muerte de la reglamentación de la neutralidad representa el reconocimiento de que el tribunal de la opinión pública es mucho más rápido y justo que cualquier regulador. La política pública debe centrarse en asegurar que haya más lugares para los consumidores. Incrementar la competencia en los mercados de banda ancha a través de la flexibilización de las restricciones a las redes inalámbricas sería un buen comienzo. Ya sea a través de la ampliación de los bienes comunes o (preferiblemente) con la creación de propiedad privada sobre grandes franjas del espectro. No es necesario para ello una ley pro Net neutrality.

La FCC libera el espectro

El pasado 4 de noviembre el regulador de las telecomunicaciones de los Estados Unidos, la Federal Communications Commission (FCC), aprobó el uso sin licencia de los llamados espacios de televisión en blanco (Television White Spaces – TWS). La decisión de la FCC tiene una gran importancia ya que permitirá en un futuro inmediato el acceso de los usuarios a servicios de banda ancha únicamente a partir de la adquisición de los equipos necesarios. Ya en un anterior post de Blawyer dimos cuenta de esta discusión (We want the airwaves o la liberalización del espectro radioeléctrico).

Las TWS son porciones no utilizadas del espectro radioeléctrico y por lo mismo su liberalización es exigida por muchos agentes del mercado para brindar acceso a Internet de banda ancha. Como es conocido, el espectro radioeléctrico ha sido considerado tradicionalmente como un recurso natural escaso por los gobiernos y lo administran limitando su uso a unos pocos beneficiarios, a los que se les atribuyen frecuencias con fines específicos. Sin embargo, de un tiempo a esta parte existen importantes porciones de espectro que se están dejando de utilizar como resultado de la obsolescencia y el cambio tecnológico.

Este es el caso del espectro empleado por la industria de la radiodifusión de los Estados Unidos para sus emisiones de televisión analógicas, entre los 54 y 806 MHz. Dentro de unos pocos meses, en el mes de febrero de 2009, estos espacios van a dejar de utilizarse con el apagón analógico y el inicio de las transmisiones en la modalidad digital en la frecuencia entre los 54 y 698 MHz.

De acuerdo con un comunicado de prensa de la FCC, la norma aprobada es un cuidadoso primer paso para permitir la operación de dispositivos fijos o portátiles sin licencia en los TWS para acceso a Internet. Estos dispositivos deberán contar con la capacidad de geolocalización suficiente y el acceso a Internet a partir de una base de datos la cual permitirá reconocer el espacio en blanco que puede ser utilizado, sin interferir con equipos de baja potencia, micrófonos inalámbricos, estaciones de televisión y cabeceras de sistemas de televisión por cable.

Sin embargo, la medida de la FCC no está libre de polémica, pues se adivierte que estos dispositivos de acceso a Internet podrían interferir con algunas industrias que han venido utilizando tradicionalmente estos espacios. Las empresas de radiodifusión, productores de teatro y franquicias deportivas se han mostrado temerosas de que estas tecnologías afecten sus actividades. “Estamos profundamente decepcionados con la decisión de la  FCC que podría silenciar las producciones de Broadway y las que se ejecutan en otros lugares de todo el país“, señaló Charlotte St Martin, directora ejecutivo de la Liga de Teatro y Productores Americana (League of American Theatres and Producers), una asociación que representa a la industria teatral de la ciudad de Nueva York. Igual opinión ha sido expresada por la Asociación Nacional de Organismos de Radiodifusión (National Association of Broadcasters).

Como en toda medida de esta naturaleza tendremos ganadores y perdedores. Entre los ganadores están empresas como Google (incluso abrió un blog para promocionar esta liberalización), Microsoft, Intel,   Motorola, Phillips y Dell. En el otro extremo además de las industrias afectadas que hemos señalado, se resentirán algunos modelos de negocio que sustentan a empresas de telecomunicaciones como Verizon, AT&T, Sprint y Comcast. Cabe mencionar, por ejemplo, que Verizon y AT&T han pagado en los últimos años una importante cantidad de dinero para adquirir porciones de espectro para su explotación exclusiva.

No cabe duda que nos encontramos ante una decisión de indiscutible relevancia, vremos como se van desarrollando las cosas. Creo que podríamos tener algunos problemas a partir de algunas características económicas del recurso liberalizado. El espectro no es acumulable, por lo tanto el espectro que no se usa en determinado momento se pierde. Si su uso es limitado y no hay congestión su costo marginal es nulo, en esta situación lo recomendable es que se permita su uso libre. Sin embargo, a partir de determinado momento, cuando el número de usuarios aumenta hasta cierto nivel se empieza a registrar cierto nivel de congestión, lo cual hace que el costo marginal para los usuarios sea positivo, entonces el recurso no alcanzará para satisfacer a todos los demandantes. Creo que el acceso libre a Internet a partir de los TWS podría llegar a generar importantes niveles de congestión en algunos entornos, sobre todo urbanos, si se llega a este punto los usuarios podrían volver a exigir soluciones comerciales tradicionales con lo cual estaríamos como al principio, lo único que habríamos perdido es tiempo.

¿Está en peligro Internet?

Lima, como todas las ciudades latinoamericanas, es una ciudad extraña. Tengo la impresión que su carácter deriva de sus origenes y confluencias hasta convertirla en un resumen con ingredientes andinos, criollos, europeos, borbónicos, populares, urbanos, cosmopolitas, cucufatos y aldeanos. Es decir, quien pasee por la ciudad tendrá la sensación de estar en un concierto con los cumbiamberos del Grupo 5, The Doors y Beethoven todos tocando en el escenario al mismo tiempo. Una de las rarezas más notorias que tenemos los limeños es nuestra relación con el mar. La ciudad besa literalmente el Pacífico, sin embargo, sus playas no se cuidan con esmero. Esta situación ocasiona, que se cuenten por miles los que huyen de ella los fines de semana estivales para refugiarse en los clubes y urbanizaciones de la Comunidad Campesina de Asia situada a unos cien kilómetros de la ciudad. Lógicamente, esta estampida hace que la autopista Panamericana Sur se atasque y que el trayecto sea una tortura. Algunos piensan que esto podría  pasar con Internet.

Hace poco dimos cuenta de cómo la Federal Communications Commission (FCC) obligó a Comcast (Comcast incumplió las políticas de la FCC, pero no será multada) a dejar de lado su política de gestión del tráfico de Internet. Los defensores de este tipo de prácticas sostienen que las nuevas aplicaciones de Internet generan tal tráfico que si no se gestiona de forma eficiente, Internet podría ralentizarse de forma importante. En esta línea se pronuncia Robert M. McDowell, consejero de la FCC que votó por la legalidad de la práctica realizada por Comcast, en un artículo publicado en el Washington Post (Who Should Solve This Internet Crisis?) dos días antes de la votación del Memorando de Opinión y Orden que censuró la gestión del operador.

McDowell cree que Internet pasa por una crisis similar a la de 1987 cuando tenía 35 mil usuarios. En aquella oportunidad, los ingenieros se encontraron con la disyuntiva de permitir que la red se embotellara o buscar una solución. Esta historia, se solucionó priorizando los contenidos de las aplicaciones en tiempo real sobre aquellos usos que no sufrirían por causa del retardo. Estos esfuerzos desatascaron Internet. Hoy, cuando los usuarios de las redes p2p transfieren música o vídeos, llaman a miles de computadoras. Consecuentemente, las conexiones se atascan y la Red se ralentiza. De acuerdo con este artículo, en hora pico, sólo el 5 por ciento de los consumidores de Internet consumiría el 90 por ciento del ancho de banda. Sin embargo, este problema no debe solucionarse desde la esfera del gobierno, por el contrario, debemos dejar que los ingenieros y los grupos de interés continúen haciendo lo que han hecho por años, ponerse de acuerdo sobre la mejor forma de gestionar Internet.

La posición de McDowell no complace a todos. Por ejemplo, en el blog de la iniciativa Save the Internet (StI) (Who Shouldn’t Solve This Internet Crisis) se señala que el comisionado intenta excusar el comportamiento Comcast sobre la base un posible atasco de Internet, pero, de acuerdo con los examenes independientes conducidos por Associated Press, la Electronic Frontier Foundation y el Instituto Max Planck, Comcast bloqueó los protocolos p2p en todo momento, no sólo en las horas pico y sin importarle el tamaño de los archivos transferidos. Para StI en lugar de reinvertir en más capacidad, Comcast se rembolsa los beneficios mientras que explota el control que tiene sobre la red para socavar la competencia. Interesante discusión seguiremos atentos cómo se va desenvolviendo.

Comcast incumplió las políticas de la FCC, pero no será multada

La FCC (Federal Communications Commission) aprobó el pasado 1 de agosto un Memorando de Opinión y Orden para que Comcast dejara su polémica práctica de administrar Internet a través del mecanismo conocido como throttling (ver nuestro post: Compast podría ser sancionada en agosto). La Comisión, sin imponer sanciones monetarias, otorgó un plazo de 30 días para que la operadora divulgara sus métodos de administración del tráfico de Internet.  La orden, aprobada en una votación ajustada de 3 a 2, concluyó que Comcast monitoreó el contenido de las conexiones de Internet de sus abonados y bloqueó selectivamente sus conexiones p2p. “Esencialmente, Comcast abre cada correo y lo abre no para entregarlo sobre la base de la dirección que aparece en el sobre sino por el tipo de letra de sus clientes”; señaló un vocero de la Comisión.

En la práctica, Comcast revisaba cada paquete de tráfico de Internet de sus clientes y los encaminaba según su contenido, no de su destino. La práctica de extrangular las conexiones p2p realizada por Comcast era particularmente extensa, incluso llegó a alcanzar en ciertas áreas las tres cuartas partes de todas las conexiones de p2p.

La orden puede interpretarse como una defensa de las libertades de Internet sancionadas por la FCC en el año 2005 en línea con el criterio de Net Neutrality, que como se sabe prohíbe que los operadores de acceso restrinjan o limiten el tráfico que fluye por Internet.

El presidente de la Comisión, el republicano Kevin Martin y los demócratas Jonatan Adelstein y Michael Copps, se mostraron favorables a la orden; votaron en contra, los comisionados republicanos Robert McDowell y Deborah Taylor Tate. Para el republicano McDowell la decisión politiza Internet: “La mayoría ha empujado a políticos y a burócratas en decisiones de ingeniería (…). Será interesante ver cómo la FCC manejará su recién creado poder porque, como institución, somos incapaces de decidir cualquier acción en los nanosegundos del tiempo de Internet. Además, pedir que nuestro gobierno tome estas decisiones significará que cada dos a cuatro años los principios de base podrían cambiar dependiendo de los resultados electorales.” Asimismo, agregó que la decisión de la Agencia podía dañar en última instancia la capacidad de los usuarios para utilizar la web. “(…) Irónicamente, la acción de hoy puede dar lugar realmente a velocidades en línea más lentas para el 95 por ciento de los consumidores de Internet en América “.

Sena Fitzmaurice, Directora de Comunicaciones Corporativas y Asuntos Gubernamentales de Comcast en un comunicado público señaló que aun cuando se complace de que la Comisión no haya encontrado ninguna conducta que justifique una multa, “(…) nos decepciona la conclusión dividida de la Comisión porque creemos que nuestras elecciones en la gestión de redes fueron razonables, completamente consistentes con las prácticas de la industria y que no bloqueamos el acceso a sitios web o aplicaciones online, incluyendo servicios peer-to-peer”. Se espera que Comcast cuestione la decisión de la FCC ante los tribunales.

Los partidarios de la Net Neutrality han tomado esta decisión como una importante victoria (savetheinternet.com y Art Brodsky), la cual tendrá probablemente más implicancias que las del mero caso Comcast, teniendo en cuenta la influencia de la FCC como espejo de otras regulaciones y la popularidad que están teniendo las prácticas de gestionar el tráfico de Internet mediante técnicas que retan el criterio de la Net Neutrality.

Comcast podría ser sancionada en agosto

Como señaláramos en nuestro post del 16 de julio (Los seguidores de la Net Neutrality se anotan una victoria) la FCC (Federal Communications Commission) amenazó con sancionar a Comcast, el proveedor de acceso a Internet más importante de los Estados Unidos, si seguía limitando el acceso de sus abonados a programas demandantes de ancho de banda.

El caso se encuentra actualmente bajo análisis de la FCC. A pesar de que inicialmente el presidente de la FCC señaló que no pensaba imponer sanciones a Comcast, se habría filtrado la información que tres de los cinco miembros de la Comisión estarían de acuerdo con sancionar a la empresa por entorpecer el tráfico de Internet de sus abonados. Sin embargo, según funcionarios de la propia Comisión, la decisión no puede considerarse como definitiva hasta que voten los cinco miembros, lo cual sucedería en la sesión del 1 de agosto.

Los tres votos a favor de sancionar a Comcast serían los de los comisionados demócratas Michael Copps y Jonatan Adelstein y el de su presidente, el republicano, Kevin Martin, los cuales estarían reconociendo que la compañía violó las denominadas “Libertades de Internet” reconocidas por la FCC desde la gestión de Michael Powell, las  cuales constituyen una serie de principios que aseguran los derechos de los consumidores de servicios de banda ancha.