Antonio Rodriguez Lobatón

Abogado por la Universidad de Lima. Cursos completos en la Maestría de Derecho y Economía de la Regulación de Servicios Públicos de la Universidad Peruana de Ciencias Aplicadas. Profesor de la Universidad Peruana de Ciencias Aplicadas y la Pontificia Universidad Católica del Perú. Miembro investigador del Instituto Riva Agüero. Especialista en derecho de telecomunicaciones, competencia y regulación de servicios públicos.

Impuesto a los celulares: ¿Una buena idea?

Con alguna regularidad en el Perú se debate la posibilidad de gravar con una tasa adicional el consumo de algunos servicios de telecomunicaciones, como el servicio de telefonía fija, el de telefonía celular o la televisión por cable. Veremos a continuación algunos antecedentes y las razones por las cuales creemos que ésta no es una buena medida.

Algunos antecedentes

Muchos olvidan que en el Perú varios servicios de telecomunicaciones ya estuvieron gravados con el Impuesto Selectivo al Consumo (ISC), una tasa adicional al Impuesto General a las Ventas. El Decreto Legislativo 190, Ley de Impuesto General a las Ventas, vigente desde junio de 1981 gravó con un ISC del 15% el servicio de cables, telex y telefonía de larga distancia y con 10% el servicio de telefonía local. El ISC para estos servicios estuvo vigente hasta el año 1993. Pero como nuestro país es nostálgico, en el año 2003 la administración del presidente Toledo propuso un paquete tributario dirigido a incrementar algunos impuestos al consumo, afectando a la televisión por cable, la telefonía móvil celular y larga distancia con una tasa del 12% y 10% para la telefonía fija local por consumos mayores a 100 soles. Finalmente, las reformas fueron aprobadas sin mayores tributos al cable y a la telefonía celular.

Hace unos meses, durante la campaña electoral, alguna prensa dijo (aquí) que el Plan de Gobierno de Gana Perú (aquí) proponía imponer un ISC al consumo para la televisión por cable y la telefonía celular. Sabemos que no fue una afirmación cierta. El Plan de Gana Perú propone crear varios tributos pero no para los servicios de telecomunicaciones.

Sin embargo, lo cierto es que muchos gobiernos vienen imponiendo este tipo de medidas tributarias como una forma fácil de incrementar los ingresos de la caja fiscal. En los Estados Unidos los ciudadanos de algunos Estados pagan hasta un cuarto de la factura del servicio telefónico celular en impuestos. En la Argentina existe un tributo a la telefonía celular (no aplicable a las líneas de prepago) equivalente al 1% de total facturado para financiar el deporte de alto rendimiento. México aprobó en el 2009 como parte Impuesto Especial sobre Producción y Servicios (IEPS) un gravamen del 3% sobre algunos servicios de telecomunicaciones (como la telefonía móvil y la televisión por cable), excepto a servicios de telefonía rural e Internet.

Impuesto a los celulares: mala cosa

Creemos que no existe justificación para imponer mayores tasas impositivas a los servicios de telecomunicaciones como la telefonía celular o la televisión por cable. Como quiera que los gobiernos vienen incentivando una serie de políticas públicas para el desarrollo de la telefonía móvil, no hace sentido que al mismo tiempo generen por la vía impositiva una reducción de la demanda.

Es una mala idea porque una mayor tasa impositiva a la telefonía celular viola el principio de la neutralidad fiscal, el cual sostiene que los tributos deben tratar a todas las actividades económicas de la misma forma, es decir, que el tributo no debe ser un factor importante en las decisiones del consumidor. Un tributo sobre la telefonía celular o al cable hace que estos servicios pierdan valor, y por lo tanto su disfrute será menor.

Ramsey, Pigou y efectos regresivos

Algunos economistas recomiendan ajustar el principio de neutralidad fiscal a la Regla de Ramsey, que sostiene que es menos distorsionante y mejor para los ingresos fiscales, gravar aquellos bienes de demanda inelástica, ya que tienen menor impacto en el comportamiento del consumidor. La demanda de la telefonía celular es elástica, es decir, cuando los precios suben, la cantidad demandada disminuye. Una prueba de la sensibilidad de los consumidores al precio, está en el crecimiento de la telefonía de prepago, donde los costos mensuales por abonado son más bajos que en los planes postpago.

Otra justificación para establecer tasas impositivas mayores a algunos bienes y servicios, vulnerando el principio de neutralidad, es cuando el gobierno pretende reducir el número de consumidores de dichos bienes o servicios. Ello ocurre en dos casos. Primero, con los llamados impuestos al pecado, que se establecen para desalentar un comportamiento que los responsables políticos consideran pecaminoso o indeseable (como a las bebidas alcohólicas o al tabaco); y, también en los impuestos del tipo Pigou, utilizados para hacer frente a determinadas externalidades negativas como la contaminación. Sin embargo, los servicios de telefonía o televisión por cable no generan efectos indeseables que deban ser reprimidos.

Por otro lado, los impuestos a la telefonía celular y al cable son regresivos, es decir, afectan a los usuarios de menores ingresos. En un principio, el servicio de telefonía móvil estuvo gravado con tasas adicionales (como en el Perú) cuando se consideraba que era un bien suntuario, sin embargo, hoy la tenencia de un teléfonos celular se ha extendido considerablemente. En el Perú el número de teléfonos celulares en uso se ha multiplicado por veinte desde el año 2000. Es probable que en el Perú los hogares de menores ingresos sean atendidos sólo por la telefonía celular.

En resumen, los teléfonos celulares y la televisión por cable han penetrado profundamente en todos los niveles sociales de la sociedad peruana, pero los usuarios son sensibles a los cambios de precios. Gravar con tasas adicionales a los servicios de telefonía celular y al cable no parece ser una medida acertada.

Anonymous y la operación AndesLibre

“Ciudadanos libres del mundo, los gobiernos de Chile y Perú siguen vulnerando los derechos de su pueblo, esta vez vigilando todas sus comunicaciones en los blogs, facebook, twitter e incluso ubicando geográficamnte la fuente de lo que se postea y/o se comunica […] Anonymous no lo permitirá.”

Con esta declaración, que de puro flojo he copiado del blog del morsa (aquí), la no organización Anonymous anunció la operación «Andes Libre«; es decir, que en plan vengador irán a poner en vereda a los gobiernos de Chile y Perú. El pecado, la supuesta decisión de vigilar las comunicaciones de los ciudadanos en redes sociales.

Qué es Anonymous

De Anonymous es mucho lo que se dice pero poco es relevante. Básicamente algunas pinceladas de su chancultura. Sabemos que el símbolo del movimiento es una máscara con la cara del conspirador católico inglés Guido Fawkes (1570 – 1606)  actualizado en la figura del anarquista revolucionario de la cinta V de Vendetta (2006) de James McTeigue. No es fácil definir a una no organización, pero al parecer Anonymous es un conjunto de personas que actúan bajo una estructura no jerárquica y no afiliada, con el objeto de realizar acciones sincronizadas contra un objetivo de un enemigo acordado, acusado de violentar algún derecho importante de cara al colectivo.

De acuerdo con la información dispersa que he recogido, Anonymous se ha preocupado de realizar sus ataques en medio de algún conflicto o reinvidicación. Empezaron por puro gusto con un ataque a la Iglesia de la Cienciología (Proyecto Chanology) (aquí), no los culpo, tomaron por asalto la web del partido demócrata-cristiano irlandés Fine Gael. Son conocidas las represalias contra la Sociedad General de Autores y Editores (SGAE) y los partidos políticos españoles cuando se discutía Ley Sinde (Operación Sinde). También se enfrentaron a Visa, Mastercard, PayPal y Amazon (Operación Payback). En Wikipedia podemos encontrar un listado de los operativos de Anonymous.

Según Gabriella Coleman, en El País (aquí), unos mil activistas son los que ponen sus computadoras al servicio de los ataques del tipo DDoS o ataques distribuidos de denegación de servicio (Distributed Denial of Service). Los DDoS son el arma más utilizada para estos ataques reivindicativos. Consiste en enviar simultáneamente miles de peticiones a un servidor hasta que este colapsa, normalmente sólo por espacio de unas horas.

¿Por qué Chile y Perú (sic)?

Parece que el ataque al gobierno chileno tendría algún sentido desde la óptica de este movimiento. Miguel Morachimo en esta esquina (Operación AndesLibre: Anonymous ataca al Estado Peruano) encuentra la razón en un hecho público: la decisión del gobierno chileno de contratar a una empresa para monitorear los comentarios de sus ciudadanos en redes sociales. Sin embargo, resulta lógico que la Administración, cumpliendo determinadas reglas, gaste recursos en saber qué es lo que dicen sus ciudadanos, con la finalidad de atenderles. Multitud de organizaciones lo hacen.

La represalia contra el gobierno peruano tiene menos justificación. Y aunque la tuviera, lo que no saben los vengadores de Anonymous es que el Estado peruano es incorregible. Ya se darán cuenta. Algunos argumentos se han barajado para explicar este ataque, ninguno muy consistente la verdad. Miguel Morachimo ha encontrado un correo con lo que parecer ser la justificación del ataque: el caso de los petroaudios, los ataques a periodistas regionales (ser perdiodista en el interior del Perú se está convirtiendo en una profesión de alto riesgo) y la nueva Ley de Protección de Datos Personales.

El morsa especula con otra lista de posibles razones:  juicios abiertos a blogueros que escriben sobre política, el caso petroaudios, ambigüedades del próximo gobierno con relación a las redes sociales y política criminalizadora de los derechos de autor en entornos digitales.

Estimo -y es mi particular punto de vista- que ninguno de los hechos podrían justificar la agresión de Anonymous. El juicio contra Godoy no es más oscuro que los miles de procesos que se desenvuelven en el Poder Judicial todos los días. El caso Petroaudios es un escándalo mayor, ciertamente, pero pareciera que estamos más ante un caso de espionaje industrial a escala industrial (potoaudio incluído). Sobre las ambiguedades del próximo gobierno, la falta de claridad -y una buena campaña- fueron las claves para ganar las pasadas elecciones, creo que las declaraciones de Humala no son peligrosas. Finalmente, sobre la criminalización de las violaciones de los Derechos de Autor en la red, ya tenemos Digital Millenium Copyright Act hace años y nadie parece haberse enterado, en lo que viene a ser nuestra particular forma acatar la vieja fórmula del Derecho Indiano, «la ley se obedece pero no se cumple»

¿Quién controla al vengador?

Estas acciones podrían estar dentro del tipo establecido por el Artículo 207-B del Codigo Penal peruano que castiga con pena privativa de libertad de tres a cinco años a quien ingresa o interfiere indebidamente una base de datos, sistema, red o programa de computadoras o cualquier parte de la misma con el fin de alterarlos, dañarlos o destruirlos. Ahora que nuestra policía pueda encontrar a los autores y capturarlos, es harina de otro costal.

En lo que toca al fondo del asunto, que un grupo de anónimos ande por la Red atizando a quienes según ellos violan determinadas libertades (las más variadas e indeterminadas) no parece lo más civilizado y democrático.

Algunos piensan que los límites a la acción personal de los individuos está en el Código Penal y es un error. Un ataque del tipo DDoS es como si se pusiera una decena de camiones en la puerta de la casa de una persona, el Código Penal probablemente no sancione esta acción, pero es evidente que se está afectando, cuando menos, el derecho al libre tránsito tanto del afectado como de quienes tenían pensado visitarle. Es además atentatorio contra la libertad de expresión y de información. En este contexto es aún más cuestionable que se realicen este tipo de ataques sobre sitios de la Administración pública, que lo único que van a generar es la incomodidad de los ciudadanos que pensaban visitarlos.

Otro aspecto que preocupa es la arbitrariedad y el oscurantismo con que se toman las decisiones sobre los ataques y la imposibilidad que tienen los afectados de revertirlas. Prueba de ello es que a estas alturas de la jornada todavía discutimos sobre las reales razones del ataque. No existe posibilidad de ejercer ningún nivel de defensa, ni autoridad a la cual recurrir, ni recurso que interponer, ni explicación que dar, nadie que pueda escuchar.

Un par de buenos artículos sobre Anonymous:

«Somos Anonymous» (aquí), en Ciberp@is.

«#Anonymous: el origen de una cibercultura (4chan/b/)» (aquí), en Sociología y redes sociales.

[vsw id=»mD2KgeRM5Uc» source=»youtube» width=»425″ height=»344″ autoplay=»no»]

Sobre el rol subsidiario del Estado y las pretensiones de eliminarlo

“[El Estado es un] enorme aparato que por cientos de kilómetros se encarga de administrar problemas liliputienses”

Alexis Charles de Clérel, vizconde de Tocqueville (1805 – 1859)

Hace unas semanas, en medio del fragor del combate electoral, los representantes del partido que finalmente ganaría las elecciones presidenciales peruanas nos anunciaron su particular lista de reformas al modelo económico existente. Una de las medidas puesta a debate fue la posible modificación del artículo 60 de la Carta Política de 1993. En particular la manzana de la discordia parece ser el segundo párrafo del artículo mencionado, el cual nos señala lo siguiente: «Sólo autorizado por ley expresa, el Estado puede realizar subsidiariamente actividad empresarial, directa o indirectamente, por razón de alto interés público o de manifiesta conveniencia nacional».

Esta disposición describe lo que se ha venido a llamar el rol subsidiario del Estado y, que según uno de los voceros más autorizados en materia económica del futuro nuevo oficialismo sería uno de los grandes males del actual diseño institucional, gracias a este principio -nos dicen- el «Estado se ha corrido al otro extremo y se estaría cruzando de brazos frente a situaciones fragantes (sic) como el no acceso a servicios financieros, por parte de los micro y pequeños empresarios

En lo particular, luego de leer estas y otras muchas declaraciones similares, creo que no se entiende qué es lo que significa que el Estado tenga un rol subsidiario en la economía y cuales son los peligros de dejar de lado este principio.

El origen del rol subsidiario

La idea de mantener al Estado en un papel subsidiario aparece en la encíclica Quadragesimo Anno del Papa Pío XI (1857 – 1939) promulgada en 1931, era de El Gran Gatsby, las HoovervillesCinderella Man. Las ideas que sostienen esta doctrina vienen del obispo de Maguncia, el alemán Wilhelm Emmanuel Freiherr von Ketteler (1811-1877) y el sacerdote jesuita italiano Luigi Taparelli D’Azeglio (1793-1862), que de liberales o capitalistas no tienen nada de nada.

Valdría la pena que los detractores de la subsidiaridad repasen el breve texto de Quadragesimo, seguro que al hacerlo se sorprenderán al descubrir que aún cuando reconoce que el libre mercado es beneficioso para la sociedad, ataca la acumulación de recursos económicos en manos de unos pocos y sus consecuencias.

Es en el marco de esta exigencia para la moderación del libre mercado, que aparece el desarrollo teórico de la subsidiariedad del Estado de la siguiente forma:

«Es ilícito quitar a los particulares lo que con su propia iniciativa y propia industria pueden realizar para encomendarlo a una comunidad, así también es injusto, y al mismo tiempo grave perjuicio y perturbación del recto orden social, avocar a una sociedad mayor y más elevada lo que pueden hacer y procurar comunidades menores e inferiores. Todo influjo social debe por su naturaleza prestar auxilio a los miembros del cuerpo social, nunca absorberlos y destruirlos».

La doctrina social de la iglesia recoge de esta forma un principio que regula el grado de intervención del Estado en la vida económica y social de un colectivo organizado, y el ámbito de actuación de los ciudadanos, grupos sociales y agentes económicos intermedios.

Es decir, contrariamente a lo que se viene diciendo, el rol subsidiario no es fruto ideológico de la rancia derecha trasnochada como un forma para atar de manos al Estado, por el contrario, creemos que estamos ante un principio sano y de lo más razonable, que lejos de eliminarse deberíamos de intentar proteger.

Porqué es bueno el rol subsidiario

El rol subsidiario del Estado en una economía de mercado es fundamental, porque evita que éste intervenga en actividades de la vida económica nacional que de común están siendo provistas de forma más o menos eficiente por los privados. Nada asegura que la intervención del Estado será mejor o más eficiente, todo lo contrario, la experiencia nos dice que la actuación del Estado será siempre de menor calidad. Quienes piensan que los burócratas de hoy serán más eficientes que los funcionarios que gerenciaron el aparato público durante los gobiernos de Velasco (1968 a 1975), Belaunde (1980 a 1985) o García (1985 a 1990) revelan sólo un ejercicio de fatal arrogancia.

Se suele perder de vista que el Estado cuando invierte en la actividad económica no lo hace con sus propios recursos pues no los tiene, sino que mete mano a los recursos públicos, eufemismo que no sirve para otra cosa que para denominar a los dineros que el Estado ha recogido -básicamente por la vía impositiva- del tejido productivo, es decir de los privados. Por lo tanto, al no haber generado estos ingresos con ningún esfuerzo, no tendrá tampoco ningún cuidado en no malgastarlo.  La experiencia nos dice que lo último es lo que comúnmente hace el Estado además de dejar la actividad en la que participa hecha jirones.

Por otro lado, el principal inconveniente del Estado es que es esencialmente incapaz de recoger y administrar de forma eficiente la información que genera el mercado. La sociedad produce un enorme caudal de información que los millones de agentes económicos evalúan y procesan diariamente sin mayor dificultad. Mientras que la burocracia estatal, aparcada lejos de esta dinámica, es incapaz de hacer este ejercicio a la misma velocidad y precisión, por lo tanto el resultado que arroja su intervención siempre será infinitamente inferior.

Entonces… muerte al Estado

No. El Estado ha demostrado probadamente su necesidad. Aunque hay que reconocer que rara vez se dedica a lo que debiera, en gran medida porque funcionarios y políticos suelen padecer de la arrogancia de creer que tienen unas capacidades de las que evidentemente carecen.

Dedicaremos otra entrada a desarrollar estas ideas.

Sobre el rol subsidiario del Estado y las pretensiones de eliminarlo

“[El Estado es un] enorme aparato que por cientos de kilómetros se encarga de administrar problemas liliputienses”

Alexis Charles de Clérel, vizconde de Tocqueville (1805 – 1859)

Hace unas semanas, en medio del fragor del combate electoral, los representantes del partido que finalmente ganaría las elecciones presidenciales peruanas nos anunciaron su particular lista de reformas al modelo económico existente. Una de las medidas puesta a debate fue la posible modificación del artículo 60 de la Carta Política de 1993. En particular la manzana de la discordia parece ser el segundo párrafo del artículo mencionado, el cual nos señala lo siguiente: «Sólo autorizado por ley expresa, el Estado puede realizar subsidiariamente actividad empresarial, directa o indirectamente, por razón de alto interés público o de manifiesta conveniencia nacional».

Esta disposición describe lo que se ha venido a llamar el rol subsidiario del Estado y, que según uno de los voceros más autorizados en materia económica del futuro nuevo oficialismo sería uno de los grandes males del actual diseño institucional, gracias a este principio -nos dicen- el «Estado se ha corrido al otro extremo y se estaría cruzando de brazos frente a situaciones fragantes (sic) como el no acceso a servicios financieros, por parte de los micro y pequeños empresarios

En lo particular, luego de leer estas y otras muchas declaraciones similares, creo que no se entiende qué es lo que significa que el Estado tenga un rol subsidiario en la economía y cuales son los peligros de dejar de lado este principio.

El origen del rol subsidiario

La idea de mantener al Estado en un papel subsidiario aparece en la encíclica Quadragesimo Anno del Papa Pío XI (1857 – 1939) promulgada en 1931, era de El Gran Gatsby, las HoovervillesCinderella Man. Las ideas que sostienen esta doctrina vienen del obispo de Maguncia, el alemán Wilhelm Emmanuel Freiherr von Ketteler (1811-1877) y el sacerdote jesuita italiano Luigi Taparelli D’Azeglio (1793-1862), que de liberales o capitalistas no tienen nada de nada.

Valdría la pena que los detractores de la subsidiaridad repasen el breve texto de Quadragesimo, seguro que al hacerlo se sorprenderán al descubrir que aún cuando reconoce que el libre mercado es beneficioso para la sociedad, ataca la acumulación de recursos económicos en manos de unos pocos y sus consecuencias.

Es en el marco de esta exigencia para la moderación del libre mercado, que aparece el desarrollo teórico de la subsidiariedad del Estado de la siguiente forma:

«Es ilícito quitar a los particulares lo que con su propia iniciativa y propia industria pueden realizar para encomendarlo a una comunidad, así también es injusto, y al mismo tiempo grave perjuicio y perturbación del recto orden social, avocar a una sociedad mayor y más elevada lo que pueden hacer y procurar comunidades menores e inferiores. Todo influjo social debe por su naturaleza prestar auxilio a los miembros del cuerpo social, nunca absorberlos y destruirlos».

La doctrina social de la iglesia recoge de esta forma un principio que regula el grado de intervención del Estado en la vida económica y social de un colectivo organizado, y el ámbito de actuación de los ciudadanos, grupos sociales y agentes económicos intermedios.

Es decir, contrariamente a lo que se viene diciendo, el rol subsidiario no es fruto ideológico de la rancia derecha trasnochada como un forma para atar de manos al Estado, por el contrario, creemos que estamos ante un principio sano y de lo más razonable, que lejos de eliminarse deberíamos de intentar proteger.

Porqué es bueno el rol subsidiario

El rol subsidiario del Estado en una economía de mercado es fundamental, porque evita que éste intervenga en actividades de la vida económica nacional que de común están siendo provistas de forma más o menos eficiente por los privados. Nada asegura que la intervención del Estado será mejor o más eficiente, todo lo contrario, la experiencia nos dice que la actuación del Estado será siempre de menor calidad. Quienes piensan que los burócratas de hoy serán más eficientes que los funcionarios que gerenciaron el aparato público durante los gobiernos de Velasco (1968 a 1975), Belaunde (1980 a 1985) o García (1985 a 1990) revelan sólo un ejercicio de fatal arrogancia.

Se suele perder de vista que el Estado cuando invierte en la actividad económica no lo hace con sus propios recursos pues no los tiene, sino que mete mano a los recursos públicos, eufemismo que no sirve para otra cosa que para denominar a los dineros que el Estado ha recogido -básicamente por la vía impositiva- del tejido productivo, es decir de los privados. Por lo tanto, al no haber generado estos ingresos con ningún esfuerzo, no tendrá tampoco ningún cuidado en no malgastarlo.  La experiencia nos dice que lo último es lo que comúnmente hace el Estado además de dejar la actividad en la que participa hecha jirones.

Por otro lado, el principal inconveniente del Estado es que es esencialmente incapaz de recoger y administrar de forma eficiente la información que genera el mercado. La sociedad produce un enorme caudal de información que los millones de agentes económicos evalúan y procesan diariamente sin mayor dificultad. Mientras que la burocracia estatal, aparcada lejos de esta dinámica, es incapaz de hacer este ejercicio a la misma velocidad y precisión, por lo tanto el resultado que arroja su intervención siempre será infinitamente inferior.

Entonces… muerte al Estado

No. El Estado ha demostrado probadamente su necesidad. Aunque hay que reconocer que rara vez se dedica a lo que debiera, en gran medida porque funcionarios y políticos suelen padecer de la arrogancia de creer que tienen unas capacidades de las que evidentemente carecen.

Dedicaremos otra entrada a desarrollar estas ideas.

Net neutrality, el turno de Europa

La Neutralidad de la red viene generando un interés creciente. Inicialmente parecía que el asunto era poco más que parte del folclore americano, pero con el tiempo diversas latitudes se vienen sumando a la discusión. Pasado el turno del debate norteamericano (Net neutrality a consulta pública y El ruido y la furia del caso Comcast (1 y 2)) y de la veloz aprobación de la Ley chilena (Neutralidad de red a la chilena), parece que Europa entra en la arena.

La Unión Europea se pronuncia

Al final del 2009 la Unión Europea (UE) aprobó el paquete de reforma del sector de las telecomunicaciones, teniendo a la Neutralidad de la red como un principio regulatorio a ser promovido por los organismos reguladores de cada país miembro. Siguiendo esta trocha, la Comisión Europea publicó el 19 de abril de este año una Comunicación sobre la neutralidad de la red y el estado de Internet abierto en Europa (COM(2011) 222 final).

De acuerdo con la Comunicación, el debate de la Neutralidad de la red se centra en la razonabilidad de las políticas de gestión de tráfico diseñadas por los operadores. Aún cuando se reconoce que los operadores pueden adoptar prácticas de gestión para garantizar un uso eficiente de las redes, se han denunciado algunas prácticas que irían contra el carácter abierto de Internet, como el bloqueo o degradación de servicios legales (como servicios de Voz sobre IP) que compiten con los servicios brindados por los operadores de telecomunicaciones.

La Comisión concluye, sin embargo, que no tenía evidencia para determinar que estas preocupaciones estuvieran justificadas, aunque reconoció que debía realizarse una investigación más exhaustiva.

Existiría consenso en que la transparencia sobre la calidad del servicio es un aspecto esencial. Teniendo en cuenta la complejidad y el carácter técnico de la multiplicidad de ofertas en Internet, debe establecerse un equilibrio entre las necesidades de simplicidad y el suministro de información detallada y adecuada. La Comisión considera que las normas sobre transparencia, distribución y calidad de servicios que forman parte de la revisión del marco de las comunicaciones electrónicas de la UE contribuirán a la generación de resultados competitivos.

Si el sistema en su conjunto no garantiza que los consumidores pueden acceder y distribuir contenidos, servicios y aplicaciones a su elección con una suscripción a Internet, la Comisión evaluará la necesidad de imponer medidas más estrictas para lograr la competencia y la elección que los consumidores se merecen. Cualquier regulación adicional debe evitar desalentar las inversiones, proteger modelos de negocio innovadores, conducir a un uso más eficiente de las redes y crear nuevas oportunidades de negocio en los diferentes niveles de la cadena de valor de Internet.

La consulta inglesa

Ofcom (Office of Communications), el regulador británico de las comunicaciones, publicó en junio del año pasado un documento (Traffic Management and ‘net neutrality’ – A Discussion Document) de debate sobre las prácticas de gestión del tráfico de Internet.

El documento reconoce que algunas redes ya están experimentando problemas de congestión debido al intenso uso. Como respuesta, los operadores de redes y proveedores de servicios de Internet (ISP) están haciendo un uso intensivo de técnicas de gestión del tráfico. Aunque la gestión de tráfico ofrece algunos beneficios a los consumidores, existe la preocupación de que las empresas utilicen la gestión del tráfico para dañar a la competencia.

Ninguna queja formal ha recibido  Ofcom sobre las políticas de gestión de tráfico que requiera su intervención. La posición inicial de Ofcom es que la conducta discriminatoria es sólo un problema potencial cuando las empresas tienen poder de mercado y potencia sus propios servicios. Ocfom no ha encontrado pruebas suficientes para justificar el establecimiento de restricciones globales sobre las formas de gestión del tráfico.

La gestión del tráfico presenta retos potenciales para los consumidores. Al comparar los diferentes servicios podría resultar difícil entender las políticas de gestión de tráfico y el impacto que estas políticas tendrían sobre su experiencia. Ofcom cree que la falta de transparencia es peligrosa ya que puede ser un problema para los consumidores. El potencial perjuicio para los consumidores podría aumentar en la medida que las políticas de gestión de tráfico se hagan más amplias y sofisticadas.

La propuesta francesa

Que los franceses crean que los problemas se solucionan regulando no es una novedad, la Neutralidad de la red parece no ser la excepción para esta tradición tan gala como Asterix. Recientemente un informe (Documento Informativo de la neutralidad de la Internet y redes) sobre la Neutralidad de la red para la Comisión de Asuntos Económicos del Parlamento francés presentado por Corinne Erhel y Laure de La Raudière, recomienda una serie de medidas para preservar el carácter abierto y neutral de Internet.

Los franceses nos presentan un pulcro y bien documentado Informe con el que se pude disentir en lo que a las políticas recomendadas, pero que constituye un revisión obligada sobre el estado del arte de la discusión de la Neutralidad de la red, con especial acento en la problemática europea y local. Absolutamente recomendable.

Se define a la neutralidad de Internet como la necesidad de ausencia de discriminación en el enrutamiento de los flujos de tráfico por Internet. El debate sobre la neutralidad, con especial atención a sus aspectos técnicos y económicos, evidencia que existe el riesgo de que los operadores de telecomunicaciones estén desarrollando prácticas no neutrales. El estado actual de la legislación no parece ser capaz de responder a este problema.

De acuerdo con el documento el debate sobre neutralidad de la red, se clarifica cuando se representa como el resultado de la superposición de tres elementos: técnico, económico y jurídico.

En lo que corresponde al debate técnico, éste tiene que ver con la forma en la que fue diseñado Internet, para funcionar de manera diferente de las redes telefónicas tradicionales: se basa en el principio de «enrutamiento de paquetes» en lugar de «conmutación de circuitos», que los hace más flexible y, a priori, menos fiable.

A esta dimensión técnica se añade una económica, de la fusión de la arquitectura de red con la teoría de los llamados mercados de dos caras, donde los intervinientes pueden remunerarse sobre dos categorías de actores que se ponen en contacto, donde una de las caras «subvenciona» a la otra.

Finalmente, tenemos a las cuestiones relacionadas con la libertad de expresión en Internet: las acciones de bloqueo y filtrado legales. Esta última dimensión del debate es esencialmente europea, y es, de alguna manera, consecuencia del debate sobre la neutralidad que se llevó a cabo con ocasión de la Ley HADOPI, y el respeto a la libertad de comunicación por aplicación de medidas administrativas para bloquear contenido de Internet, como parte de la recientemente aprobada Ley LOPSSI.

Para defender la Neutralidad de la red se propone, como primera prioridad, proteger el Internet de forma explícita en el ámbito de la regulación de las comunicaciones electrónicas.

Telefonía fijo-móvil, regulación y competencia

El Organismo Supervisor de la Inversión Privada en Telecomunicaciones (OSIPTEL), publicó este 20 de abril sendas resoluciones (Resoluciones NNº 044 y 045-2011-CD/OSIPTEL) que en lo sustantivo modifican el sistema tarifario vigente para las llamadas fijo-móvil (FM) y dan inicio al proceso para regular el nivel de las tarifas que cobrarán las operadoras fijas por dichas llamadas. De acuerdo con OSIPTEL, el objetivo de esta regulación sería el de asegurar unas tarifas razonables para los usuarios.

Es una buena noticia para los usuarios que OSIPTEL se percate (luego de quince años) que las tarifas FM se encuentran en un nivel extremadamente alto y que es necesario introducir algunas modificaciones al régimen. Sin embargo, al hacerlo, OSIPTEL vuelve a demostrarnos que está convencido que la opción regulatoria es siempre mejor que el mercado y la libre competencia. Creemos que es un error.

Los orígenes de la tarifa FM y «El que llama paga»

En 1996 se introdujo en el Perú el sistema “El que llama paga” (EQLLP) (Calling Party Pay – CPP) para las comunicaciones FM en reemplazo del sistema vigente conocido como «El que recibe paga» (Receiver Pays Principle – RPP). De acuerdo con el sistema EQLLP las llamadas FM son cargadas a los usuarios de la red fija que las originan. Asimismo, los operadores móviles fijaban libremente el nivel de estas tarifas. De esta manera, las empresas de telefonía fija facturaban y cobran a sus usuarios las llamadas FM que realizaban y conservaban para sí los cargos (peajes) de originación de llamada, facturación y cobranza y morosidad, luego debían entregar el saldo a las operadoras móviles.

Como ha ocurrido en otras latitudes, la implantación del sistema EQLLP dinamizó el mercado móvil peruano. La cantidad líneas móviles pasó de 75 mil en 1995, a 1,3 millones en el 2000, 5,5 millones en el 2005 y 27,1 millones en junio del 2010.

Dominancia en la terminación

Uno de los principales problemas del sistema diseñado por OSIPTEL fue que entregó la dominancia de la terminación de la llamada FM a los operadores móviles. En la medida que una llamada FM solamente puede terminar en la red del operador del usuario a quien se llama, se señala que se genera un monopolio en la terminación de llamada por parte de la red móvil de destino. Esta dominancia se vio exacerbada en el Perú desde que el operador móvil era quien fija la tarifa para las llamadas FM a un cliente que no era el suyo (lo era del operador fijo) y por lo tanto carecía disciplina competitiva para moderar su nivel tarifario.

Sin embargo, esta dominancia se pagó con creces con una constante expansión de las redes móviles, un incremento exponencial de la planta de abonados y una enorme gama de nuevos servicios para todas las economías familiares.

Razones que aconsejarían regular las tarifas FM

OSIPTEL, en el informe que sustenta las dos resoluciones mencionadas, advierte como única razón para regular el mercado de llamadas FM el actual nivel de concentración de la telefonía fija. Se señala que a junio de 2010, Telefónica contaba con el 74.1 por ciento del total de líneas en servicio y Movistar con el 18,5 por ciento, lo cual hacía que el Grupo Telefónica contara con el 92,6 por ciento de las líneas fijas en servicio. Su competidor más cercano sería el grupo económico formado por Telmex y América Móvil quienes ostentarían el 3,1 por ciento y el 2,8 por ciento de las líneas fijas respectivamente con un agregado del 5,9 por ciento. Dadas estas cifras se deduce que el mercado de telefonía fija de abonado presentaría un nivel de concentración muy alto.

Siguiendo esta lógica, si se permitiera al operador fijo establecer las tarifas para las llamadas FM, sería probable que se mantengan los altos niveles tarifarios que se observan actualmente.

La competencia al ático

Uno de los aspectos más debatibles de la propuesta de OSIPTEL es su visión estática de la competencia, es decir, parte de suponer que un cambio de la titularidad de las llamadas FM no alterará en lo sustancial la actual estructura competitiva del mercado.

Sin embargo, creemos que el cambio de titularidad en las llamadas FM generaría una serie de presiones competitivas que no permitirían a los operadores fijos con mayor participación en el mercado actuar con independencia de sus competidores o usuarios y por lo tanto mantener un elevado nivel de precios en las llamadas FM.

Existe numerosa evidencia que nos señala que existe un importante grado de sustitución entre la telefonía fija y móvil, incluso atendiendo a esta realidad algunos países han liberalizado su mercado de telefonía fija (Liberan mercado telefónico fijo en Chile). Siendo ello así, si los actuales precios para las llamadas FM se mantuvieran, seguiría acentuándose la tendencia de reemplazarlas por llamadas móvil-móvil (MM). Nada nos lleva a concluir que las operadoras fijas van a actuar en contra de sus intereses en beneficio de los operadores móviles.

Asimismo, se olvida que en el mercado peruano existen costos relativamente bajos para competir en el segmento de llamadas FM. Efectivamente, un cambio en la titularidad en las llamadas FM, permite que cualquier operador con una concesión de telefonía fija a través del sistema de interoperabilidad pueda vender llamadas FM. De esta forma, todas las operadoras fijas estarían en la capacidad de ofrecer llamadas FM a los propios abonados de Telefónica o Telefónica Móviles, lo cual generaría con seguridad una gran diversidad de nuevos planes y productos y mantendría las tarifas a un nivel considerablemente menor el que conocemos en la actualidad.

En lo particular, estimamos que la regulación de determinada actividad económica sólo se acoseja cuando no existe posibilidad de introducir competencia. Los intervencionistas, suelen olvidar que la regulación estatal suele tener costos asociados muy elevados como la utilización de fondos públicos que podrían tener un mejor destino, costos de monitoreo, daño al sistema de precios y costos asociados al poder coercitivo del Estado.

En este caso lo que no se logra entender es que se decida regular la llamada FM luego de quince años de no hacerse en un entorno de nula competencia y se decida hacerlo cuando aparecen presiones competitivas que nos aconsejarían actuar en el sentido contrario.

Es la piratería el futuro de la televisión

El futuro de la industria televisiva en Internet, parece que está en el modelo de negocio desarrollado por la piratería, es al menos lo que nos dice Abigail De Kosnik, del Berkeley Center for New Media en un paper publicado por el Convergence Culture Consortium del MIT (C3), una asociación afiliada al Comparative Media Studies de la misma casa de estudios.

Piracy is the Future of Television (aquí), es el pequeño documento donde Abigail sostiene que la piratería de programas de TV en Internet responde mejor a las necesidades de los espectadores que las alternativas legales. Es decir, el futuro de la TV estaría del lado de la propuesta disruptiva de los piratas antes que en las alternativas orgánicas, pero balcanizadas, que nos presenta la industria formal.

Los sitios legales

iTunes de Apple (2001) y Amazon VOD (2006) son sitios que permiten descargar programas de televisión de forma legal. Los precios por episodio en iTunes ascienden a US$ 1,99 y US$ 2,99 para alta definición. El precio de un «pase de temporada» (Season Passe) cuesta entre US$ 30 y US$ 60. Las descargas pueden transferirse a dispositivos móviles de Apple y son reproducibles en un televisor conectado a Apple TV. Cada episodio de una serie televisiva cuesta en Amazon VOD US$ 2,99, y la temporada completa en un rango de US$ 30 a US$ 40. Sólo los usuarios de Windows pueden descargar archivos de vídeo y se pueden ver con el Amazon Unbox Video Player y en varias versiones del Media Player. Amazon VOD permite también ver contenidos televisivos a través de cualquier navegador web vía streaming Flash Video. Los precios son los mismos que para los archivos descargados.

Hulu (2007) (Hulu y el futuro de Youtube), Fancast (por Comcast en el 2008) y las redes de sitios individuales (como MyLifetime.com y ABC.go.com) son sitios que permiten a los usuarios ver programas de televisión de los Estados Unidos vía streaming. La mayoría de estos sitios operan bajo el sistema de cuota-libre, además los programas se intercalan con anuncios publicitarios. Sin embargo, estos sitios tienen lagunas importantes en sus catálogos.

Netflix (1997) (CMT: Netflix: la supervivencia del negocio que salvó un matrimonio), es un sitio web que inicialmente permitía alquilar cintas de vídeo por correo. En el 2007 comenzó a ofrecer un servicio llamado Watch Instantly (WI). WI permite que los suscriptores por US$ 8.99 por mes puedan ver programas de TV de los Estados Unidos vía streaming, también están disponibles algunos programas del Reino Unido. Sin embargo, todos los programas de televisión disponibles a través de WI son ediciones pasadas, con la excepción de los programas de la cadena de cable Starz.

Fancast Xfinity TV, (Comcast, principios de 2010), es un sistema gratuito para abonados del servicio de acceso a Internet y televisión por cable de Comcast. Consta de 2 mil horas de programación de 30 redes de cable, incluyendo nuevos episodios de series de TV. La cantidad de publicidad que se muestra varía de acuerdo a la red.

Las descargas ilegales

El más conocido sitio de descargas ilegales es The Pirate Bay (Suecia, 2003). En el 2008 el sitio contaba con 25 millones de usuarios. En abril de 2009, un tribunal sueco encontró que TPB  era culpable por infracciones a las leyes de derecho de autor. No obstante, docenas de sitios similares permanecen en funcionamiento. Un usuario, interesado en descargar un episodio de una serie de TV puede hacerlo a partir de la descarga de un archivo BitTorrent (. torrent). El cliente puede armar un archivo de vídeo completo en un período de tiempo, que va desde unos pocos minutos hasta varios días, o incluso una semana o más para un archivo extenso (como una temporada completa de un programa de televisión).

Las ventajas de la piratería de TV

Los usuarios de contenidos de TV disponibles legalmente deben visitar un gran número de sitios para encontrar la serie o el capítulo que buscan. No existe un sitio legal que posea todos los programas. En cambio, cada sitio web de descarga pirata, ofrece prácticamente todos los programas de TV para su descarga.

Si la industria formal pretende combatir la piratería debería crear un modelo de negocio que incorpore las mejores prácticas de los piratas.

Se debe considerar la frustración de los espectadores que dejan de ver uno o más episodios de una serie de TV porque no siempre los sitios legales tienen las series completas, tampoco están disponibles las versiones antiguas o las series clásicas. Por el otro lado, los piratas mantienen «vivos» los torrents y al hacerlo, demuestran que grandes segmentos de la audiencia de TV le gustaría tener una oferta menos efímera.

Por otro lado, los programas de TV son muy populares como objeto de colección. Los espectadores disfrutan al archivar sus programas favoritos para verlos meses o incluso años después de la transmisión inicial. Los sitios de streaming legales no permiten que los capítulos sean archivados. Los piratas en línea han superado esta limitación.

Existe un número significativo de piratas televisivos, que, disconformes con el retraso de los programas televisivos de exportación de Estados Unidos, descarga los episodios de las series más populares de forma inmediata luego de su emisión. Los usuarios de los Estados Unidos consumen una gran cantidad de contenido internacional pirata, dado que es prácticamente imposible que puedan obtener legalmente programas de TV extranjeros fuera de sus países de origen. La piratería ha creado en la práctica una «televisión sin fronteras».

Muchos de estos inconvenientes se relajarían si las industrias de los medios de comunicación legales decidieran incorporar algunas de las ventajas de la piratería online en sus modelos de distribución. La piratería en Internet pareciera que ha construido una forma de consumo televisivo tan superior a las actuales formas legales que la industria televisiva deberá, tarde o temprano, considerar el lanzamiento de servicios premium de TV en línea sobre la base de los descubrimientos e innovaciones de los piratas.

Cerco a la Biblioteca de Babel

A mediados del 2009 comentamos (¿Le llegó la hora a Google?) acerca de algunos de los problemas legales que enfrentaba el proyecto Google Books (antes conocido como Google Book Search y Google Print). En particular advertimos de las críticas que venía recibiendo el acuerdo que alcanzara Google con la industria editorial (Authors Guild y Association of American Publishers). Curiosamente, fue la propia industria editorial la que inicialmente demandó a Google por considerar que su intento para crear una moderna biblioteca de Alejandría a partir de la masiva digitalización inconsulta de libros de los repositorios de un puñado de bibliotecas vulneraba sus derechos de autor. Sin embargo, Dios los crea y ellos se juntan.

Breves antecedentes

En octubre de 2008, la industria editorial y Google suscribieron un Acuerdo de Solución (Settlement agreement) que ponía fin al pleito que mantenían en los tribunales. Sin embargo, las cosas no fueron tan fáciles. El Acuerdo inicial fue aprobado provisionalmente por el juez John E. Sprizzo poco antes de que falleciera y entró en vigencia en noviembre 2008. No obstante, la solución propuesta disparó una serie de críticas que motivó a que las partes presentaran un Acuerdo modificatorio para su aprobación final de acuerdo con las reglas del proceso. Pero la aprobación definitiva deberá esperar. Este 22 de marzo, el Juez Denny Chin de la Corte de Apelaciones del Segundo Circuito rechazó el Acuerdo al considerar que no es justo, ni adecuado y tampoco razonable.

Básicamente, el Acuerdo autoriza a Google a: (1) continuar con la digitalización de libros y encartes; (2) vender suscripciones de libros de una base de datos electrónica; (3) vender el acceso en línea de libros individuales; y, (4) insertar publicidad en las páginas de los libros. Google pagará a los titulares de los derechos el 63% de todos los ingresos recibidos por estos usos. Asimismo, en uno de sus aspectos más cuestionados, crea una Fiduciaria encargada de administrar las obras no reclamadas (Unclaimed Works Fiduciary).

La Opinión del Juez

Chin cree es al Congreso y no a Google a quien le corresponde encargarse de la tutela de las obras huérfanas, así como de determinar bajo qué condiciones deben ser explotadas. Recuerda que la Corte Suprema ha sostenido que «corresponde en general al Congreso, no a los tribunales, decidir la mejor manera de ejercer la cláusula de los objetivos del copyright» (Eldred v. Ashcroft, 537 EE.UU. 186, 212 (2003) y Sony Corp. v. Universal City Studios, Inc., 464 EE.UU. 417, 429 (1984). Sin embargo, el Acuerdo otorga a Google pleno acceso a explotar una serie de obras con derechos de autor que de otro modo no tendría derecho a explotar.

El Acuerdo permite a Google dedicarse descaradamente a copiar libros al por mayor, sin obtener los permisos de los titulares de los derechos de autor correspondientes. Mientras que, sus competidores están obligados a transitar por un cuidadoso y costoso proceso para obtener dichas autorizaciones.

Recuerda el magistrado que en este contexto los intereses de la industria editorial a veces están en conflicto con un gran número de titulares de los derechos de autor. Menciona especialmente el caso de muchos autores académicos que no comparten el afán de lucro de la industria, así como que este afán de lucro está en contradicción con los intereses de los propietarios de las obras no reclamadas, pues las partes que suscriben el Acuerdo tienen pocos incentivos para identificar y localizar a los propietarios de las obras huérfanas, en la medida que mientras menos cláusulas de responsabilidad, existirán más obras no reclamadas que Google puede explotar.

El Juez Chin criticó la estructura fundamental del Acuerdo desde el punto de vista de los derechos de derechos de autor. El fallo articula un precepto básico del derecho de autor a partir de cual los propietarios tienen incluso el derecho de optar por no hacer nada con sus obras. Sin embargo, en el marco del Acuerdo si los propietarios de los derechos de autor no hacen nada, pierden este derecho.

Otro aspecto que preocupa a Chin es que, aunque la propuesta de acuerdo fue revisada para limitar la explotación de obras de cuatro países (Estados Unidos, Reino Unido, Canadá y Australia), muchas obras extranjeras están registradas en los Estados Unidos. De esta forma, los titulares titulares extranjeros están en desventaja para determinar si se encuentran dentro del marco del Acuerdo y para hacer valer sus derechos. El tribunal declaró explícitamente que no consideraba que el Acuerdo violaba las normas internacionales de los derechos de autor. Sin embargo, los intereses de los titulares extranjeros de derechos de autor era una razón más para dejar al Congreso resolver este tema.

Finalmente, el Juez Chin consideró que gran parte de la preocupaciones planteadas al Acuerdo podrían ser revertidas si se cambiaba su estructura de una solución del tipo opt-out a una del tipo opt-in, es decir basado en el consentimiento, e  insta a las artes a considerar una revisión del Acuerdo en este sentido.

¿Y ahora que…?

De acuerdo con algunos especialistas son tres los pasos que podría seguir Google y la industria editorial: (i) aceptar la invitación para convertir la propuesta en una del tipo opt in, (ii)  abandonar el Acuerdo y regresar al pleito, con los riesgos y gastos que ello implica, y, (iii) apelar al Segundo Circuito la decisión del Juez.

Recomendamos

James Grimmelmann, Inside Judge Chin’s Opinion

Kenneth Crews, Google Books: Copyright Settlement Rejected

Randy Picker, Moving Forward in Google Book Search

Mary G. Mayiladumpara: Google Books and Digitisation of Libraries: Fair Use or Extension of Copyright? (pdf)

Eric M. Fraser: Antitrust and the Google Books Settlement: The Problem of Simultaneity (pdf), Stanford Technology Law Review.

Matthew Sag: The Google Book Settlement and the Fair Use Counterfactual (pdf), New York Law School Law Review.

AT&T estrena nueva política para su DSL

Hace unos años, Robert M. McDowell, en ese momento consejero de la Federal Communications Commission (FCC), señaló (Who Should Solve This Internet Crisis?) que Internet estaba en crisis y que en hora pico, sólo el 5 por ciento de los usuarios consumía el 90 por ciento del ancho de banda (¿Está en peligro Internet?). El problema no se ha solucionado. Según datos contenidos en el informe anual de Cisco Visual Networking Index (VNI) 2009-2014, se estima que el tráfico global se incrementerá más de cuatro veces desde el 2009 a 767 exabytes para el año 2014, cantidad equivalente a 10 veces el tráfico de todas las redes de Internet en el 2008. Uno de los mecanismos que vienen implementando algunos operadores de telecomunicaciones para paliar en parte este problema es el establecimiento de tarifas sensibles al tráfico en lugar del modelo de tarifa plana imperante hasta el momento.

Canadá aprueba tarifa sensible al uso

En enero de este año la Comisión Canadiense de Radiodifusión y Telecomunicaciones (Canadian Radio and Telecommunications Commission – CRTC), regulador de las telecomunicaciones de Canadá, aprobó (Decision CRTC 2011-44) una solicitud de Bell Aliant y Bell Canada para implementar una tarifa de banda ancha mayorista (Usage-Based Billing – UBB) para los ISPs independientes. De acuerdo con la solicitud, Bell Canada establecería un límite de 25 GB al mes por abonado, más un recargo de CAN$ 1.90 por GB de exceso para la mayoría del país y CAN$ 2.35 para la región francófona. La medida debió entrar en vigencia inicialmente el 1 de marzo.

La reacción ante la autorización de la CRTC no se hizo esperar. Una petición con más de 200 mil firmas (aquí) y miles de correos electrónicos fueron enviados al Ministro de Industria,  Tony Clement. Las críticas arreciaron en los medios de comunicación en un contexto político particularmente caldeado, tanto que terminó hace unos días con la caída del Primer Ministro  canadiense (aquí). La oposición liberal como el reciente Partido Democrático fueron los primeros en oponerse políticamente a la decisión de la CRTC.

La administración canadiense reaccionó a estas críticas y el 2 de febrero, el Primer Ministro, Stephen Harper, y su Ministro de Industria solicitaron a la CRTC que diera marcha atrás. Al día siguiente, la CRTC anunció que retrasaba la vigencia de su decisión por 60 días.

AT&T tras la huella de Comcast

El último 20 de marzo, AT&T aprobó un cambio en sus Políticas de Uso Aceptable (AUP) de acceso a Internet, estableciendo un modelo de tarifa escalonada y topes de descarga. Los topes de descarga establecidos son de 150 GB al mes para los usuarios DSL y 250 GB al mes para los abonados del servicio U-Verse de fibra hasta el nodo (Fiber-to-the-node – FTTN). Aquellos clientes que excedan estos límites tendrán que abonar un monto de US$ 10 por cada 50GB de consumo adicional. Asimismo, AT&T notificará a los usuarios cuando éstos consuman el 65, 90 y 100 por ciento de su límite mensual e implementará una herramienta de seguimiento de uso mensual. El nuevo sistema estará vigente desde este 2 de mayo.

La empresa justifica (Broadband Usage FAQs) su decisión en un dramático aumento del tráfico de sus redes de banda ancha. Este incremento estaría impulsado básicamente por una pequeña fracción de sus clientes. AT&T afirma que el 2 por ciento de sus usuarios utiliza el 20 por ciento de la capacidad total de la red. Señala que un abonado de alto tráfico puede consumir la capacidad de ancho de banda de 19 hogares típicos. Este patrón de consumo causa congestión en la red, ralentizan la velocidad de Internet e interfiere con el normal acceso de otros usuarios.

A pesar del efecto mediático que ha tenido la medida, AT&T no es la primera empresa de acceso a Internet en los Estados Unidos que toma una decisión de este tipo. En octubre de 2008 Comcast estableció un tope de descarga mensual de 250 GB al mes para sus clientes residenciales. Si un abonado supera este umbral por dos veces en un lapso de seis meses, Comcast puede dar por terminado el contrato. De la misma forma, Charter Communications (el cuarto operador de cable más importante de los Estados Unidos) impone un límite similar dependiendo del paquete contratado, los cuales incluyen topes desde los 100 GB a 500 GB al mes para abonados residenciales. Otros operadores como Verizon todavía no han incorporado esta política, aunque anuncian que la vienen estudiando.

Algunos sostienen que los principales afectados con los modelos de tarifas sensibles al tráfico son los servicios de entrega de contenidos como Spotify o Rdio (Google viene desarrollando un servicio de streaming de música para móviles similar). El problema con estos servicios es que su viabilidad parecería depender de la capacidad de descarga que brindan los proveedores de acceso, y si bien las limitaciones impuestas son generosas para los estándares actuales, señalan que no siempre 100 GB o 200 GB serán una gran cantidad de datos. The Economist da un paso más y pone al centro de la discusión al video por Internet. Sostiene que los servicios que se brindan en Internet como la transmisión de señales en vivo, sistemas de provisión de contenidos soportados en publicidad como Hulu, descargas legales de episodios de series y películas o descargas piratas de archivos a través de redes peer-to-peer, representan una alternativas real frente a la oferta de contenidos a través del cable. La implementación de una tarifa sensible al tráfico permite que los proveedores de acceso a Internet a través de las redes de cable, al mismo tiempo que multiplican la capacidad de transmisión del cobre, separar una parte del ancho de banda para sus propias señales de vídeo como la provisión regular de cientos de canales en formato digital, mientras que por otro lado restringen la capacidad de los servicios similares que se brindan a través de Internet. Al parecer, The Economist ve aquí un problema vinculado con la neutralidad de la red (Otro clavo para el martillo de la neutralidad de la red).

No sólo es un problema de costos

La idoneidad de la implementación de tarifas sensibles al tráfico es un asunto importante, incluso en el Perú la implementación de este tipo de tarifas ameritó la intervención de OSIPTEL, aunque el debate académico local sobre su idoneidad apenas se ha producido.

En Blawyer hemos señalado hace mucho que los sistemas de tarifas sensibles al tráfico por los servicios de banda ancha son racionales y están justificadas (¿Es Internet como una carretera? y ¿Es malo que pague más quien más consume?). En el mundo cotidiano casi no existen precios por productos o servicios que no tengan en cuenta en alguna medida un componente de uso. Se podrá argumentar que en ese mundo existe un costo por cada bien o servicios adicional que se provee, lo que no ocurre en Internet donde el costo marginal por bit transmitido es muy pequeño. Sin embargo, un sistema de tarifa por tráfico también es un mecanismo válido para gestionar los problemas de congestión, lo mismo ocurre con las carreteras que tienen un costo marginal muy pequeño pero se han implementado modelos de peaje para solucionar los atascos que se producen en las horas de mayor tráfico.

Nuevas tecnologías: Qué dicen los candidatos

Estamos a escasas semanas de las elecciones generales que decidirán al próximo Presidente del Perú para el período 2011-2016. En lo que al proceso respecta, éste discurre apacible lejos del mundanal ruido tan común en otros tiempos. Mejor. En este periodo calmo, más allá de las tonterías de rigor con que nos sorprenden regularmente los políticos criollos, como exigir el paso obligado de los candidatos por la peluquería para descubrir posibles vicios non sanctos, es poco lo que nos vienen a decir los partidos sobre qué es lo que harán en caso lleguen a Palacio.

Como todos los candidatos juegan al mudo en lo que detallar sus políticas de Estado se refiere, podemos acudir a la página web del Jurado Nacional de Elecciones para consultar qué es lo que dicen sus planes de gobierno.

En esta entrada haremos un recuento de lo que hemos encontrado en los mentados planes de gobierno sobre tecnologías de la información y las telecomunicaciones. Los planes de gobierno que he revisado son los de aquellos partidos que según mi humilde opinión creo que tienen alguna posibilidad llegar a la segunda vuelta.

Perú Posible (Alejandro Toledo): Red dorsal y satélite INCASAT.

Toledo nos promete un Proyecto Huascarán recargado, con la meta de alcanzar el 70 por ciento de escuelas y colegios del país con acceso a Internet  e interconexión satelital en todos los distritos del país.  Además, brindar acceso a Internet de banda ancha en zonas rurales del país.

Se plantea el lanzamiento del satélite INCASAT. De acuerdo con el Plan la adquisición de un satélite permitirá brindar acceso a Internet a las poblaciones rurales y urbanas, llegando alcanzar con este servicio a todos los lugares del país.

El objetivo central para el sector de las telecomunicaciones es cubrir el 100 por ciento de las poblaciones (no que eran los distritos o son sinónimos) del territorio nacional con servicios de telecomunicaciones rurales de banda ancha, mediante una red dorsal de fibra óptica y un sistema doméstico satelital de comunicaciones.

En lo que a la promoción de la competencia y marco regulatorio de las telecomunicaciones encontramos algunas generalidades como consolidar la competencia para reducir las tarifas, mejorar los servicios y modernizar el marco normativo de promoción y regulación de las telecomunicaciones y tecnologías de la información.

Alianza por el Gran Cambio (Pedro Pablo Kuczynski): Centros comunitarios

Para el 2021 todos (mismo Suiza) deben tener agua, luz e Internet en sus casas, salvo las zonas rurales más apartadas. Asimismo, promete desarrollar soluciones imaginativas para cerrar la brecha digital, como aquella en la que las grandes empresas contruyan y equipen centros deportivos y culturales para los jóvenes: pequeños complejos que tengan espacio para una cancha de fútbol, otra de vóley, un gimnasio y una biblioteca con acceso a Internet.

Solidaridad Nacional (Luis Castañeda): «Todos los colegios con acceso a Internet»

Asegurar que todos los colegios públicos cuenten con acceso de Internet y bibliotecas virtuales. El Ministerio de Economía (en realidad es el Ministerio de Transportes y Comunicaciones a través del FITEL) continuará con el financiamiento de la expansión de la infraestructura productiva, como Internet de banda ancha, tanto en las modalidades de inversión pública, como de iniciativa privada y asociaciones público privadas.

Gana Perú (Ollanta Humala): «Núcleo infraestructural y planificación central»

Propone establecer como un derecho el acceso a Internet y a la sociedad de la información. Asimismo, promete crear centros juveniles (con cabinas Internet y libros actualizados).

En lo que es la propuesta más discutible -y disparatada- propone diseñar -y supongo implementar- una serie de redes paralelas en forma de malla con una matriz de seis ejes transversales y tres longitudinales de unos 9 mil kilómetros que en forma de plantilla virtual se superponga sobre el mapa del Perú, esto vendría a llamarse «núcleo infraestructural». De esta forma como moderno tejido sanguíneo en esta visión fisiocrática se proveerá de energía eléctrica, gas natural, tren y fibra óptica en bloque como si fuera un solo trazo dentro de la propia malla. El ferrocarril corre por la vía férrea, que es alimentada por energía eléctrica a través de los pantógrafos y tanto la fibra óptica como las tuberías de gas se instalarán debajo o al costado de la vía férrea.

En lo que corresponde a las telecomunicaciones, se nos dice que su acceso debe ser universal y debe servir a la educación, la pacificación y de afianzamiento de la conciencia nacional. Reconoce que las telecomunicaciones cumplen un rol fundamental para la seguridad y defensa nacional y como no podía ser de otro modo, propone la creación de una empresa estatal de telecomunicaciones, con participación pública o público-privada.

No es todo, siguiendo con la planificación central, se propone que las telecomunicaciones tendrán una red única, con aplicación de la tecnología digital que priorice a la fibra óptica que se instalará en el núcleo infraestructural.

Fuerza 2011 (Keiko Fujimori): «Internet para todos»

Propone impulsar un ambicioso programa -según propia declaración-, que permita, basándose en los programas de telefonía rural implementados exitosamente desde los noventa, el acceso a internet.

Asimismo, impulsar la simplificación administrativa para reducir los trámites y sus costos, de manera que los ciudadanos no tengan que enfrentarse a la discrecionalidad de malos funcionarios públicos. Agilizar y simplificar los procedimientos administrativos, mediante la interconexión de las entidades del Estado.

Lo que no dice ningún programa es cómo se va a financiar tanta belleza.