Twitter, paloma o águila

Hace unos días The Wall Srteet Journal anunció (Antitrust Regulator Makes Twitter Inquiries) que la Comisión Federal de Comercio (Federal Trade Commission) de los Estados Unidos, o léase mejor la Agencia de Competencia del gigante del norte, tendría bajo la lupa Twitter por posibles prácticas anticompetitivas con relación a su interfaz de programación de aplicaciones o API (Application Programming Interface). A través de esta interfaz, Twitter permite que terceras empresas accedan a los «tweets» de sus usuarios. Estas empresas han sido muy importantes para Twitter pues desarrollaron una serie de programas que fueron muy importantes para su crecimiento dado que permitían una serie de acciones que no se podían hacer con el minimalista desarrollo de Twitter, como ordenar, organizar y búscar «tweets».

El motivo para iniciar esta investigación no es muy claro, sin embargo podría estar relacionado con los nuevos términos para los desarrolladores (Twitter to developers: we want to own the pipes, water, and faucets, but feel free to make soap), el bloqueo de algunos de estos servicios brindados por terceros (War Is Hell: Welcome to the Twitter Wars of 2011) o con su adquisición directa por Twitter (como TweetDeck y Tweetie). Twitter al parecer pretende evitar que terceros compitan directamente con la venta de publicidad -fuera de su plataforma- como una forma de potenciar sus ingresos. Con el robustecimiento del ecosistema Twitter estas terceras empresas pasan de ser complementos necesarios para su crecimiento a competidoras directas por el mercado publicitario.

Sobre la posible investigación que estaría desarrollando la FTC, son varias las preguntas que deberíamos hacernos al respecto, las más importantes: (i) ¿cuál es el mercado relevante? y (ii) ¿Donde está el daño?

Cuál es el mercado relevante

Un aspecto central en toda investigación de libre competencia es determinar cuál es la posición de la empresa sujeta a investigación en el mercado bajo análisis. Para ello es necesario determinar primero cuáles serán los contornos específicos de este mercado.

En lo que nos importa, el producto o servicio relevante, debe ser definido a partir del producto ofrecido por Twitter, es decir, el producto demandado por los consumidores supuestamente afectados por el abuso de posición de dominio. El producto relevante debe incluir a todos los productos que resulten buenos sustitutos de aquél.

Twitter, creado en marzo de 2006, estima que cuenta ya con más de 200 millones de usuarios, genera unos 65 millones de tweets al día y maneja más de 800 mil peticiones de búsqueda diarias. Estimamos que Twitter podría ser uno de decenas de productos de comunicación y de acceso a la información, como blogs, servicios de mensajes cortos, de mensajería instantánea, redes sociales, correos electrónicos, llamadas telefónicas, canales de RSS, incluso los noticieros de radio y televisión y hasta periódicos.

La juventud e inmadurez de este mercado es tanta que resultará muy complicado definirlo, por lo tanto no parece aconsejable tampoco mover ficha todavía para una investigación anticompetitiva o su regulación.

Dónde podría estar el daño

También la existencia de un posible daño al mercado es altamente cuestionable. Los ingresos de Twitter en el tercer trimestre del 2009 fueron sólo un modesto US$ 400 mil seguido de un más robusto US$ 4 millones en el 4 trimestre del mismo año. Se calcula que sus costos de operación ascienden a US$ 1 dolar por abonado (Twitter’s Financial Forecast Shows First Revenue In Q3, 1 billion users in 2013). En 2010, Twitter introduce la venta de publicidad, y obtiene unos ingresos de US$45 millones de dólares al año con una proyección de US$ 150 millones para este año (Twitter triplicaría sus ingresos por la venta de publicidad). Si comparamos el costo del servicio por usuario no parece que la operación esté todavía en azul.

No debemos olvidar que la operación de Twitter no le cuesta nada a los suscriptores y así es absolutamente lógico que intente robustecer sus ingresos por publicidad, que en suma significa la sostenibilidad en el largo plazo de la operación. Los usuarios no se perjudican con ello.

El fantasma de la neutralidad

Detrás de todo este tema parece estar de nuevo el fantasma de la neutralidad bajo la forma de la Application Neutrality (Que el portero marque tarjeta: Google Neutrality). La Neutralidad es una variante del principio de acceso abierto contenido en algunas regulaciones de servicios públicos, donde se impone a la empresa propietaria de determinada infraestructura que la ceda a sus rivales de forma no discriminatoria.

La Neutralidad de las aplicaciones o el establecimiento de una obligación de acceso forzado constituiría un error. Si Twitter decide monopolizar su ecosistema no deberíamos limitarlo, es su derecho. Si lo hace, aun cuando en el corto plazo sus ingresos aumenten, la plataforma terminará perdiendo valor y su futuro será incierto, pues será menos innovativa en la medida que los terceros que la enriquecieron estarán haciendo lo propio en otras plataformas. Así funciona este mercado y no debiéramos  entorpecer esta dinámica.

Recomendamos:

Adam Thierirer: Twitter, the Monopolist? Is this Tim Wu’s “Threat Regime” In Action?; y, A Vision of (Regulatory) Things to Come for Twitter?

Net neutrality, el turno de Europa

La Neutralidad de la red viene generando un interés creciente. Inicialmente parecía que el asunto era poco más que parte del folclore americano, pero con el tiempo diversas latitudes se vienen sumando a la discusión. Pasado el turno del debate norteamericano (Net neutrality a consulta pública y El ruido y la furia del caso Comcast (1 y 2)) y de la veloz aprobación de la Ley chilena (Neutralidad de red a la chilena), parece que Europa entra en la arena.

La Unión Europea se pronuncia

Al final del 2009 la Unión Europea (UE) aprobó el paquete de reforma del sector de las telecomunicaciones, teniendo a la Neutralidad de la red como un principio regulatorio a ser promovido por los organismos reguladores de cada país miembro. Siguiendo esta trocha, la Comisión Europea publicó el 19 de abril de este año una Comunicación sobre la neutralidad de la red y el estado de Internet abierto en Europa (COM(2011) 222 final).

De acuerdo con la Comunicación, el debate de la Neutralidad de la red se centra en la razonabilidad de las políticas de gestión de tráfico diseñadas por los operadores. Aún cuando se reconoce que los operadores pueden adoptar prácticas de gestión para garantizar un uso eficiente de las redes, se han denunciado algunas prácticas que irían contra el carácter abierto de Internet, como el bloqueo o degradación de servicios legales (como servicios de Voz sobre IP) que compiten con los servicios brindados por los operadores de telecomunicaciones.

La Comisión concluye, sin embargo, que no tenía evidencia para determinar que estas preocupaciones estuvieran justificadas, aunque reconoció que debía realizarse una investigación más exhaustiva.

Existiría consenso en que la transparencia sobre la calidad del servicio es un aspecto esencial. Teniendo en cuenta la complejidad y el carácter técnico de la multiplicidad de ofertas en Internet, debe establecerse un equilibrio entre las necesidades de simplicidad y el suministro de información detallada y adecuada. La Comisión considera que las normas sobre transparencia, distribución y calidad de servicios que forman parte de la revisión del marco de las comunicaciones electrónicas de la UE contribuirán a la generación de resultados competitivos.

Si el sistema en su conjunto no garantiza que los consumidores pueden acceder y distribuir contenidos, servicios y aplicaciones a su elección con una suscripción a Internet, la Comisión evaluará la necesidad de imponer medidas más estrictas para lograr la competencia y la elección que los consumidores se merecen. Cualquier regulación adicional debe evitar desalentar las inversiones, proteger modelos de negocio innovadores, conducir a un uso más eficiente de las redes y crear nuevas oportunidades de negocio en los diferentes niveles de la cadena de valor de Internet.

La consulta inglesa

Ofcom (Office of Communications), el regulador británico de las comunicaciones, publicó en junio del año pasado un documento (Traffic Management and ‘net neutrality’ – A Discussion Document) de debate sobre las prácticas de gestión del tráfico de Internet.

El documento reconoce que algunas redes ya están experimentando problemas de congestión debido al intenso uso. Como respuesta, los operadores de redes y proveedores de servicios de Internet (ISP) están haciendo un uso intensivo de técnicas de gestión del tráfico. Aunque la gestión de tráfico ofrece algunos beneficios a los consumidores, existe la preocupación de que las empresas utilicen la gestión del tráfico para dañar a la competencia.

Ninguna queja formal ha recibido  Ofcom sobre las políticas de gestión de tráfico que requiera su intervención. La posición inicial de Ofcom es que la conducta discriminatoria es sólo un problema potencial cuando las empresas tienen poder de mercado y potencia sus propios servicios. Ocfom no ha encontrado pruebas suficientes para justificar el establecimiento de restricciones globales sobre las formas de gestión del tráfico.

La gestión del tráfico presenta retos potenciales para los consumidores. Al comparar los diferentes servicios podría resultar difícil entender las políticas de gestión de tráfico y el impacto que estas políticas tendrían sobre su experiencia. Ofcom cree que la falta de transparencia es peligrosa ya que puede ser un problema para los consumidores. El potencial perjuicio para los consumidores podría aumentar en la medida que las políticas de gestión de tráfico se hagan más amplias y sofisticadas.

La propuesta francesa

Que los franceses crean que los problemas se solucionan regulando no es una novedad, la Neutralidad de la red parece no ser la excepción para esta tradición tan gala como Asterix. Recientemente un informe (Documento Informativo de la neutralidad de la Internet y redes) sobre la Neutralidad de la red para la Comisión de Asuntos Económicos del Parlamento francés presentado por Corinne Erhel y Laure de La Raudière, recomienda una serie de medidas para preservar el carácter abierto y neutral de Internet.

Los franceses nos presentan un pulcro y bien documentado Informe con el que se pude disentir en lo que a las políticas recomendadas, pero que constituye un revisión obligada sobre el estado del arte de la discusión de la Neutralidad de la red, con especial acento en la problemática europea y local. Absolutamente recomendable.

Se define a la neutralidad de Internet como la necesidad de ausencia de discriminación en el enrutamiento de los flujos de tráfico por Internet. El debate sobre la neutralidad, con especial atención a sus aspectos técnicos y económicos, evidencia que existe el riesgo de que los operadores de telecomunicaciones estén desarrollando prácticas no neutrales. El estado actual de la legislación no parece ser capaz de responder a este problema.

De acuerdo con el documento el debate sobre neutralidad de la red, se clarifica cuando se representa como el resultado de la superposición de tres elementos: técnico, económico y jurídico.

En lo que corresponde al debate técnico, éste tiene que ver con la forma en la que fue diseñado Internet, para funcionar de manera diferente de las redes telefónicas tradicionales: se basa en el principio de «enrutamiento de paquetes» en lugar de «conmutación de circuitos», que los hace más flexible y, a priori, menos fiable.

A esta dimensión técnica se añade una económica, de la fusión de la arquitectura de red con la teoría de los llamados mercados de dos caras, donde los intervinientes pueden remunerarse sobre dos categorías de actores que se ponen en contacto, donde una de las caras «subvenciona» a la otra.

Finalmente, tenemos a las cuestiones relacionadas con la libertad de expresión en Internet: las acciones de bloqueo y filtrado legales. Esta última dimensión del debate es esencialmente europea, y es, de alguna manera, consecuencia del debate sobre la neutralidad que se llevó a cabo con ocasión de la Ley HADOPI, y el respeto a la libertad de comunicación por aplicación de medidas administrativas para bloquear contenido de Internet, como parte de la recientemente aprobada Ley LOPSSI.

Para defender la Neutralidad de la red se propone, como primera prioridad, proteger el Internet de forma explícita en el ámbito de la regulación de las comunicaciones electrónicas.

Telefonía fijo-móvil, regulación y competencia

El Organismo Supervisor de la Inversión Privada en Telecomunicaciones (OSIPTEL), publicó este 20 de abril sendas resoluciones (Resoluciones NNº 044 y 045-2011-CD/OSIPTEL) que en lo sustantivo modifican el sistema tarifario vigente para las llamadas fijo-móvil (FM) y dan inicio al proceso para regular el nivel de las tarifas que cobrarán las operadoras fijas por dichas llamadas. De acuerdo con OSIPTEL, el objetivo de esta regulación sería el de asegurar unas tarifas razonables para los usuarios.

Es una buena noticia para los usuarios que OSIPTEL se percate (luego de quince años) que las tarifas FM se encuentran en un nivel extremadamente alto y que es necesario introducir algunas modificaciones al régimen. Sin embargo, al hacerlo, OSIPTEL vuelve a demostrarnos que está convencido que la opción regulatoria es siempre mejor que el mercado y la libre competencia. Creemos que es un error.

Los orígenes de la tarifa FM y «El que llama paga»

En 1996 se introdujo en el Perú el sistema “El que llama paga” (EQLLP) (Calling Party Pay – CPP) para las comunicaciones FM en reemplazo del sistema vigente conocido como «El que recibe paga» (Receiver Pays Principle – RPP). De acuerdo con el sistema EQLLP las llamadas FM son cargadas a los usuarios de la red fija que las originan. Asimismo, los operadores móviles fijaban libremente el nivel de estas tarifas. De esta manera, las empresas de telefonía fija facturaban y cobran a sus usuarios las llamadas FM que realizaban y conservaban para sí los cargos (peajes) de originación de llamada, facturación y cobranza y morosidad, luego debían entregar el saldo a las operadoras móviles.

Como ha ocurrido en otras latitudes, la implantación del sistema EQLLP dinamizó el mercado móvil peruano. La cantidad líneas móviles pasó de 75 mil en 1995, a 1,3 millones en el 2000, 5,5 millones en el 2005 y 27,1 millones en junio del 2010.

Dominancia en la terminación

Uno de los principales problemas del sistema diseñado por OSIPTEL fue que entregó la dominancia de la terminación de la llamada FM a los operadores móviles. En la medida que una llamada FM solamente puede terminar en la red del operador del usuario a quien se llama, se señala que se genera un monopolio en la terminación de llamada por parte de la red móvil de destino. Esta dominancia se vio exacerbada en el Perú desde que el operador móvil era quien fija la tarifa para las llamadas FM a un cliente que no era el suyo (lo era del operador fijo) y por lo tanto carecía disciplina competitiva para moderar su nivel tarifario.

Sin embargo, esta dominancia se pagó con creces con una constante expansión de las redes móviles, un incremento exponencial de la planta de abonados y una enorme gama de nuevos servicios para todas las economías familiares.

Razones que aconsejarían regular las tarifas FM

OSIPTEL, en el informe que sustenta las dos resoluciones mencionadas, advierte como única razón para regular el mercado de llamadas FM el actual nivel de concentración de la telefonía fija. Se señala que a junio de 2010, Telefónica contaba con el 74.1 por ciento del total de líneas en servicio y Movistar con el 18,5 por ciento, lo cual hacía que el Grupo Telefónica contara con el 92,6 por ciento de las líneas fijas en servicio. Su competidor más cercano sería el grupo económico formado por Telmex y América Móvil quienes ostentarían el 3,1 por ciento y el 2,8 por ciento de las líneas fijas respectivamente con un agregado del 5,9 por ciento. Dadas estas cifras se deduce que el mercado de telefonía fija de abonado presentaría un nivel de concentración muy alto.

Siguiendo esta lógica, si se permitiera al operador fijo establecer las tarifas para las llamadas FM, sería probable que se mantengan los altos niveles tarifarios que se observan actualmente.

La competencia al ático

Uno de los aspectos más debatibles de la propuesta de OSIPTEL es su visión estática de la competencia, es decir, parte de suponer que un cambio de la titularidad de las llamadas FM no alterará en lo sustancial la actual estructura competitiva del mercado.

Sin embargo, creemos que el cambio de titularidad en las llamadas FM generaría una serie de presiones competitivas que no permitirían a los operadores fijos con mayor participación en el mercado actuar con independencia de sus competidores o usuarios y por lo tanto mantener un elevado nivel de precios en las llamadas FM.

Existe numerosa evidencia que nos señala que existe un importante grado de sustitución entre la telefonía fija y móvil, incluso atendiendo a esta realidad algunos países han liberalizado su mercado de telefonía fija (Liberan mercado telefónico fijo en Chile). Siendo ello así, si los actuales precios para las llamadas FM se mantuvieran, seguiría acentuándose la tendencia de reemplazarlas por llamadas móvil-móvil (MM). Nada nos lleva a concluir que las operadoras fijas van a actuar en contra de sus intereses en beneficio de los operadores móviles.

Asimismo, se olvida que en el mercado peruano existen costos relativamente bajos para competir en el segmento de llamadas FM. Efectivamente, un cambio en la titularidad en las llamadas FM, permite que cualquier operador con una concesión de telefonía fija a través del sistema de interoperabilidad pueda vender llamadas FM. De esta forma, todas las operadoras fijas estarían en la capacidad de ofrecer llamadas FM a los propios abonados de Telefónica o Telefónica Móviles, lo cual generaría con seguridad una gran diversidad de nuevos planes y productos y mantendría las tarifas a un nivel considerablemente menor el que conocemos en la actualidad.

En lo particular, estimamos que la regulación de determinada actividad económica sólo se acoseja cuando no existe posibilidad de introducir competencia. Los intervencionistas, suelen olvidar que la regulación estatal suele tener costos asociados muy elevados como la utilización de fondos públicos que podrían tener un mejor destino, costos de monitoreo, daño al sistema de precios y costos asociados al poder coercitivo del Estado.

En este caso lo que no se logra entender es que se decida regular la llamada FM luego de quince años de no hacerse en un entorno de nula competencia y se decida hacerlo cuando aparecen presiones competitivas que nos aconsejarían actuar en el sentido contrario.

Cerco a la Biblioteca de Babel

A mediados del 2009 comentamos (¿Le llegó la hora a Google?) acerca de algunos de los problemas legales que enfrentaba el proyecto Google Books (antes conocido como Google Book Search y Google Print). En particular advertimos de las críticas que venía recibiendo el acuerdo que alcanzara Google con la industria editorial (Authors Guild y Association of American Publishers). Curiosamente, fue la propia industria editorial la que inicialmente demandó a Google por considerar que su intento para crear una moderna biblioteca de Alejandría a partir de la masiva digitalización inconsulta de libros de los repositorios de un puñado de bibliotecas vulneraba sus derechos de autor. Sin embargo, Dios los crea y ellos se juntan.

Breves antecedentes

En octubre de 2008, la industria editorial y Google suscribieron un Acuerdo de Solución (Settlement agreement) que ponía fin al pleito que mantenían en los tribunales. Sin embargo, las cosas no fueron tan fáciles. El Acuerdo inicial fue aprobado provisionalmente por el juez John E. Sprizzo poco antes de que falleciera y entró en vigencia en noviembre 2008. No obstante, la solución propuesta disparó una serie de críticas que motivó a que las partes presentaran un Acuerdo modificatorio para su aprobación final de acuerdo con las reglas del proceso. Pero la aprobación definitiva deberá esperar. Este 22 de marzo, el Juez Denny Chin de la Corte de Apelaciones del Segundo Circuito rechazó el Acuerdo al considerar que no es justo, ni adecuado y tampoco razonable.

Básicamente, el Acuerdo autoriza a Google a: (1) continuar con la digitalización de libros y encartes; (2) vender suscripciones de libros de una base de datos electrónica; (3) vender el acceso en línea de libros individuales; y, (4) insertar publicidad en las páginas de los libros. Google pagará a los titulares de los derechos el 63% de todos los ingresos recibidos por estos usos. Asimismo, en uno de sus aspectos más cuestionados, crea una Fiduciaria encargada de administrar las obras no reclamadas (Unclaimed Works Fiduciary).

La Opinión del Juez

Chin cree es al Congreso y no a Google a quien le corresponde encargarse de la tutela de las obras huérfanas, así como de determinar bajo qué condiciones deben ser explotadas. Recuerda que la Corte Suprema ha sostenido que «corresponde en general al Congreso, no a los tribunales, decidir la mejor manera de ejercer la cláusula de los objetivos del copyright» (Eldred v. Ashcroft, 537 EE.UU. 186, 212 (2003) y Sony Corp. v. Universal City Studios, Inc., 464 EE.UU. 417, 429 (1984). Sin embargo, el Acuerdo otorga a Google pleno acceso a explotar una serie de obras con derechos de autor que de otro modo no tendría derecho a explotar.

El Acuerdo permite a Google dedicarse descaradamente a copiar libros al por mayor, sin obtener los permisos de los titulares de los derechos de autor correspondientes. Mientras que, sus competidores están obligados a transitar por un cuidadoso y costoso proceso para obtener dichas autorizaciones.

Recuerda el magistrado que en este contexto los intereses de la industria editorial a veces están en conflicto con un gran número de titulares de los derechos de autor. Menciona especialmente el caso de muchos autores académicos que no comparten el afán de lucro de la industria, así como que este afán de lucro está en contradicción con los intereses de los propietarios de las obras no reclamadas, pues las partes que suscriben el Acuerdo tienen pocos incentivos para identificar y localizar a los propietarios de las obras huérfanas, en la medida que mientras menos cláusulas de responsabilidad, existirán más obras no reclamadas que Google puede explotar.

El Juez Chin criticó la estructura fundamental del Acuerdo desde el punto de vista de los derechos de derechos de autor. El fallo articula un precepto básico del derecho de autor a partir de cual los propietarios tienen incluso el derecho de optar por no hacer nada con sus obras. Sin embargo, en el marco del Acuerdo si los propietarios de los derechos de autor no hacen nada, pierden este derecho.

Otro aspecto que preocupa a Chin es que, aunque la propuesta de acuerdo fue revisada para limitar la explotación de obras de cuatro países (Estados Unidos, Reino Unido, Canadá y Australia), muchas obras extranjeras están registradas en los Estados Unidos. De esta forma, los titulares titulares extranjeros están en desventaja para determinar si se encuentran dentro del marco del Acuerdo y para hacer valer sus derechos. El tribunal declaró explícitamente que no consideraba que el Acuerdo violaba las normas internacionales de los derechos de autor. Sin embargo, los intereses de los titulares extranjeros de derechos de autor era una razón más para dejar al Congreso resolver este tema.

Finalmente, el Juez Chin consideró que gran parte de la preocupaciones planteadas al Acuerdo podrían ser revertidas si se cambiaba su estructura de una solución del tipo opt-out a una del tipo opt-in, es decir basado en el consentimiento, e  insta a las artes a considerar una revisión del Acuerdo en este sentido.

¿Y ahora que…?

De acuerdo con algunos especialistas son tres los pasos que podría seguir Google y la industria editorial: (i) aceptar la invitación para convertir la propuesta en una del tipo opt in, (ii)  abandonar el Acuerdo y regresar al pleito, con los riesgos y gastos que ello implica, y, (iii) apelar al Segundo Circuito la decisión del Juez.

Recomendamos

James Grimmelmann, Inside Judge Chin’s Opinion

Kenneth Crews, Google Books: Copyright Settlement Rejected

Randy Picker, Moving Forward in Google Book Search

Mary G. Mayiladumpara: Google Books and Digitisation of Libraries: Fair Use or Extension of Copyright? (pdf)

Eric M. Fraser: Antitrust and the Google Books Settlement: The Problem of Simultaneity (pdf), Stanford Technology Law Review.

Matthew Sag: The Google Book Settlement and the Fair Use Counterfactual (pdf), New York Law School Law Review.

Tiendas de ladrillo para vender carteras de lujo en línea (II)

En abril de este año publicamos  una entrada (Tiendas de ladrillo para vender carteras de lujo en línea (I)) en la que dábamos cuenta de las nuevas exenciones por categorías de acuerdos verticales (Vertical Restraints Block Exemption Regulation – VBER) nº 330/2010 de la CEE. El nuevo VBER estará en vigencia desde el 1 de junio de este año hasta el 31 de mayo de 2022. Un resumen de esta legislación en Out-Law (Luxury brands welcome EU law to restrict online sales).

Esta versión el VBER constituye guiño a los fabricantes de productos de alta gama y refuerza su modelo de comercialización a través de redes de distribución selectiva, en la medida que les brinda mayor libertad para controlar el comercio minorista a través de Internet. El VBER permite que los fabricantes de bienes de lujo puedan exigir a sus distribuidores minoristas (de ladrillo y mortero) que dispongan de tiendas físicas antes que una página web, de esta forma se podría llegar a eliminar la figura de los distribuidores en línea “puros”.

Los productos de lujo constituyen un mercado bastante más complejo de lo que parece. Gran parte de los consumidores de este tipo de bienes lo hacen por asociación a un determinado estilo de vida. Alguna literatura económica reconoce que en este tipo de actividad, es importante que la presentación y el entorno en el que se adquieren los bienes refleje la experiencia «de lujo» que los consumidores desean obtener con el producto.

En principio, una tienda virtual no se diferencia de una física. Los motivos que impulsan a las grandes cadenas de productos de lujo para imponer restricciones verticales son las mismas en ambos tipos de tiendas. Controlar la imagen de marca y evitar que algunos canales de venta por Internet puros se aprovechen de la imagen y los servicios de las tiendas de ladrillo, son las principales razones para desarrollar redes de distribución selectiva.

Sin embargo, en la práctica es mucho más difícil para una cadena de productos de lujo controlar su marca en los canales de Internet. Por ejemplo, una tienda en línea podría verse tentada a utilizar interfaces estandarizadas, lo cual al tiempo que reduce sus costos de exposición deteriora la imagen de la marca que vende. También hay reconocer que la venta al por menor en Internet limita la posibilidad de asesoramiento personalizado, algo en lo cual las cadenas de productos de lujo suelen poner especial énfasis.

Bajo estos argumentos, parce lógico que las grandes marcas de bienes de lujo impongan algunas restricciones a la venta de sus productos en Internet. Sin embargo: ¿Cuál es el papel de las casas de subastas en línea en todo este tinglado?

Las grandes marcas de lujo saben que si no imponen restricciones al comercio en Internet sus productos van a parar tarde o temprano en eBay, algo que particularmente las enfurece. Ya hemos descubierto en Blawyer algunos de los entuertos judiciales de eBay con las marcas de productos de lujo (eBay y la responsabilidad de los eMarkets por productos falsos). Si es posible comprar zapatos Manolo Blahnik Jimy Choo y carteras Dolce & Gabbana Viktor & Rolf, en eBay, más que la marca, es el valor de la franquicia de ladrillo la que se desdibuja notablemente. Por el contrario si en eBay ya no es posible intercambiar productos de lujo, la plataforma deja de ser atractiva para determinado tipo de público.

En un principio se notició al nuevo VBER como una herramienta para prohibir la venta de productos de lujo en casas de subasta en línea. Vemos que no es así. Sin embargo, es altamente probable que a partir de la vigencia de esta edición del VBER se reduzca la oferta de productos nuevos de marcas de lujo en eBay. Algo que suponemos, no le hará mucha gracia. 

Para los interesados un par de documentos sobre el tema:

– Selective Distribution of Luxury Goods in the Age of e-commerce, An Economic Report for CHANEL de Charles River Associates (pdf)

– Empowering Consumers by Promoting Access to the 21st Century Market de eBay (pdf).

Wi Fi a bordo

En 1973 el consorcio «Metrolima» elaboró un estudio de factibilidad del que habría sido el «Sistema de Transporte Rápido Masivo de Pasajeros en el Área Metropolitana de Lima-Callao«. Lamentablemente, la crisis económica en la que se sumergió el Perú en las postrimeras del gobierno de Velasco impidió encontrar financiamiento para este proyecto (aproximadamente US$ 317 millones de la época) y como tantos otros propósitos en este país, terminó por archivarse.

El Metrolima contemplaba un total de cuatro (4) líneas de tren subterráneo. La primera desde Comas hasta la avenida México con Paseo de la República, donde se convertía en un tren de superficie, atravesaba la Panamericana Sur por Atocongo (donde se suponía terminaría el «Zanjón» de Bedoya) hasta su estación final en San Juan de Miraflores. La segunda línea, desde Aviación con Javier Prado hasta Faucett. La tercera, desde el Rímac hasta la Residencial San Felipe en Javier Prado. La cuarta, del Mercado Mayorista de La Victoria hasta Faucett.

Que el gobierno militar no fuera capaz de dotar a la ciudad de Lima de un medio de transporte subterráneo tuvo las consecuencias que hoy todos soportamos. Una ciudad atascada a toda hora, todo el tiempo, todos los días. Los limeños nos enfrascamos diariamente en un espeso mar de taxis, combis, buses de todos los años y tamaños y en algunos lugares de la ciudad sufrimos a los mototaxis, en lo que viene a ser un inequívoco síntoma de calcutización de la ciudad.

Treinta y cinco años después del último proyecto serio de un tren subterráneo para Lima se vienen implementando dos iniciativas que podrían solucionar en algo el problema del tránsito en la ciudad. Comprenderán los que viven en estas tierras que me estoy refiriendo a los proyectos de El Tren Eléctrico (TE) y al Metropolitano.

El TE es heredero directo del Metrolima. Empezó a construirse en 1986, durante el primer gobierno de Alan García bajo el esquema de un viaducto elevado. Sin embargo, la falta de dinero y la improvisación lo pusieron a dormir por varios lustros. Luego del reinicio de los trabajos, se supone que se concluirá en el 2011. La primera etapa del TE irá desde Villa El Salvador hasta la Avenida Grau, donde se interconectará con la Estación Central del Metropolitano.

El Metropolitano es la otra gran obra de transporte público masivo que viene implementándose en la ciudad, pero a diferencia del TE, el Metropolitano corre por cuenta de la Municipalidad Metropolitana de Lima. Consiste en un sistema de buses que transita a través de un corredor segregado por algunas vías importantes de la ciudad. Su construcción se inició en el año 2006, terminará quién sabe cuando, y consta de dos tramos. El Corredor Sur desde la Estación Central a Matellini en Chorrillos y el Corredor Norte desde la Estación Central a El Naranjal en Comas.

Ya veremos cómo funcionan. Un aspecto que podría estudiarse respecto de estos dos sistemas de transporte es la posibilidad de dotarlos de algún nivel de conectividad a Internet. Somos conscientes que no es posible exigir a los destartalados buses y combis un avance de desta naturaleza, algunos si apenas funcionan, pero el TE o el Metropolitano podrían tener acceso a Internet.

No sería la primera ciudad en contar con estas modernidades. El Ayuntamiento de Madrid  anunció recientemente que una parte de su flota de buses ya dispone de la infraestructura necesaria para proporcionar acceso a Internet vía WI-Fi. Asimismo, desde julio del año pasado el proveedor de servicios de transporte público SBS Transit de Singapur, introdujo conectividad a Internet en varios de sus vehículos. El acceso está disponible para cualquier pasajero con un dispositivo con conexión Wi-Fi sin la necesidad de obtener una clave de autenticación.

Para concretar esta iniciativa, los encargados de gestionar tanto el TE como el Metropolitano tendrían que explorar las siguientes alternativas. La primera, permitir que una empresa concesionaria de telecomunicaciones establecida brinde acceso. En este caso los encargados de la administración no tendrían que gestionar ningún tipo de licencia o título habilitante. Otra alternativa, es la de constituirse en un ISP y brindar ellos mismos el servicio de acceso a Internet. Para ello es necesario contar con un Registro de Valor Añadido —el cual no es muy difícil de obtener-, ante el Ministerio de Transportes y Comunicaciones. Finalmente, podrían comercializar los servicios de un operador establecido, para lo cual habrían inscribirse en el Registro de Empresas Comercializadores de Servicios de Telecomunicaciones también ante el Ministerio. Estos dos últimos modelos tienen el inconveniente que las administraciones, tanto del TE como del Metropolitano, serían responsables por la calidad e idoneidad de los servicios ofrecidos ante OSIPTEL y sus usuarios.

Otro aspecto a debatir es cuál sería el modelo de negocio. Si es a través de un acceso gratuito, es decir, pagado por todos los usuarios del servicio de transporte o financiado con la venta de tarjetas con las claves de autenticación. Si el servicio es gratuito y las administraciones son privadas, nos encontramos bajo el modelo Blockbuster (Starbucks sin laptops) y si la titular es una empresa pública el modelo es el de Carmen de la Legua (Carmen de la Legua-Reynoso y su acceso libre a Internet). En el primer caso no encontramos mayores inconvenientes; en el segundo, los problemas a la libre competencia y competencia desleal que ya indicamos en su oportunidad.

Tiendas de ladrillo para vender carteras de lujo en línea (I)

Uno de los grandes conflictos que aparecen regularmente en el ciberespacio es aquel que enfrenta a las marcas de artículos de lujo con las distintas herramientas del comercio electrónico. En particular, las grandes firmas de alta gama se muestran muy preocupadas por la pérdida de control del canal de distribución minorista, en la medida que una parte importante de las transacciones de sus productos de lujo se realiza en portales de subastas en línea como eBay.

En Blawyer hemos dado cuenta de parte de este debate. En julio de 2008 posteábamos sobre una serie de procesos judiciales con eBay como protagonista (eBay y la responsabilidad de los eMarkets por productos falsos). No son los únicos casos. Una corte alemana decidió a favor de los intentos de Alfred Sternjakob GmbH & Co. y su marca  Scout (una línea de bolsos escolares) para prevenir el comercio en línea. Por otro lado, tribunales franceses, belgas y británicos rechazaron los reclamos judiciales de L’Oreal contra eBay por infringir sus derechos de marca.

Sin embargo, pareciera que las empresas de productos de alta gama empiezan a inclinar la balanza, desde que se afirma que han logrado que la Comisión Europea les permita limitar las ventas de sus productos en sitios de Internet que no cuenten con un local físico autorizado (El País y Expansión).

Las marcas de productos de lujo vienen exigiendo que se les permita impedir la actividad de sus competidores virtuales, los cuales supuestamente se aprovechan de sus campañas de promoción sin asumir los costos (lo que los economistas llaman problema del free rider o polizón). «La cláusula permite a la industria del lujo proteger sus inversiones en tiendas de ladrillo y cemento«, señaló Antoine Winkler, de Cleary Gottlieb Steen & Hamilton, firma de Nueva York que representa a varias de estas empresas.

Vista la forma como se nos presenta la noticia, no queda claro en qué contexto es que la Comisión ha aceptado el clamor de las firmas de alta gama al permitir la distribución selectiva de sus productos de lujo. La historia detrás de la noticia es bastante más compleja que la escueta nota resumida por la prensa.

El 20 de abril de 2010, la Comisión Europea aprobó una nueva regulación que exime a ciertos acuerdos de distribución de las normas de Derecho de la competencia. Este Reglamento, conocido como de exención por categorías de acuerdos verticales (Vertical Restraints Block Exemption Regulation – VBER) nº 330/2010, sustituye al Reglamento nº 2790/99 vigente desde el año 2000 y que expiró el 31 de mayo de 2010. La Comisión también ha publicado unas Directrices relativas a las restricciones verticales (Guidelines on Vertical Restraints).

Los acuerdos verticales son pactos de compraventa de bienes o servicios suscritos entre empresas que operan a niveles diferentes de la cadena de producción. Los acuerdos de distribución entre fabricantes y minoristas son un ejemplo típico de acuerdos verticales. Si estos acuerdos imponen restricciones al proveedor o al comprador se les denomina restricciones verticales. Una restricción vertical típica es cuando se pacta que el proveedor solamente venda a determinado comprador.

Estos acuerdos verticales pueden restringir o no la competencia, y es posible también que los beneficios derivados del acuerdo compensen sus posibles efectos anticompetitivos. Como forma de dotar de seguridad jurídica a las empresas que realizan de forma común este tipo de prácticas la VBER crea una suerte de «zona de seguridad» para estos acuerdos verticales. Es decir, aquellos acuerdos contemplados en el VBER están automáticamente liberados de la prohibición general. Por el contrario, aquéllos pactos verticales no cubiertos por el VBER no son ilegales per se, sino que deben ser analizados caso por caso.

En lo que nos ocupa. El VBER considera a las ventas a través de Internet como ventas pasivas, en la medida que quien entra en una página web se asemeja a quien compra en un establecimiento comercial. Las Directrices consideran como una restricción prohibida aquellas limitaciones a las ventas pasivas, por ejemplo, exigir a un distribuidor exclusivo que no permita el acceso a su web a clientes ubicados fuera de su territorio.

La Comisión admite algunas excepciones a esta regla. De acuerdo con las Directrices, las restricciones a las ventas por Internet pueden ser legítimas si sirven para garantizar niveles mínimos de calidad del distribuidor como una analogía con la distribución selectiva. La distribución selectiva es aquella estrategia en la que un proveedor distribuye sólo a través de distribuidores autorizados seleccionados sobre la base a ciertos criterios relacionados con el producto. Estas estrategias son comunes en la distribución de productos de lujo o bienes con características especiales.

De esta forma de acuerdo con las Directrices un fabricante puede exigir a sus distribuidores selectivos que tengan una tienda de «ladrillo y mortero» o sala de exposición real antes de permitir la distribución de sus productos en línea.

Como ven nos encontramos ante un tema muy interesante, cuya discusión no se agota con la presente entrada. Ya tendremos oportunidad de ampliarla.

El Comercio compra peru.com ¿Se reducirá la oferta informativa?

Llama la atención cuando en nuestro apacible ambiente puntocom ocurre algún movimiento de ficha, un enroque empresarial que rompe el letargo y nos acerca a la cotidianidad de las grandes movidas de otras latitudes. Empresa Editora El Comercio S.A. es de lejos el conglomerado de medios más importante del país y cobija, bajo su brazo centenario, además del tradicional diario El Comercio, el económico Perú 21, el populachero Trome, el financiero Gestión, Depor, la estación de televisión por cable Canal N y América Televisión, esta última en alianza con el diario La República.

No tengo datos certeros, pero si confiamos en la información que nos reporta Google trends el portal del diario El Comercio tiene un tráfico superior al de todos sus rivales nacionales. Ignoro cuál es el modelo de negocio que tiene El Comercio en Internet, de hecho algunas veces pareciera no tener ninguno, pero lo cierto es que va camino de convertirse en un gran actor en este circuito, por lo menos en el Perú.

A principios de año se rumoreaba que El Comercio tenía interés en adquirir las operaciones de la Red Científica Peruana, al parecer se le había puesto el ojo a La Mula (SE: Convergencia con sinergias). Por el momento no se habla del tema.

Hace unos días, se oficializó lo que todo el mundo sabía. El Comercio ha cerrado un acuerdo para adquirir la mayoría de las acciones (51%) de Interlatin Corp., titular de la sociedad www.peru.com S.A. (el segundo portal de noticias más visitado del país). De acuerdo con la comunicación de hechos de importancia realizada a CONASEV (Documento 2010012514) la compra se realizará desde Orbis Ventures S.A.C. (empresa del grupo que opera y gestiona las versiones electrónicas de los diarios El Comercio, Perú.21, Trome y Gestión) por un precio de US$ 1’428,000.

Más allá de los apetitos de El Comercio por desplegar sus banderas en el ciberespacio y del modelo de negocio que sostendrá esta tarea, he leído algunos comentarios lamentando la operación alegando una previsible reducción de la diversidad informativa. También, se señala que con esta adquisición El Comercio termina por convertirse en el proveedor incumbente de información en Internet (Apuntes peruanos: Peru.com y El Comercio: Concentración). ¿Es esto cierto?

Partamos de un punto, en el Perú no existe un sistema que regule las concentraciones empresariales. Salvo para el sector eléctrico las demás operaciones de esta naturaleza no necesitan de la aprobación de la agencia de competencia (en este caso de Indecopi). En tal sentido, la operación de compra de peru.com por El Comercio no está sujeta a ningún tipo de aprobación administrativa. Sin embargo, creemos que bien vale hacer algún breve ejercicio teórico sobre la idoneidad de la operación.

En principio, el control de fusiones busca impedir que producto de la operación se reduzca de forma importante el bienestar de los consumidores en los mercados involucrados. Para evaluar el posible daño, se debe establecer cuál es el estado actual del mercado y los niveles de competencia luego de producida la operación.

A diferencia de lo que ocurre con la radio y la televisión donde las leyes acostumbran establecer límites al número de señales en manos de un sólo propietario, los demás medios de comunicación no suelen tener este tipo de restricciones. La lógica detrás de esta cortapisa es evidente, mientras el espectro necesario para transmitir ondas de radio o televisión es escaso no existe ningún límite físico que impida distribuir periódicos o revistas.  Algo parecido ocurre con Internet.

No es posible calificar a El Comercio, incluso después de la fusión, como dominante en el mercado de contenidos informativos en línea. Desde el punto de vista de la demanda la posibilidad de acceder a cualquier oferta informativa es muy sencilla y no existe ninguna barrera que limite este ejercicio. Lo mismo ocurre con la potencial oferta de medios, cualquier persona sin necesidad de una gran inversión está en la capacidad de ofrecer contenidos informativos y competir con El Comercio. La diversidad de medios y su facilidad para crearlos hace difícil que podamos considerar al conglomerado El Comercio como un proveedor incumbente de información y menos aún que este poder de mercado pueda trasladarlo a los consumidores.

Otra cosa es el mercado publicitario. Como se sabe para hacer dinero en Internet se necesitan dos cosas. Contenidos que generen audiencia y anunciantes que financien los servicios ofrecidos en el portal. Así, se podría argumentar que si El Comercio logra acumular una gran audiencia, estaría en la capacidad de incrementar su nivel de anunciantes los cuales dejarían de publicitar en los sitios de sus competidores afectando de esta forma su modelo de negocio. Sin embargo, la pluralidad de sitios de información existentes en Internet también impediría que esta posibilidad se materialice. Veremos qué pasa.

¿Le llegó la hora a Google?

El departamento de Justicia de los Estados Unidos (Department of Justice – DoJ) ha decidido investigar a Google y a varias casas editoriales estadounidenses por los acuerdos alcanzados para desarrollar su Google Books, que es el servicio de digitalización de libros desarrollado por la compañía (The Industry Standard, Reports: DOJ turns up the heat on Google’s book deal). Aparentemente la investigación podría formar parte de la ofensiva de la administración del presidente Obama contra algunas de las empresas punteras de la sociedad de la información.

Google Books, la particular interpretación digital de la biblioteca de Alejandría de Google, se empezó a gestar en el año 2004 con el objetivo digitalizar y poner a disposición de los usuarios del buscador la mayor cantidad posible de libros impresos. Inicialmente, el proyecto contó sólo con el consentimiento de algunas bibliotecas, dejando de lado para su desarrollo a los titulares de los derechos de autor.

Esta decisión, dejar de lado a autores y editores, generó que en el año 2005 la industria editorial estadounidense exigiera judicialmente a Google el reconocimiento de sus derechos de autor y la paralización del proceso de digitalización. Google solucionó el problema a golpe de talonario, suscribió sendos acuerdos comerciales con la Authors Guild (Sociedad de Autores) y la Association of American Publishers (Asociación Americana de Editores – AAP). Con estos acuerdos -todavía no han sido santificados por los tribunales-, Google reconoció la existencia de los derechos reclamados, se comprometió a proporcionar medios efectivos para controlar el acceso online a estas obras y se obligó al pago de una compensación por dicho acceso.

Sin embargo, estos acuerdos no son del agrado de todos, el Departamento de Justicia envío sendas demandas de investigación civil (Civil Investigative Demand – CIDS) a las partes involucradas, anunciando su intención de analizar si son demasiado restrictivos para con los autores o les impide ceder sus obras a otras empresas similares a Google.

Algunos académicos ven en estos acuerdos como una posible vulneración de las normas antimonopolio americanas. Eric M. Fraser de la Universidad de Chicago (Antitrust and the Google Books Settlement: The Problem of Simultaneity) cree que el principal problema anticompetitivo de estos acuerdos procede de la simultaneidad de los acontecimientos, clave del marco del acuerdo. El autor parte de la premisa que con esta solución Google llega a un acuerdo de forma simultánea con casi todos los titulares de los derechos de autor de libros de los Estados Unidos.

Gracias a ello, Google está en la capacidad de fijar de forma efectiva los precios de las publicaciones on-line de todos los editores americanos al mismo tiempo. En un mercado competitivo, difícilmente se produciría un hecho similar. Para formar, por ejemplo, una asociación de libros digitales similar Google se vería obligada a alcanzar una serie de costosos acuerdos con cada titular de los derechos. Sin embargo, los juicios planteados permitieron a Google llegar estos acuerdos con toda la industria editorial de una sola vez. En un mercado normal, cada editor establecería los precios de forma independiente, tratando los productos competitivos como constantes y variando sólo su propio precio. Con estos acuerdos, Google se sitúa a la cabeza del sistema y puede coordinar los precios que maximicen los beneficios para el grupo en su conjunto. Es decir, Fraser cree que Google se ha convertido en el eje de un cartel editorial.

Otro de los inconvenientes es que es poco probable que el sistema pueda ser duplicado en la medida que será muy difícil duplicar el acuerdo que Google ha alcanzado con la industria editorial. Curiosamente, parece que el tipo de acción legal (una class action) utilizada ha colaborado a la formación de este posible cártel, en la medida que para su presentación es necesario de un gran número de demandantes con reclamos similares.

Sin embargo, otras empresas como Yahoo o Microsoft podrían recurrir al mismo camino que Google para obtener unos beneficios similares. Es decir, implementan un sistema de digitalización y publicación de libros similar al de Google sin repetar los derechos de autor. De esta forma se les abre el camino para alcanzar el mismo acuerdo con la industria editorial, siempre y cuando inicien un proceso judicial para defender sus derechos. ¿Se atreverán?

Como el Yamato en el Titicaca

El Yamato fue el mayor buque de guerra de la Armada Imperial Japonesa durante la Segunda Guerra Mundial. Este mostruo de acero flotante medía 256 metros de longitud y estaba armado con las mayores piezas de artillería embarcadas jamás en un buque de guerra.

Imaginemos que Bolivia, en honor a su inveterada reclamación marítima decidiera dotarse de una poderosa flota. No tiene mar. No importa, esta armada guardaría la soberanía del país altiplánico surcando las aguas del lago Titicaca. En este trance decide dotar a su armada lacustre de un buque de las dimensiones del Yamato. Esfuerzo inútil, no cabe duda.

Recientemente OSIPTEL ha aprobado por Resolución Nº 023-2009-CD/OSIPTEL, la «Metodología y Procedimiento para determinar a los Proveedores Importantes de Servicios Públicos de Telecomunicaciones sujetos a obligaciones establecidas en el Decreto Legislativo N° 1019«.

Por Decreto Legislativo Nº 1019, se aprobó en el marco de la implementación del Tratado de Libre Comercio con los Estados Unidos, la Ley de Acceso a la Infraestructura de los Proveedores Importantes de Servicios Públicos de Telecomunicaciones. Norma que fue reglamentada por la Resolución Nº 020-2008-CD/OSIPTEL (Disposiciones Complementarias de la Ley de Acceso a la Infraestructura de los Proveedores Importantes de Servicios Públicos de Telecomunicaciones).

En principio, el objetivo previsto por esta regulación es el establecer un marco normativo adecuado que permita el uso compartido de la infraestructura de telecomunicaciones de los llamados «proveedores importantes» a fin de reducir la brecha en infraestructura y promover la competencia en la prestación de los servicios públicos de telecomunicaciones. En tal sentido, como las obligaciones de compartición pesan básicamente sobre las espaldas de los llamados «operadores importantes» la Resolución bajo comentario describe cuáles son los mecanismos que utilizará OSIPTEL para su designación.

De acuerdo con el procedimiento aprobado, para determinar a los «proveedores importantes» se establecerán un conjunto de mercados de partida los cuales servirán para el análisis de los casos que se presenten, así como para el estudio de aquéllos iniciados de oficio por OSIPTEL. Para tal fin, se elaborará el llamado Documento Marco en el que se identificarán dichos mercados de partida.

Este Documento Marco incluirá la designación de un subconjunto de mercados para los cuales el OSIPTEL iniciará, de oficio, un análisis de proveedores importantes en dichos mercados, por ser considerados “mercados prioritarios” para el desarrollo de la competencia en el sector.

Como quiera que OSIPTEL pretende analizar todos los mercados de telecomunicaciones en el Perú, éstos se han agrupado inicialmente de la siguiente forma: i) comunicaciones de voz provistas desde ubicaciones fijas, ii) comunicaciones de voz provistas en ubicaciones móviles, iii) transmisión de datos provista desde ubicaciones fijas, iv) transmisión de datos provista en ubicaciones móviles y v) servicios de distribución de radiodifusión. A partir de estos mercados se determinarán los mercados relevantes existentes dentro de cada grupo.

Como se observa, OSIPTEL copia en parte la regulación europea en la materia contenida en un paquete de directivas comunitarias en materia de telecomunicaciones aprobadas el 2002 (Paquete telecom). De acuerdo con esta legislación corresponde a los diferentes reguladores nacionales europeos definir 18 mercados del sector de las comunicaciones con carácter periódico. A partir de dicha información los reguladores verificarán si estos mercados se desarrollan en un entorno de competencia efectiva y en caso esto no ocurra, impondrán las obligaciones necesarias.

Este mecanismo regulador del mercado si bien en esencia tiene una vocación desreguladora -lo cual es importante-, ha sido criticado en la medida que establece una serie de mercados rígidos en un entorno convergente y cambiante.

Pero este no es el problema en nuestro caso, nos encontramos ante una serie de instrumentos costosos y complejos de elaborar que únicamente tienen la utilidad declarada de imponer determinadas cargas de compartición de infraestructura. ¿Vale la pena tanto esfuerzo? Creemos sinceramente es como ver al Yamato en el Titicaca.

2008, aprobó las “Disposiciones Complementarias de la Ley de Acceso a la
Infraestructura de los Proveedores Importantes de Servicios Públicos de
Telecomunicaciones”, que constituye la norma reglamentaria para la implementación
del citado Decreto Legislativo Nº 1019;