15/03/2004

¿Es Telefónica una empresa ineficiente?

La respuesta es fácil
La Tercera
Por Pablo Serra, Investigador CEA, Ingeniería Industrial de la Universidad de Chile
Llama la atención la fuerte baja en las tarifas de CTC propiciada por los ministerios de Economía y Obras Públicas, Transportes y Telecomunicaciones. Esto, porque es difícil pensar que se haya producido un avance tecnológico tan fuerte en los últimos cuatro años que explique la propuesta dada a conocer, y más aún si a lo anterior se une el hecho que CTC ha presentado rentabilidades bajas, e incluso negativas, en los últimos años.

Es problemático opinar sobre la exactitud y rigor del Informe de Objeciones y Contraposiciones (IOC) preparado por los ministerios y lo mismo ocurre con el Estudio Tarifario presentado por CTC: procesar en pocas horas toda la información que estos documentos traen resulta imposible. Sin embargo, es atractivo especular acerca de las posibles razones que, por separado o en conjunto, explicarían los números del IOC.

Una primera explicación sería que las objeciones del IOC son correctas y simplemente CTC es una empresa ineficiente. Si bien es cierto que ella ha mejorado su gestión en forma considerable desde la última fijación tarifaria, entre 1998 y 2002 la matriz de CTC redujo a menos de la mitad el número de sus trabajadores, el proceso de racionalización podría estar aún incompleto. Además, en los malos resultados de los últimos años han incidido los costos de reestructuración, así como la corrección monetaria en una empresa que no se había cubierto debidamente para enfrentar alzas en el precio del dólar, eventos que no debieran repetirse en el futuro.

Un segundo motivo sería el deseo de las autoridades de contrarrestar las alzas tarifarias solicitadas por Telefónica en su estudio. La razón para hacerlo es que las diferencias que persistan entre las autoridades y la empresa serán seguramente llevadas a una comisión pericial. La evidencia de anteriores procesos tarifarios indica que dichas comisiones tienden a buscar un punto intermedio entre las posiciones de las partes. Y si bien es cierto que el informe de los peritos no es vinculante para las autoridades, como es probable que el proceso tarifario derive en una demanda judicial, el informe de los peritos pasa a ser un gran antecedente para el proceso. En este contexto, el IOC habría buscado equilibrar una solicitud desmedida de CTC.

Existen diversas razones por las que las comisiones tienden a buscar una solución "salomónica". Una de ellas es el poco tiempo que disponen para pronunciarse sobre las divergencias, por lo que buscar un camino intermedio les puede parecer prudente. A lo anterior se agrega el hecho que para poder referirse sobre ellas sería necesario conocer tanto aspectos técnicos de las telecomunicaciones como elementos de finanzas y administración, y pocos especialistas reúnen todos estos conocimientos. La comisión de peritos está conformada por tres personas, una de las cuales es escogida por las empresas, la segunda por las autoridades y la tercera de común acuerdo entre las partes. En consecuencia, gran parte de la responsabilidad recae sobre el tercer perito, lo que acentúa los problemas anteriores. Y las propias partes pueden preferir que los peritos busquen puntos intermedios, pues es muy grande el riesgo de que se inclinen decididamente por la posición de la contraparte.

Aparentemente, la propuesta de CTC era débil. El Informe de Objeciones y Contraposiciones preparado por los ministerios trae una larga lista de errores detectados en el Estudio Tarifario. Algunos de los puntos objetados por las autoridades son en tópicos abiertos a la discusión, pero la argumentación en el IOC parece ser más sólida que en el estudio de CTC. En todo caso, el aparente descuido en este último se debería a que esta empresa habría trabajado bajo la premisa que en la fijación de 1999 se cometieron errores que la perjudicaron, los que serían compensados en la presente fijación tarifaria. Pero todo indica que las autoridades no consideraron para nada un eventual criterio de compensación y se ajustaron a los reglamentos y bases técnicas.

Uno de los elementos de la normativa es que en el cálculo de las tarifas se debe considerar la presencia de una hipotética "empresa eficiente", cuya "competencia" es muy fuerte para cualquier empresa real. Dicha empresa eficiente se supone poseedora de la tecnología más eficiente disponible, con lo cual la empresa real absorbe todo el riesgo tecnológico. Es cierto que en mercados más competitivos las compañías también enfrentan riesgos de obsolescencia, pero es poco probable que los competidores actualicen su tecnología en forma instantánea, siendo más bien procesos graduales. Asimismo, las compañías eficientes en sus expansiones deben considerar un diseño óptimo de redes, mientras que la empresa real está limitada por decisiones anteriores. Por último, no existe la empresa real que acierte en todas sus decisiones. Tal vez sería necesario precisar con mayor exactitud en qué consiste una empresa eficiente.

Why Can't We Have a Better Press Corps?

Como diría Brad DeLong, Why Oh Why Can't We Have a Better Press Corps?Banda ancha podría angostarse

La expansión de las conexiones a internet vía banda ancha tienen directa relación con el desarrollo de la telefonía fija, el que se podría ver frenado si CTC Telefónica- el actor dominante del mercado de telefonía fija nacional- decide detener sus inversiones en este sector.

Una decisión que podría tomar si se concreta la rebaja de precios que propuso el Gobierno para la compañía dentro de su proceso de fijación tarifaria.

Un factor clave, si se piensa que hace unos meses el subsecretario de Telecomunicaciones Christian Nicolai, atribuyó parte del progreso que ha tenido la banda ancha al "esfuerzo de la empresa privada, que se arriesgó a invertir en nuevas tecnologías y servicios".

El analista Roberto Gurovich cree que si CTC decide frenar su inversión en telefonía fija, "la meta de alcanzar el millón de conexiones de banda ancha para el Bicentenario será sólo un sueño, porque con suerte llegaremos a las 600 mil".

Actualmente el precio promedio de una conexión ADSL es de $28 mil, pero tanto para Telefónica como para sus competidores, que utilizan parte de sus líneas para ofrecer sus servicios, ya no sería tan rentable ofrecer ofertas y planes de bajo precio para acceder a alta velocidad.

Y aunque existe la alternativa de utilizar teléfonos móviles para usar banda ancha - la tecnología Edge permite navegar a una velocidad de hasta 474 Kbps- , el desarrollo de ésta aún es precaria y sus precios son muy superiores a los que se ofrecen por telefonía fija.

Además sólo una empresa del mercado ofrece actualmente Edge y con una cobertura limitada.

Por eso existe preocupación entre los operadores, porque más allá de que se suban o se bajen las tarifas de CTC, está en juego el futuro de la banda ancha y el desarrollo digital del país.


Los errores son evidentes y van desde básicos a sutiles:
-La única tecnología de consumo que utiliza las líneas telefónicas para transmitar banda ancha es ADSL. No es necesaria nuevas inversiones en telefonía fija para ofrecer ADSL, sólo se requieren inversiones en ADSL.
-CTC no ha aumentado su cantidad de líneas fijas desde hace un par de años, precisamente los años en donde las conexiones ADSL han crecido.
-Existen varias tecnologías para ofrecer banda ancha y no necesitan inversiones en telefonía fija. Cable y Wireless son ejemplo de ello.
-sugerir que $28.000 es bajo precio para alta velocidad cae por si solo: es caro comparado con otros paises de nuestro nivel de desarrollo. Por lo demás, 256Kbps o 512 Kbps no puede ser considerada alta velocidad si lo normal en Corea y Japón es 10 Mbps.
-decir que la empresa privada "se arriesgo a invertir en nuevas tecnologías y servicios" es decir algo obvio: una empresa privada siempre corre riesgos e invertir en nuevas tecnologías es algo propio de ellas.

Pésimo artículo que sólo apoya "Apocalipsis Now"

bien por el ministro Etcheberry

Propuesta del Gobierno le Garantiza Retorno de 8,2% si Telefónica Es Eficiente


-¿Cuál es la política sectorial de la autoridad que hay detrás de los procesos de fijación tarifaria en curso?

-Al igual que en las otras fijaciones tarifarias, lo que debemos hacer es cumplir la ley. Es decir, dado un tamaño de mercado, tenemos que calcular que si una compañía partiera hoy y quisiera hacerlo lo más eficientemente posible al menor costo, cuánto cuesta eso.

Debemos usar la misma lógica sólo aplicando las diferencias cuando las haya, en el caso de telefonía móvil y fija. Por ejemplo, usamos la misma tasa de costo de capital con CMET y EntelPhone. Cada parámetro que usamos del modelo tiene que ser algo justificado y si las condiciones son las mismas, debe ser el mismo parámetro que usamos para todas las empresas que funcionan en el sector.

-¿Pero cuáles son los aspectos favorables para la industria que introduce la propuesta de la Subtel?

-Al fijar las tarifas de acuerdo a una empresa modelo, en la medida que la empresa corresponda a este parámetro, ganará 8,17% sobre la inversión que hace. Si sus costos son mayores, y está bueno el modelo como creemos, la empresa tendrá que revisar la forma como está operando para bajar sus costos. A la gente esto le da la seguridad, ya que las tarifas fijadas son equivalentes a las que hubiese fijado libremente el mercado.

Además, el tener un sistema de prepago para la telefonía fija será una revolución. Será una solución buena para la compañía y para los segmentos que hoy tienen dificultades en acceder a la telefonía fija.

-Sin embargo, varias empresas competidoras de Telefónica critican el modelo y sostienen que las tarifas propuestas no incentivarán la competencia.

-Insisto en que la metodología utilizada es en base a una empresa eficiente, si hay consideraciones en que la compañía quiera insistir, o si los peritos opinaran distinto de la autoridad, obviamente vamos a considerar eso para ver si tienen razón o no. En función de ese proceso, cuando el Presidente Ricardo Lagos firme el decreto el 4 de mayo, vamos a tener las tarifas definitivas.

Eso puede que a las empresas competidoras no les guste, porque a ellos les convienen cosas distintas, pero nosotros no estamos operando para las conveniencias de Telefónica ni tampoco para las otras compañías. Nosotros estamos viendo lo que técnicamente corresponde fijar como precio.

-Pero en la práctica ninguna empresa está conforme...

-Estamos tarificando de acuerdo a la ley en forma técnica y sólo en la medida en que las empresas sean eficientes van a crecer. Están dadas las condiciones, pero tienen que ser eficientes. No estamos subvencionando a las operadoras más pequeñas con cargo a la grande, ni tampoco estamos castigando a las más pequeñas, sino que estamos haciendo cumplir la ley, la cual señala que se debe competir y ser eficiente.

-¿Y cómo se explica esta discusión de rechazo generalizado a las tarifas propuestas por la autoridad?

-En el proceso anterior sucedió lo mismo. Siempre sucede que la empresa propone algo, el IOC es menor y posteriormente en función de los peritos y lo que dice la compañía, se llega a una cifra de consenso. Cualquiera de los cambios que estamos haciendo, por la importancia que tiene Telefónica CTC, no hay duda que le van a convenir a algunos y a otros no, es imposible que con esto queden todos contentos. Lo que nosotros debemos hacer es algo técnico que se acerque a que la empresa dominante recupere sus inversiones. Que haya racionalidad en la lógica de Telefónica, de los consumidores y de las demás empresas que interactúan a través de una señal de tarifas correcta.

-Pese a ello, Telefónica CTC ha señalado que dejará de percibir US$ 88 millones sólo en los primeros ocho meses de aplicarse la nueva regulación.

-Reitero que la justificación de lo que hizo la Subtel está en el informe de objeción y contraproposición. Cualquiera puede opinar con todos los antecedentes, y si creen que hay una falla la pueden hacer ver.

-La baja de las acciones de CTC, ¿es una señal de lo que podría ocurrir en el mercado con esta fijación tarifaria?

-No, esto es una señal de mayor transparencia. En el año 99 lo que hizo el gobierno fue informarle a la empresa de sus tarifas, ahora es algo público. Por eso, si se mira la acción de la compañía se dará cuenta que desde que la empresa presentó su estudio tarifario donde propone alzas tarifarias, sus papeles subieron. Pero luego, inmediatamente después de haber visto la respuesta de la Subtel, bajaron. Ahora, no sé qué pasará cuando el Presidente firme el decreto.

-¿Por qué se optó por un tercer tramo horario?

-Este fue un aspecto que aceptamos de la propuesta de Telefónica. Los actuales tramos horarios no coinciden con los tiempos donde más se generan llamadas. Hoy el peak es de las llamadas entre las 21 y las 22 horas, por lo que no tiene sentido cobrar más caro en horario donde no se habla tanto.

-Ese mayor tráfico, ¿se puede explicar porque es más económico hablar?

-Por eso es que avanzamos para igualar los costos en los horarios.

-Este punto también es criticado, especialmente por los ISP y proveedores de internet, ya que se encarece internet.

-Ellos tienen razón. La tarificación tiene que ser en forma técnica y todos sabemos que en las horas de peak se tiene que cobrar más caro que cuando hay menos demanda. El sistema se dimensiona para la mayor demanda.

La lógica económica dice que necesariamente se tiene que cobrar más en las horas donde más se usa un recurso, y de hecho lo mismo ocurre en otras áreas.

-¿Y cuál será el efecto de esta medida?

-Como ya no será tan barato hablar en la noche, hay gente que llamará antes y otros que esperarán a que cambie el horario. Vamos a tener un emparejamiento de las curvas del tráfico. La compañía de teléfonos no tiene por qué estar dimensionándose y hacer todas las inversiones para que durante media hora se produzca un gran tráfico y el resto se usen menos sus redes. La compañía va a regalar esa inversión porque las tarifas están mal fijadas.

-¿Qué aspectos técnicos justifican el alza en los cargos de acceso, si los insumos bajan y la tasa de costo de capital disminuyó?

-No sólo cambió la tasa de costo de capital, sino que hicimos un modelo complejo basado en el de Telefónica. Por lo que los valores tuvieron que distribuirse de otra manera.

-¿Cómo se complementará el decreto con el reglamento que otorgó mayor flexibilidad a Telefónica?

-Nosotros acogimos la recomendación de la Comisión Resolutiva Antimonopolio, en el sentido de que autorizamos a que Telefónica CTC pueda hacer descuentos por volumen, pero sin discriminar entre usuarios. Esto si quiere lo hace o no. Pero con esta fijación lo que hicimos fue fijar los valores máximos y si la empresa quiere -y es lo que pedía para poder competir con otras empresas- puede bajar los valores. En esta fijación tarifaria no se consideró el tema de la flexibilidad tarifaria.

-¿Hay incentivos reales en esta fijación tarifaria para el desarrollo de internet, considerando que esa es una política del Gobierno?

-En esta fijación estamos poniendo un valor fijo por el mix, que son 30 líneas de internet y, en promedio, una línea es para cinco usuarios. Entonces estimamos que un mix sería para 150 usuarios y tendría un costo de $718.000. De este modo, los proveedores podrán comprarle a Telefónica CTC el mix y ofrecer tarifa plana para los abonados, lo cual debería incentivar su uso.

-¿El desarrollo de nuevas redes también se verá incentivado?

-En la medida que tarificamos las redes a través de un cargo de acceso apropiado, estamos incentivando que la compañía invierta en redes. Eso sí que nos falta un mecanismo de desagregación de redes, y es donde estamos trabajando.

-¿Cómo se justifica el mayor número de áreas tarifarias?

-La ley establece que se deben definir tantas áreas en base a homogeneidad de costo. A nuestro juicio, en el país hay situaciones distintas según los lugares, tamaño de las ciudades y por lo tanto, hicimos un esfuerzo de mayor diferenciación y por eso es que llegamos a siete áreas. De modo que no estén subvencionando los clientes de un área a los de otra.

Por eso también se establecieron cargos de acceso, tramo local y servicio local medido distintos por áreas. Es un esfuerzo por calcular estos valores para cada una de las áreas tarifarias definidas. Esto es más justo, porque así cada uno paga una tarifa por llamada que se parece más a los costos verdaderos que tiene la compañía. Además, es más justo para la compañía, la cual en las áreas que es más caro proveer el servicio telefónico recibirá más ingresos.

-En sus recientes declaraciones, en que señaló que es imposible que la autoridad haga las cosas bien desde el principio, ¿usted cree que dio pie a un cuestionamiento de las empresas hacia la autoridad?

-Este es un tema muy complejo. La empresa presenta una proposición que todos conocen y que a nuestro juicio eso tiene un montón de errores, por eso tenemos discrepancias con la compañía. Ahora viene la posibilidad de que Telefónica y los peritos entreguen sus insistencias, y si nos terminan de convencer vamos a aceptar esos cambios. Si no fuera así, la autoridad resolvería y ahí se acaba el proceso.

-¿Pero la empresa podría convencer a la autoridad en muchas cosas?

-Este es un proceso técnico y serán razones técnicas las que justifiquen algún cambio. No es que exista desde ya un número o algo resuelto, eso no.

Esto de señalar que "nos perjudican algunos puntos", no nos sirve. Lo que necesitamos es que nos digan en qué aspectos de nuestra contraproposición no están de acuerdo y por qué. No sé si los precios al final van a terminar más altos que los actuales, en los valores que los fijamos o en un intermedio. El proceso aún no ha terminado.

-¿Qué le diría a la industria que está criticando el informe del Gobierno?

-Que gasten un poco de tiempo leyendo el informe de objeción y contraproposiciones para que vean cómo está procediendo la autoridad. Que se informen.

-Pero las empresas afirman que tienen fundamentos.

-Cada una tiene su óptica y lo hará por las razones que sean, pero lo importante es que como autoridad tenemos que cumplir la ley y hacer un proceso técnico. Hemos tenido un gran trabajo de equipo entre la Subtel y Economía. El modelo que usamos se lo pasamos a Telefónica para que la empresa lo pruebe y si hay un error que nos lo diga.

-¿Cómo se proyecta al sector en cinco años más, es decir al término del decreto?

-La telefonía móvil debería seguir en crecimiento. La fija también va a tener los incentivos necesarios para seguir creciendo y llegar a los segmentos que hoy cuesta más que llegue, porque tiene menos ingresos. Al separar en más áreas tarifarias, la compañía estará en mejores condiciones de aumentar el número de líneas en aquellas zonas donde es más costoso. Deberían estar los incentivos para que haya algún crecimiento. Digo esto porque no se puede pensar en un crecimiento explosivo como hubo en las móviles. Internet es el segmento que debería expandirse más.

Autoridad desregularizará Wi-Fi

Al fin se estarían dando cuenta que no es posible regular cada nueva tecnología.....

El Mercurio.com

A fines de 2003 el subsecretario de Telecomunicaciones, Christian Nicolai, anunció la resolución que regula el uso de aparatos Wi-Fi de telecomunicaciones de corto alcance, es decir in-door, quedando pendiente las de radio exterior y de mayor alcance, es decir out- door. Con el fin de impulsar alternativas de conectividad, especialmente la rural, la Subsecretaría de Telecomunicaciones anunciará dentro de los próximos días la desregularización del servicio de conexiones inalámbricas Wi-Fi (Wireless Fidelity) de radio exterior.

La normativa existente hasta la fecha, de uso de Wi-Fi en interiores, permitía un esquema de uso limitado, de tal manera que si una empresa o usuario desea hacer algo dentro de un espacio limitado, ni siquiera tiene que ir a pedir permiso a la Subtel.

Para algunos expertos la nueva normativa busca una forma de despejar la banda de 2,4 de las otras aplicaciones, esto con el fin de asignar esa frecuencia al Wi-Fi. Así, se establecería un marco regulatorio muy abierto que permite a quien quiera utilizar esta tecnología y el modelo de negocio ideal para sus necesidades y desarrollo de la tecnología.

10/03/2004

Apocalipsis Now ?

Despidos, no más inversión....suena algo reiterativo: meses atrás las compañías de telefonía móvil dijeron lo mismo cuando se disminuyeron los cargos de acceso. ¿Es que no pueden entender que, por el bien de todos, las empresas no pueden ser ineficientes y esa ineficiencia ser sustentada en tarifas artificialmente altas?
El Mercurio.com

Las tarifas preliminares que el Gobierno propuso para Telefónica CTC Chile en el período 2004-2009 obligarán a la compañía a despedir al 36% de su personal, según consta en el propio modelo de empresa eficiente elaborado por la Subsecretaría de Telecomunicaciones.

La medida afectaría a más de 1.300 empleados, de los más de 3.500 que tiene la empresa, si no prospera la apelación que harán sus ejecutivos.

El modelo de empresa eficiente de la Subtel dice que en 2004 la compañía debe tener 2.285 trabajadores, mientras que CTC planteaba 4.754 personas.

Informe "nefasto"

Según Róbinson Navarro, presidente de Sintelfi, el principal sindicato de la compañía - agrupa a más de la mitad de los empleados- , el informe de la autoridad es "nefasto".

"Dicen que la empresa eficiente no requiere tanto personal, que estamos sobrepagados en 15% y que no debiera existir un bono de término de conflicto como el actual (bordea los $500 mil). La empresa ya quemó toda su grasa, no hay de dónde sacar más gente", asegura.

"Lo que va a pasar es que la empresa va a tener que concentrarse sólo en los sectores que le sean rentables, lo que dejaría sin servicio a los sectores de más bajos recursos", dijo.

Hoy ya existen comunas donde no hay disponibilidad de líneas, como La Serena, Huechuraba, Melipilla, Concón y Peñaflor. Otras cuatro deberían correr igual suerte durante este año: La Florida, San Bernardo, Santiago Norte y Puerto Montt.

Respecto del decreto vigente, el preliminarmente establecido por la autoridad tendría un impacto más que significativo sobre los ingresos de la empresa: serían inferiores en US$655 millones durante el quinquenio de vigencia del decreto.

Según la información enviada por la empresa a la SVS, en términos anuales los ingresos disminuirían en US$131 millones respecto de los actuales niveles.

En su propuesta, el Gobierno planteó rebajas de 19% en el valor del cargo fijo y de 27,1% en el precio promedio del minuto de llamada a red fija. En ambos casos, los valores ofrecidos por la autoridad son 39,1% y 66% inferiores a los que pretendía cobrar Telefónica en el próximo quinquenio.

08/03/2004

Propuesta de tarifas a CTC

La Subsecretaría de Telecomunicaciones a realizado su propuesta de tarifas para CTC (Telefonica). Esto se enmarca en el proceso cuatrianual de fijación tarifaria en el que debe participar CTC por su rol de dominante en telefonía local. Mientras CTC solicitaba aumentar las tarifas de Servicio Local Medido y cargos de acceso en porcentajes de 30% hasta más de 100% respecto a los valores actuales, la SUBTEL señala que debieran disminuir. El proceso continua con el llamado a peritos para que diriman, pero por lo visto las oposiciones de SUBTEL están bien fundamentadas y pueden ser vistas en la página web dedicada a los procesos tarifarios, en donde también se encuentran los analisis de las otras empresas reguladas. Un resumen se puede leer en " Gobierno propone baja en cargo fijo y SLM para usuarios de Telefónica CTC Chile":

La espera terminó, pero no de buena forma para la mayor operadora local, Telefónica CTC Chile. Ello porque el informe de objeciones y contraproposiciones del gobierno (IOC) sepulta las pretensiones de la compañía de elevar en 60% las tarifas a público y de triplicar los actuales valores de los cargos de interconexión a sus redes.
La autoridad determinó esta vez que las tarifas a público deberán caer en forma significativa, no solamente respecto de la propuesta hecha por Telefónica CTC en su pliego tarifario, sino respecto de los precios actuales.
Así, el valor del cargo fijo promedio se ubicó en $ 5.223, por debajo de los $ 8.574 que pedía CTC y de la tarifa actual que es de $ 6.467. El valor del servicio local medido (SLM), bajaría desde los actuales $12,5 el minuto promedio a $ 7,98, lejos de $ 22,2 solicitados por la operadora en su pliego tarifario.
En relación a las áreas tarifarias, el gobierno dividió al país en 9 zonas primarias, de las cuales Telefónica CTC es regulada en 7, puesto que en el resto la dominante es Telefónica del Sur y Telefónica de Coyhaique.
La única variable que se incrementó levemente, respecto de los valores vigentes, fue el cargo de acceso, el que se situó en $ 3,68.

Otros puntos

En su afán por impulsar el desarrollo de Internet, la autoridad propuso la creación de una tarifa plana para el uso de red para aquellos proveedores de acceso a Internet que lo requieran, lo que a juicio de Subtel “permitirá un mayor desarrollo de ofertas de tarifas planas para la conexión conmutada a Internet”. Asimismo, agregó que con la desagregación espera profundizar la oferta de arrendamiento de redes con precios “ajustados a costos medios”, esta vez con el objeto de incentivar la oferta de banda ancha sobre la red telefónica.
Sin duda la mayor novedad del informe es la introducción de la tarifa de prepago, la que se ubicará en $ 111,2 por minuto, que estará disponible para todos los consumidores, y no para casos excepcionales como actualmente está autorizada. La idea de la autoridad es lograr que la telefonía fija tenga un desarrollo comercial similar a las ofertas de prepago de la móvil. Esto debería tener un efecto comercial, ya que con ello los usuarios de prepago móvil tendrán la alternativa de migrar a la telefonía fija. “Con esta estructura los consumidores de telefonía local podrán optar a un servicio sin cargo fijo, pagando sólo una tarifa variable por el tiempo efectivamente hablado, por medio de tarjetas de prepago”, explicó Subtel en un comunicado.
Otro aspecto que destacó la autoridad en su propuesta es la determinación de tarifas a costo medio asignado en proporción al uso de cada servicio tarificado. Es decir, el valor del servicio de la línea telefónica se fijará para recuperar los componentes de costos fijos correspondiente a cada cliente, mientras que la tarifa del cargo de acceso y del servicio local medido se tarificarán en forma proporcionalmente directa al uso que se haga de la red.


Cae tasa costo capital a 8,17%

Entre las variables que más impactaron en la contrapropuesta hecha por el gobierno está la tasa costo capital, que tal como adelantó el propio presidente de la República, Ricardo Lagos, bajó respecto de la utilizada en el proceso tarifario anterior. En1999 la referida tasa se ubicó en 10,8%, y aunque la propuesta de CTC este valor superó los dos dígitos (13,74%), la autoridad contrapropuso una tasa costo capital de 8,17%, igual a la empleada para calcular las tarifas de EntelPhone y CMET.
La contienda a partir de ahora no será fácil, el tira y afloja de las tarifas se iniciará con la petición de CTC de crear una comisión pericial que dirima las materias en discordia, que a juzgar por la propuesta de la autoridad no son pocas, además las probabilidades de llevar el tema tarifario a tribunales cada vez se hacen más cercanas. Esto es sólo el comienzo de una batalla sin treguas que pretende concluir el próximo 4 de mayo con la publicación del decreto que regirá por los próximos cinco años.

17/02/2004

Monocultivos y virus informáticos

Existe un recurso muy utilizado por los detractores de Microsoft (entre los que me cuento yo) que hace una analogía entre el monocultivo y la predominancia de Windows. El concepto es que si todos los cultivos fueran de un solo tipo, por ejemplo maiz, llegará el momento en que una plaga matará todos esos cultivos. Si aplicamos esa idea a los sistemas Windows, llegará el momento (y ha pasado en más de una ocasión) en que un virus afecte a todos los computadores.

El predominio de Microsoft fomenta los virus

Dan Geer perdió su trabajo, pero ganó atención. La misma idea que consiguió que despidieran al experto en seguridad informática ha provocado un serio debate en la industria informática.

La idea es que Microsoft ha creado un monocultivo de software que amenaza la seguridad computacional global.

Geer (53) y otros creen que Windows, el sistema operativo de Microsoft es tan ubicuo, que un virus capaz de explotar una sola falla puede provocar un drama a nivel mundial.

Después de plantear en un informe en septiembre que este monocultivo amplifica las amenazas en línea, Geer fue despedido de la empresa de seguridad @stake (www.atstake.com), que tenía a Microsoft como un cliente importante.

La historia tuvo repercusiones. No importa adonde mire, siempre recaigo en el término 'monocultivo' o algo análogo, señaló en su casa de Cambridge.

En biología, las especies que tienen poca variación genética (monocultivos) son las más vulnerables a las epidemias. Las especies que comparten una misma falla pueden ser borradas por un virus que se aproveche de ella. Por el contrario, la diversidad aumenta las probabilidades de que al menos algunas de las especies sobrevivan al ataque.

Microsoft opina que esta comparación entre computadores y organismos vivos no funciona bien. La teoría del monocultivo no sugiere soluciones razonables, dice Scott Charney, responsable de la estrategia de seguridad en Microsoft: si se usa más Linux, se crearía un cultivo dual y no se avanzaría mucho.

La verdadera diversidad requeriría miles de sistemas operativos diferentes, lo que haría que integrar los sistemas computacionales y las redes sería virtualmente imposible, según Charney. Sin un monocultivo de Microsoft, la mayoría del avance reciente en tecnología de la información no se habría producido.

En Internet

El informe CiberInseguridad: El costo del monopolio, de Dan Geer (entre otros):

www.ccianet.org/papers/cyberinsecurity.pdf

05/02/2004

Fijación cargos de acceso a celulares

esta es una buen reportaje a los entretelones post-fijación de cargos de acceso a celulares. Espero que el ministro Etcheberry siga con su agenda y que no sea presionado para modificarla. Llamado al orden [30/01/2004]
Javier Etcheberry firmó el decreto que fijó los nuevos precios de la telefonía móvil. Y junto con eso, llamó a los máximos ejecutivos del sector para solicitarles una actitud más discreta frente a la prensa. Mal que mal, el escenario final fue el menos malo de todos para las empresas.

La reunión duró poco más de media hora. El gerente general de Telefónica Móvil, Oliver Flögel; el de Smartcom, Jaime Gross; el de Bellsouth, Domingo Cruzat, y por Entel PCS el encargado de regulación, Manuel Araya -en representación de Guglielmo Noya- escucharon en silencio la exposición del subsecretario de Telecomunicaciones, Cristián Nicolai. El personero les explicó cómo la Subtel había llegado a establecer cuánto bajarían los costos de acceso y les recalcó que el proceso había sido hecho "de la mejor forma".

Serio, el ministro Javier Etcheberry escuchaba. Pero tras las palabras de Nicolai, se dirigió a sus invitados. Dijo que todos quienes estaban en esa sala sabían que la rebaja del precio no era "demasiada" para las compañías y que, por lo mismo, les solicitaba el fin de los mensajes por la prensa denunciando presiones políticas.

Además, recalcó a los ejecutivos que la reunión se realizaba sólo como una muestra de "deferencia" hacia ellos, porque en rigor no tenía la obligación de realizarla. Y punto.

Los cuatro ejecutivos salieron del gabinete y, obvio, no hicieron declaraciones a los periodistas, actitud que se ha mantenido durante estos días. Al menos, en términos oficiales.

Porque en reserva, algunos reconocen que no les gustó la convocatoria de Etcheberry. "Si de verdad quería tener una deferencia, debería habernos llamado antes de que las tarifas fueran públicas y no después de que aparecieran en los diarios", señala uno de ellos.

Pero igual -al menos por ahora- nadie quiere aparecer con nombre criticando al proceso ni al ministro. Todos saben que cuando Etcheberry "pide" algo, es mejor cumplir. No es miedo, es "respeto", dicen personeros del sector.

Ministro "lejano"
Porque aunque le critican a Etcheberry su "lejanía" con las empresas del área, lo que a su juicio se expresa en que se prácticamente no se reunió con ellos ni acusó recibo de ninguna de las cartas que le mandaron expertos en telecomunicaciones externos con observaciones -como Óscar Cabello, ex asesor de la Subsecretaría en la fijación anterior-, el ministro tiene el sartén por el mango en Telecomunicaciones.

Y, en este escenario, con una rebaja de 26,5% -de $ 105 por minuto a $ 73 por minuto- en los cargos de acceso (que es el precio que pagan las empresas de telefonía fija a las de móvil por cursar llamadas desde las primeras a celulares) por los próximos cinco años, las cuatro móviles consideran mejor callar.

"Eso no significa que estemos de brazos cruzados", dicen, agregando que la posibilidad de presentar demandas judiciales por tarifas que los perjudican no se ha cerrado, pese a que el mismo Etcheberry dijo a los medios que "no le veo destino" a cualquiera de estos recursos. Así, al parecer, la idea cada día es más improbable.

En el fondo, Etcheberry tiene razón: los $ 73 que van a recibir ahora las firmas de telefonía móvil por cada minuto hablado hacia sus aparatos, constituye uno de los mejores escenarios para los actores del mercado. Todos sabían que los precios iban a caer dado que la situación competitiva en los últimos años ha variado: el número de aparatos celulares subió entre 1999 y el 2003 de 2,3 a 7,2 millones y la competencia es cada día más fuerte, con siete millones de clientes. Los precios tenían que reflejar el fuerte crecimiento del sector.

Modelos reales
Los académicos que han realizado trabajos para las móviles no se sorprenden. "Las compañías están silenciosas porque saben que, según modelos reales, el cargo de acceso debería rondar los $ 50", agrega un especialista.

A esta cifra aproximada también llegó un estudio que mandó a hacer por su cuenta Chilesat -que no ofrece telefónía celular-.

Los expertos universitarios critican el modelo que usó la Subtel para definir los $ 73. Cuentan que es tan engorroso y poco eficiente que en un computador normal, cargarlo toma más de ¡ocho horas!; mientras que cualquier otro modelo no demora más de una en desplegarse en la pantalla.

Claro que en el gabinete de Etcheberry están seguros de que la Subtel no trabajó sola. "El ministro estuvo muy involucrado en el tema técnico, si al final él es quien firma el decreto", aseveran.

Para las cuatro empresas que compiten en telefonía celular, obviamente lo ideal habría sido una rebaja menor. Se sabe que el 40% de lo que éstas ganan al año proviene del concepto de cargos de acceso, por lo cual sus bolsillos se verán al final mermados. Algunos ejecutivos opinan que a la larga esto les obligará a subir precios de los planes para compensar.

Asunto de tamaño
Por cierto, en el mercado ahora más que antes rondan los comentarios sobre los mayores damnificados de la nueva fijación de tarifas: Smart-com y Bellsouth. Mientras Telefónica Móvil tiene el 39,6% de los abonados y Entel posee el 36,9%, Bellsouth cuenta con el 18% y Smartcom sólo con el 15,6%.

Claro que el tamaño de la empresa no necesariamente implica su salud financiera. Pero, en este caso, los analistas que cubren el sector de Telecomunicaciones afirman que la duda aumenta las especulaciones, ya que ninguna de las dos firmas cuestionadas entrega al mercado números sobre sus ganancias.

Eso, porque ambas consolidan su información financiera con la de sus matrices en los respectivos países de origen: EE.UU. en el caso de Bellsouth, y España en Smartcom. Así, lo único pueden conseguir los analistas locales es la cifra de abonados. Lo demás no está disponible.

Y aunque se diga que Bellsouth vendería parte de su operación en Chile -el único mercado en la región en que mantiene el 100% de su filial, sin socios-, o que Smartcom está en venta y que la mexicana Telmex sería la principal interesada, fuentes de ambas empresas niegan que la cosa esté tan mal como para que tengan que apagar el celular y partir.

En Smartcom, incluso, señalan que tienen recursos -generados por ellos mismos- como para que la matriz Endesa España no tenga que realizar aportes de capital durante el 2004.

De todas maneras, sienten el golpe del nuevo escenario. "Lo que pasa es que el modelo de la Subtel parte de la premisa de que la empresa eficiente tiene el 25% de participación. Con esa base le han agregado los demás factores como gastos e inversiones. Pero nosotros no tenemos esa cuota de mercado, por lo cual sí nos pega la rebaja", clarifican altas fuentes de las empresas.

Lo que está claro es que de las cuatro, las más felices son las grandes, que como tienen espaldas más amplias pueden absorber de mejor forma una rebaja de ingresos. Esto lo reconocen fuentes de las mismas compañías Entel y Telefónica.

La Asociación
Pese a estas diferencias en la versión oficial de las empresas, el lugar en que las cuatro tienen el mismo peso es la mesa de Atelmo.

Eso es porque en la Asociación de Telefonía Móvil, presidida por Guillermo Pickering, los acuerdos se toman por mayoría absoluta, incluso aunque quien se oponga sea uno de los más pequeños.

Guillermo Pickering fue un interlocutor activo en los años que tomó el proceso de tarificación. Al gremio llegó en 2000, tras salir de la subsecretaría del Interior del gobierno de Eduardo Frei, de quien es amigo personal.

Y se tomó a pecho su labor: tanto que hoy la entidad funciona en la oficina profesional del abogado DC, en el barrio El Golf. Pickering además lidera la Asociación Nacional de Empresas Sanitarias (Andess).

Según fuentes cercanas al ejecutivo, éste se encuentra satisfecho por el resultado del proceso tarifario y recalcan que cuenta con el total apoyo de quienes lo contrataron.

Eso, a pesar de versiones sobre un debilitamiento de la figura gremial tras las tarifas finales, porque en el mercado las empresas pensaban que incluso podían conseguir una rebaja menor.

Sin embargo, oficialmente las empresas niegan que tengan reparos a la gestión de Pickering. "Y si los hubiera, no los ventilaríamos a través de la prensa", asevera uno de los gerentes que integran Atelmo.

En todo caso, estos temas deben preocupar poco al ministro Etcheberry. De hecho, él no invitó a Pickering a ninguna de las reuniones que tuvo durante el proceso con los ejecutivos de la telefonía. Uno de sus asesores es claro: "Lo que a Etcheberry en realidad le importa es que las cosas se hagan y se hagan bien. Sin excusas".

VoIP needs a reality check

I agree in general terms with this article by Fred Goldstein. The only disagreement is about ATM: I don't understand what is the reason to incorporate ATM, as ATM hasn't been used as pure voice protocol. In my opinion, voice is generally transmitted using TDM or IP, but ATM never was succesful transpporting voiceVoIP needs a reality check

Conventional wisdom has it that the telephone network will evolve away from old-fashioned circuit switching and be replaced by voice over IP.

Investors have ponied up to the bar to fund VoIP companies; most major telecom manufacturers have largely abandoned development of new circuit-switching and time division multiplexing (TDM) products. But before we nail the coffin shut on the legacy of the digital telephone technology that was so widely hailed two decades ago, let's examine the strengths and weaknesses of VoIP.

In looking at VoIP as a technology, it's important to distinguish between the cost of building or running a network and the price a service provider charges. VoIP benefits from the Internet's pricing model. There is rarely a charge for usage or for distance. The incremental price of a call thus seems to be free. That's not quite true, of course; additional loading can lead to degraded performance, or require a fatter, costlier access pipe.

Telephone companies, on the other hand, are masters at charging for calls, often with widely varying rates depending on who calls whom, when, where and how. That annoys customers, but at least it's profitable. Services like Vonage bypass this, provided that their subscribers have already paid for broadband access. Regulators should recognize that the 1930s-era long-distance payment system is thus obsolete, but not by arbitrarily favoring one technology over another.

VoIP is actually far more complicated than TDM, and thus more costly to implement. With VoIP, every packet needs header processing and buffering. The protocol stack is several layers deep. With TDM switches, on the other hand, the switching fabric is trivially simple. Bits are simply clocked on and off a time-division bus, or switched by clocking them through a memorylike crosspoint chip. Zarlink Semiconductor, for instance, makes a TDM switch chip for less than $100 that can connect 32,768 calls in to any of 32,768 outputs. Of course hardware and chip manufacturers would rather sell a VoIP solution--it's worth more to them.

Sometimes, though, VoIP can be cheaper to implement than TDM. One reason is the cost of legacy TDM network interfaces. TDM components are often made in lower volumes, or may also need extra hardware. But even then, high-capacity TDM switch ports aren't all that expensive, given their capacity. Amortized on a per-minute basis, TDM switching cost is a small fraction of a penny.

TDM's lack of packet headers also makes it more bandwidth efficient than VoIP. Sometimes VoIP is compressed to make up for that, but compression reduces voice quality. If IP bandwidth supposedly is too cheap to meter, then why compress voice from its native 64 kbps down to about 9 kbps? The best-sounding VoIP systems use uncompressed voice, but need about 100 kbps per call, taking into account both header overhead and IP's buffering requirements.

Another purported advantage of VoIP is the ability to have one network carry both voice and data. It's clear that having a single network below the IP layer makes sense. But packet switching was invented precisely because data has very different traffic requirements (bursty, loss-tolerant) from voice (steady, loss-intolerant)

IP data is most efficient on a network that is not good enough for voice. TCP's (Transmission Control Protocol is one of the main protocols in TCP/IP networks) flow control is dependent on packet loss--networks will discard packets, they're supposed to, but that does impair voice. Economy of specialization often trumps economy of scale. ATM (asynchronous transfer mode) and MPLS (multiprotocol layer switching) are both ways to address this issue above the TDM layer, but below IP.

But those details aside, VoIP developers have made real contributions to telephone network technology. Modern "softswitch" architecture, for instance, was largely developed for VoIP. Softswitch software is capable of routing phone calls and other voice features typically handled by massive and expensive hardware.

Network control protocols such as SIP (serial interface protocol), MGCP (media gateway control protocol) and Megaco (H.248) are real innovations, providing network operators with real flexibility, much more than earlier Signaling System 7 networks provided. And the best part is that modern switches don't all depend on having the voice encapsulated inside IP. Megaco can be used with VoIP, ATM or even TDM networks, on a flexible mix-and-match basis.

It's not fair to compare VoIP implementations with the predominant TDM systems found in telephone networks. The Lucent 5ESS and Nortel DMS switches used by the regional Bell companies are basically legacies of the VAX-11 era, decades-old technology that survives because of its huge base of embedded software. Modern switches, built with up-to-date hardware technology and softswitch internal architecture, can often support both TDM and VoIP, and sometimes ATM as well, at a fraction of the size and price of these legacy behemoths. But their lower cost is not a result of using VoIP; rather, it's the difference between a design from 1980 versus one based on today's components. Does anyone remember what a 1980-era packet switch looked like?

There are still good VoIP applications, both in the enterprise and in carrier networks. But don't write off TDM or ATM yet; they're looking better than ever, and are still the better choice for many applications.

03/02/2004

Inversión no repunta

Un país no puede crecer si no se invierte, por eso es preocupante que los niveles de inversión se mantengan bajos. Los oportunistas de siempre culpan los bajos niveles a las regulaciones que se están discutiendo en el Congreso, aunque no fundamentan sus opiniones.
El repunte de la economía chilena todavía no incluye la inversión

Puede que Chile se esté reactivando, pero eso aún no se nota en la inversión. De ahí que el presidente del Banco Central, Vittorio Corbo, caracterice este elemento clave de la economía como "la pata débil". Y si bien todos los expertos están de acuerdo con el diagnóstico, no hay consenso respecto de cuándo se recuperará.

Mientras algunos aseguran que están dadas las condiciones para que suba - las tasas de interés están bajas, hay mayor consumo y el desempleo es menor- otros señalan que la discusión legislativa en sectores como telecomunicaciones, energía y minería juegan en contra.

El crecimiento de la inversión resulta vital pues no sólo permite generar mayor actividad y empleo, sino que revela la presencia de positivas expectativas empresariales.

La tasa de inversión de 2003 fue equivalente al 22,6% del Producto Interno Bruto (PIB), la segunda más baja de los últimos 10 años, según la Cámara de Comercio de Santiago (CCS).

Su rezago quedó en evidencia al observar el cierre de la balanza comercial del año pasado. Las importaciones de bienes de capital - asociadas a la compra de maquinarias y equipos productivos- crecieron sólo 5,4%, la cuarta parte de lo que crecieron las exportaciones de bienes de consumo en el mismo año (19%).

Ambas variables habían evolucionado históricamente más o menos en la misma dirección, pero en 2003 se abrió una brecha que dejó en evidencia el relativo estancamiento de la inversión, explica el informe de la CCS.

Entre las principales razones que ilustran su lenta recuperación se encuentra la caída en la rentabilidad esperada de los nuevos proyectos de inversión. Lo anterior, porque en la medida que éstos arrojan retornos inferiores a la tasa de costo de capital, las decisiones de inversión tienden a retrasarse a la espera de un mejor momento económico.

Pero también su débil expansión se relaciona directamente con el escuálido crecimiento que ha mostrado el sector inmobiliario, que representa cerca del 20% de la formación de capital fijo. Este rubro, pese a que las tasas de interés están en bajísimos niveles, no ha logrado recuperar niveles de antaño.

Otro de los factores que más paralizan la inversión, según los expertos, es la discusión legislativa. Según el gremio del comercio, esos ruidos amenazan los flujos de ingresos de las empresas y de las personas.

Esta opinión la comparte el investigador del Instituto Libertad y Desarrollo, Tomás Flores, quien precisa: "En sectores como telecomunicaciones, energía y en menor grado el rubro minero, sus decisiones de inversión están detenidas a la espera de que se resuelva la discusión legislativa".

Es por eso que para este año considera que la expansión de la demanda interna se ubicará en 6,5% y no en 7,1%, como lo prevé el Banco Central.

Según el Informe de Política Monetaria (IPOM), hay distintos antecedentes que llevan a estimar que el comportamiento anómalo en las importaciones de capital se corregirá en los próximos trimestres.

La esperanza

A juicio del Central, la inversión deberá responder a la baja del costo de capital, derivada de las menores tasas de interés y de la apreciación del peso respecto del dólar. A lo que agrega que las mejores expectativas de crecimiento para Estados Unidos y para el precio del cobre proveen el soporte para un escenario más favorable para la inversión en maquinaria.

Un análisis similar es el que realiza el economista de Santander Investment, Cristian Gardeweg. "Todo indica que deberíamos empezar a ver una recuperación de la inversión. Se ven mayores exportaciones, consumo privado y mayor actividad económica", sostiene.

Alejandro Alarcón, economista y gerente de la Asociación de Bancos, agrega que otro impulso que tendrá la inversión este año serán las bajas tasas de interés, en 1,75% nominal anual.

Tipos

Las cuentas nacionales identifican tres áreas principales para la inversión.

La primera gran categoría es la inversión fija de la empresa, que mide lo que gastan las empresas en la planta (fábrica o una oficina comercial) y equipos (maquinarias y vehículos).

El segundo gran componente del gasto de capital es la inversión en existencias.

Las existencias son los inventarios de materias primas, productos semiterminados y terminados que no se han vendido. Un incremento de ella constituye una inversión positiva, en cambio, una reducción es una inversión negativa.

La tercera gran categoría es la inversión en estructuras residenciales, que incluye lo que se gasta tanto para mantener las viviendas existentes como producir viviendas nuevas.

29/01/2004

Choked by a data deluge

Choked by a data deluge

Even Richard Winter was surprised by the results of his latest survey of the world's largest databases. While the Massachusetts-based consultant knows better than anyone that companies are accumulating data at a rapid rate, he found hoarding on a massive scale.

For the record, France Telecom was top of the heap with 29.2 terabytes - equivalent, to use a familiar standard, to the printed collection of the Library of Congress six times over.
......
Here there is some room for doubt. At sixth place on the Winter Corporation list, for example, comes Kmart, the retailer that last year filed for Chapter 11 protection from its creditors.

A whopping 12.6 terabytes of data - covering stocks, sales, customers and suppliers - was not enough to save Kmart from bankruptcy. Data have little value on their own; they are useful only when they have context and relevance - when they are turned into information.
....
"It is easy to start a business, to get access to customers and markets, to develop a strategy, to put up a website, to design ads and commercials. What's in short supply is human attention. Telecommunications bandwidth is not a problem but human bandwidth is."

....
All this leaves marketers with a dilemma. They have made substantial investments in database and related technologies designed to facilitate direct, personalised communication. Yet an increasingly small proportion of these messages is being heard.

The solutions offered by marketing gurus come in two varieties.

The "viral marketing" wing of the industry argues that companies can get their message across by securing the attention of trendsetters and opinion leaders whose voices are always heard: do not build relationships, build a buzz.

Others say company/ customer relationships need to be taken to the next level.

C.K. Prahalad and Venkat Ramaswamy argue in The Future of Competition, published next month, that customers need to be co-opted so they take a direct role in creating a product. Only then can a company be sure of getting their attention.

28/01/2004

The revolution in our pockets

Financial Times usually carries good articles.
The revolution in our pockets

When Motorola launched the first cellular telephone in 1983, the brick-like DynaTac 8000x was packed with 1,000 components and weighed more than 1lb. As well as giving a whole new meaning to "ear-bending", it was a feat of electrical engineering that few companies could have achieved.

Today, the main functions of a mobile phone have been reduced to a single sliver of silicon that can be bought off the shelf from semiconductor companies such as Texas Instruments and Intel.

....
This kind of miniaturisation has big consequences. It makes possible the fancy multi-functional devices that now crowd the shelves of electronics stores. Phones that take pictures, cameras that play music, music players that keep track of your appointments - these collisions of form and function are a direct consequence.

It is not just that small circuits and fewer components take up less room. They also tend to draw less power - which means longer battery life - and as a rule are more resistant to the rough-and-tumble of life inside a briefcase or handbag.

....
In other words, market power is shifting. Just as Compaq in the late 1980s undercut established PC makers by finding more efficient ways to assemble industry-standard components, so a new breed of low-cost producers is threatening to do the same in consumer electronics.

Take Apex Digital, the biggest seller of DVD players in the US market. The Canadian company has annual revenues of $1bn but employs only 101 people worldwide and spends little on research, development or advertising. Instead, it sources off-the-shelf components and uses Chinese contract manufacturers to put them together. Selling through mass-market retailers such as Wal-Mart, Apex is able to sell DVD players to consumers for $50 or less.

This gloriously bargain-basement business model is possible only because building a DVD player is no longer an exercise in custom engineering. As with mobile phone handsets, miniaturisation means fewer components and easier assembly.

....

Sony's PEG-UX50 personal organiser is a poster child for miniaturisation - and an illustration of its potentially unnerving consequences for the giants of consumer electronics.

This sleek, silver, hand-held device comprises a high-resolution colour screen that swivels and tilts, a keyboard, a digital camera that shoots still photographs or video clips, a voice memo recorder, a digital music player, Bluetooth wireless communications and high-speed internet browsing using 802.11b wi-fi networking.

All this in a package that is little bigger than a pack of playing cards and weighs less than 200g.

....

The $50 DVD player is already with us. Can the $5 cell phone be far behind?

23/01/2004

Nada nuevo bajo el sol

Los cargos de acceso para telefonía celular disminuirán como resultado del decreto tarifario actualmente en Contraloría. Si consideramos que cerca del 40% de los ingresos de las compañías de telefonía celular son generados por cargos de acceso, podemos entender que estén poniendo el grito en el cielo.

Llama la atención que no conozcan la elasticidad precio-demanda de su producto, la que puede permitirles recuperar gran parte de lo perdido con esta baja en los cargos de acceso. Además, las inversiones que están realizando en este momento son mínimas, por lo cual no tiene sentido seguir aplicando los mismos precios que se fijaron cuando las inversiones eran de egran magnitud.

Móviles se arman por caída de tarifas
Mientras Smartcom estudia iniciar acciones legales para revertir el decreto, Telefónica Móvil no prevé alza en planes, por ahora.

Tres de los cuatro operadores el mercado, Smartcom PCS, Telefónica Móvil y Entel PCS - sólo faltó Bellsouth- , manifestaron su disconformidad con las tarifas de cargos de acceso establecidas en el decreto tarifario, que dio a conocer la Subsecretaría de Telecomunicaciones (Subtel), válido hasta 2008.

Si bien los ejecutivos de Smartcom desistieron referirse oficialmente al tema, fuentes de la compañía aseguraron que el decreto los deja en mal pie. ' 'Nos pega, y nos pega fuerte", afirman, y creen que "la autoridad estaba predispuesta a bajar los costos de acceso".

El gerente general de Entel PCS, Guglielmo Noya, aseguró que la resolución de la Subsecretaría de Telecomunicaciones,"afecta de manera directa el normal desarrollo de la industria".

En efecto, el decreto determinó que el cargo de acceso promedio por minuto de una llamada desde un teléfono fijo a uno celular costará $77,26, esto implica una rebaja de 26,5% respecto del valor actual, $105,10 promedio el minuto.

Una vez que entren en vigencia los nuevos cargos - 12 de febrero de 2004- , estos precios se indexarán a enero de este año, por lo que la tarifa llegará a $73,57 en el primer año, y bajará 0,5% hasta el año cinco.

Estos cargos son los costos de interconexión que paga una compañía a otra por usar su red. Representan cerca del 95% del total del valor de una llamada, y un 40% de los ingresos que reciben las empresas.

En lo inmediato, las empresas tienen tres opciones para reclamar por las tarifas del decreto tarifario. Los operadores pueden apelar ante la Contraloría antes que ésta tome razón del decreto. Este reclamo sólo puede ser por elementos de forma y no de fondo.

Otra instancia es recurrir a los tribunales de justicia, pero dado lo engorroso y dilatado que puede ser un proceso como éste, es poco probable que las empresas se inclinen por esta opción.

Quizás la alternativa que más pondría en jaque al Gobierno, sería si las compañías acuden a tribunales internacionales, como el CIADI (Centro Internacional de Arreglo de Diferencias relativas a Inversiones), con lo que ya amenazaron concurrir en su determinado momento.

En Smartcon aseguran que la empresa está evaluando iniciar acciones legales para revertir la rebaja, aunque no existe claridad sobre cuál será la opción que se elegiría.

En cambio, el gerente general de Telefónica Móvil, Oliver Flogel, aseguró que de momento no recurrirá a acciones legales, pero afirmó que "con la tasa de costo de capital actual el grupo no evalúa hacer nuevas inversiones en Chile".

Respecto a una eventual alza de tarifas, Flogel fue directo y dijo que el efecto del tipo de cambio actual los favorece en la importación de equipos. "A corto plazo no subiremos las tarifas", acotó.

21/01/2004

Not the future we expected

I must confess that I have always been skeptic about the benefits of IT. I don't mean that IT isn't relevant, I mean that it has been overhyped and likened to the philosophal stone. This commentary by John Kay really interprets me

Not the future we expected
By John Kay
It is a truth almost universally acknowledged that we are living through a period of technological change whose speed and impact are without precedent. The effect is on our desks and in our pockets. We carry devices whose processing capability would a generation ago have required a roomful of computers and, a generation earlier, would have demanded an army of clerks. Our personal lives are transformed by mobile phones and internet access, our business activities galvanised by instantaneous data transmission and computerised inventory management.

Yet there are dissenters. A recent article by Alexander Field, an economic historian, concludes that the most rapid innovation in American history occurred not in the booming 1990s, or even in the roaring twenties, but in the period between the Wall Street crash of 1929 and the attack on Pearl Harbor in 1941 - the period we still call the Great Depression.

Could Professor Field be right? I began to doubt the conventional wisdom when I discovered a Hudson Institute report from the mid-1960s that predicted technological changes from then till 2000. Its prognostications about information technology were impressively accurate - it foresaw mobile phones, fax machines and large-scale data processing.

But in other areas the Hudson Institute was wide of the mark. Where are the personal flying platforms, the space colonies, the artificial moons to light our cities, the drugs that make weight reduction a painless process? Progress in IT has fully matched the expectations of three or four decades ago. But advance in other areas has, by historic standards, been disappointing.

In the first half of the 20th century, the car revolutionised transport. Civil airliners shrank the world. But we still drive cars, not personal flying platforms, and our vehicles are still powered by internal combustion engines. The 747 that was delivered to Pan American in 1969 would have been beyond the imagination of an aviator from 1934; but 747s are still in production 35 years later.

In the postwar decades new drugs virtually eliminated infectious disease as a cause of death among otherwise healthy adults in developed countries. Futurologists predicted that new discoveries would postpone heart disease and conquer cancer. Instead we have Prozac and Viagra, pills that control stress and capsules to reduce stomach acidity. These are significant and profitable innovations but without the dramatic effect on productivity or longevity of earlier discoveries.

Similar advances revolutionised industrial materials. Schoolboy aircraft modellers learnt how plastics could be applied to all forms of construction. In the 1960s you could make shirts of nylon and slacks of polyester, although they were not nice or elegant to wear. And that is, pretty much, where things remain today: our clothing is still largely derived from the sheep and the cotton plant.

Economists such as Prof Field measure technical change by looking at changes in total factor productivity - the part of output growth that is unaccounted for after you have measured the effect of changing labour inputs, increased skills and growing capital employed. By this measure the final decades of the 20th century were unremarkable. Even the productivity acceleration that some observers have seen in the US in the past five years is no more than a return to growth rates that were once commonplace. Those who believe the pace of change today is without precedent are either ignorant of history or fixated on IT.

Business gurus, management consultants and journalists have a shared interest in exaggerating the pace of change. The excitement they generate makes their ideas sound more important, their services more urgently required. These commentators tell us that lessons from the past are irrelevant because the future will be so radically different. Old concepts of valuation and financial control are redundant and the determinants of business success have fundamentally changed. We should be wise to take all these claims with a large pinch of salt.

20/01/2004

Even as a commodity, IT still matters??

John Seely Brown and John Hagel wrote a comment on Financial Times trying to show that, contrary to the view of Nicholas Carr that "as IT is commoditising it doesn't matter", IT really matter.

Although we can agree with Hagel and Brown that there are trends that make use of IT's commoditisation and can provide a level of competitive advantage to some companies, their reasoning doesn't give a clear explanation about how the two trends they see can benefit the users of IT.
Even as a commodity, IT still matters:
"In fact, we believe that a surprising marriage between two different technology trends, both of which rely on IT 'commoditisation', will give successful businesses an edge over their competitors.

The first is grid computing - the process of tying together large numbers of stand-alone machines into a single pool of computing resources.
....
The second force leading to IT commoditisation involves the software on which companies run many of their business processes, or applications.
...
The commoditisation brought about by grid computing and the new software architectures will make it much easier to connect the IT resources of different enterprises. The scope for business innovation will no longer be constrained by the boundaries of the enterprise. Instead, companies will find that they can serve their customers better by orchestrating the activities of other companies in growing networks.
....
IT resources alone will not bestow strategic advantage - they never have. Strategic advantage will not even come from the growing ability to reconfigure these resources. As has always been the case, it will come from companies' ability to innovate around new products and processes - an ability that IT commoditisation can only deepen."

I wrote a letter to the Financial Times editor and it was published, which can be read here

07/01/2004

China's high-tech success story is pure fiction?

Financial Times (subsc. needed)

Is China the next technology capital of the world? One might think so, given the hype that has accompanied China's recent emergence as a big producer of consumer electronics.

Thanks to its combination of manufacturing muscle and prestige projects, China seems close to becoming a combination of the best of Japan and the US - a super-efficient, low-cost manufacturing power and a global leader in cutting-edge technology.

Or is it? Scratch the surface and China's technological prowess looks a lot less daunting. Today China is mainly a low-cost manufacturing base for foreign companies.

First, China's high-tech manufacturing is neither very high-tech nor very Chinese. In 2002, $68bn, or just over 20 per cent, of China's exports were classified as "high-tech".

Research by Daniel Rosen of the Institute for International Economics shows that most of these exports are components or low-margin commodity consumer electronics, such as laser printers and DVD players. More important, nearly 85 per cent of China's high-tech exports are produced by enterprises backed by foreign money. And 61 per cent of high-tech exports come from wholly foreign-owned enterprises, which means there is no transfer of technology to a domestic partner.

China has been reforming its economy for 25 years. At a similar point in its development, 25 years after the end of the second world war, Japan had dozens of companies poised to take dominant global positions across a range of high-tech industries.

China today has no such companies. It has many promising small to medium-sized enterprises, whose main competitive edge is China's unique combination of third-world labour costs and first-world infrastructure. Because of China's vast labour pool, this edge will last for a long time

05/01/2004

En Latinoamérica reina la desigualdad

Este es el tercer artículo respecto a la distribución del ingreso que copio textualmente. Editaré y comentaré en cuanto tenga la oportuinidad
En Latinoamérica reina la desigualdad
Aunque la desigualdad social es hace bastantes años la bandera de lucha de muchos políticos latinoamericanos, el tema parece que pasa a segundo plano una vez que logran el sillón presidencial de sus respectivos países. O lo dejan de lado o las políticas utilizadas para combatirlo son ineficaces, porque la brecha entre ricos y pobres se aceleró en la región en los últimos diez años.

Y hoy por hoy, Latinoamérica es la zona con mayor desigualdad en el mundo. "Es altamente desigual en cuanto a ingresos y también en el acceso a servicios como educación, salud, agua y electricidad. Persisten además enormes disparidades en términos de participación, bienes y oportunidades", dijo David de Ferranti, vicepresidente para América Latina y el Caribe del Banco Mundial, quien junto a un equipo de su entidad elaboró el informe "Inequidad en América Latina y el Caribe: ¿quebrando la historia?".

La mala distribución del ingreso y el consumo se mide según el índice Gini, según el cual el 0 equivale a una sociedad donde reina la igualdad y el 100 supone que una sola persona acapara toda la riqueza.

Al igual que muchos de sus vecinos, Chile no pasó la prueba. El país registraba un indicador de 55,9 puntos en 1990 y diez años después esa cifra subió a 57,1 puntos, lo que lo dejó en el lugar 16 en la región.

El índice Gini subió 1,4 puntos porcentuales en Chile en ese período. Ello supera los aumentos de varios países de la zona, como El Salvador (1,3) Costa Rica (0,9) y Jamaica (0,3). Hubo naciones donde se acortó la brecha en más de un punto como México (1,3) y Brasil (2,2).

Mejor posicionados

Pero si se toma en cuenta sólo la distribución de los ingresos entre el 20% más rico y el 20% más pobre de cada población de la región, Chile mejora su situación en relación a sus vecinos.

Nuestro país se ubica noveno en la tabla. El 20% de los chilenos más acaudalados recibe 18 veces más ingresos que el 20% más pobre, diferencia bastante menor a la registrada en naciones como México, Ecuador, El Salvador y Brasil (ver infografía).

Aun así, Chile aumentó en 1,3 puntos porcentuales la brecha entre el quintil más rico y el más pobre en la última década y tiene peor distribución que naciones que sufrieron graves crisis en los últimos años, como Venezuela y Argentina.

Radiografía

Pero ello no indica necesariamente que estemos en una peor situación social o económica que muchos de nuestros vecinos. Los analistas explicaron que hay que tomar en cuenta que la desigualdad no es sinónimo de mayor desarrollo.

Para hacer una radiografía más completa del panorama social de cada país los expertos recomendaron revisar una serie de indicadores, como el ingreso per cápita, el nivel de capacitación de la población o el presupuesto público que se destina a salud, educación, seguridad social y otros requerimientos básicos.

Incluso hay ciertos índices que toman en cuenta éstas y otras variables - como los de Competitividad o el de Desarrollo Humano- que arrojan un espectro social más completo. En todo caso, los analistas precisaron que el tema de la desigualdad no deja de ser importante y debe ser combatido, pues llega a ser un factor de inestabilidad política y económica en muchas naciones de Latinoamérica.

"En una economía global, donde el capital humano es un aspecto crucial para la competitividad, las desigualdades que implican, entre otras cosas, no desarrollar la capacidad y el conocimiento de los individuos hasta niveles óptimos, pueden frenar el ritmo del crecimiento y el combate de la pobreza", señaló el economista en jefe del Banco Mundial para América Latina y el Caribe, Guillermo Perry.

El director de LyD, Cristián Larroulet, afirmó en un informe sobre el tema que la región tiene desequilibrios macroeconómicos, un rol del estado poco eficaz, economías cerradas, debilidad de instituciones políticas y falta de Estado de Derecho que impiden una mejor distribución del ingreso y un mayor crecimiento.

Distribuir no implica frenar la pobreza

Distribuir no implica frenar la pobreza
La distribución del ingreso es uno de los temas más debatidos y controvertidos dentro de la discusión económica. Esto, porque el análisis del tema se encuentra en buena medida influido por consideraciones normativas.

Chile aparece en la medianía del ranking latinoamericano de distribución del ingreso, comparando el quintil más alto y el más bajo. Asumiendo el coeficiente de Gini (que evalúa las diferencias de ingresos considerando toda la población), Chile se encuentra bastante más abajo. Pero esto no significa que el nivel de bienestar de los más pobres en Chile sea peor que en el resto de los países. La evidencia empírica más bien muestra lo contrario.

Un país puede tener una muy buena distribución del ingreso, pero la mayoría de la población puede estar sumida en la pobreza. Por el contrario, pueden haber países con mala distribución del ingreso pero con un mayor nivel de bienestar de los más pobres. La erradicación de la pobreza y la distribución del ingreso no son temas necesariamente ligados.

La relevancia

¿Por qué, sin embargo, sigue siendo relevante considerar la distribución del ingreso? La evidencia sugiere que una mayor desigualdad conduce a una mayor inseguridad en los derechos de propiedad. También la evidencia muestra que mayores conflictos sociales y menor protección de los derechos de propiedad afectan negativamente al crecimiento económico. El mismo Adam Smith, padre de la economía, planteó que una gran desigualdad genera inestabilidad social, lo que perjudica la riqueza de una nación. Por lo tanto, la distribución del ingreso puede ser una señal poderosa del clima social de un país.

Un problema que existe al comparar distribuciones de ingresos por países es que la fiabilidad de sus mediciones no es homogénea. Existen naciones donde los sectores más acomodados tienen gran parte de sus ingresos no declarados. Países como Chile, donde existe una mayor confianza en el mercado de capitales interno y, al mismo tiempo, existe una fiscalización más eficiente de los impuestos a la renta, se ven perjudicados en los rankings frente a sus vecinos.

Otro tema relevante a considerar es ver la distribución del ingreso una vez que se han traspasado los programas sociales, ya que éstos normalmente se concentran en las personas de menores ingresos. Esto hace que en países donde el gasto social se hace más eficientemente se logra una distribución más igualitaria (la distribución mejora ostensiblemente después de incorporar el gasto en educación y salud). Y la desigualdad de la educación es clave. Las personas que forman parte de los quintiles superiores tienen una mayor educación promedio que las personas de menores ingresos.

Lo deseable

Una política pública que propicie una mayor igualdad en la educación aparece como muy deseable. Pero no es claro que deba ser una meta para un gobierno alcanzar una determinada distribución del ingreso. Muchas veces políticas que tienen por objetivo una mayor igualdad en la distribución del ingreso conspiran severamente contra el crecimiento en la economía y sobre los más pobres. Aunque esto no implica que esta variable deba ser descartada para mirar el panorama social de un país.

El Mercurio.com

Una profecía autocumplida
En su libro "En busca de la política", el sociólogo inglés Zygmunt Bauman sostiene que en el contexto del desmantelamiento del estado de bienestar de los últimos tiempos, las autoridades, incapaces de ofrecer a la población niveles aceptables de seguridad social para atenuar la precariedad en el empleo y otras contingencias, habrían encontrado un perfecto sucedáneo para suplir su falta de efectividad en dichos dominios. Éste sería el combate contra la delincuencia, mal que, aunque igualmente disruptivo de la vida social, presenta una mayor espectacularidad mediática. Como consecuencia de este giro, particularmente durante los procesos electorales, el discurso político se centraría desproporcionadamente en la lucha contra este flagelo, acallando así formas más sordas de inseguridad, como la inestabilidad del empleo, el trato abusivo en el trabajo y el desigual acceso a las prestaciones de salud de calidad. Así, un monocorde discurso punitivo proveería a los sectores más desposeídos la ilusión de que las autoridades intentan controlar al menos un aspecto de aquellos que complican la trama de sus vidas.

Por cierto, Bauman no pretende minimizar el problema ingente de la delincuencia en las sociedades contemporáneas. Busca más bien llamar la atención acerca del empobrecimiento del debate público que resulta de una excesiva fijación en el combate contra el crimen, no sólo porque se tiende a erigir a los delincuentes en seres intrínsecamente perversos y a negar todo vínculo entre la falta de cohesión social y el aumento de la criminalidad, sino porque dicha retórica borra la realidad del conflicto entre diferentes grupos sociales por la repartición de los beneficios de esa empresa común que llamamos nación, bajo la ilusión unificadora de un "nosotros" que se enfrenta a unos "otros" constituidos por delincuentes y criminales de todo tipo.

Más allá de lo acertado de esta tesis, ella no deja de ser sugerente para Chile, donde, amén de la aparición en la última década del tipo de discurso a que alude Bauman, se ha ido imponiendo unapeculiar variante de esta retórica, que, aludiendo a un "espíritu de cuerpo" propio de la jerga deportiva, anuncia con entusiasmo cómo el país escala posiciones en los diferentes rankings de eficiencia y competitividad económica, ocultando tras de esta ilusión de trabajo en equipo una muy distinta distribución de los "premios" generados por nuestro éxito en esta suerte de certamen mundial económico. Esto, porque a pesar de que en las últimas dos décadas se ha más que duplicado el producto, la distribución del ingreso continúa siendo vergonzosa, como lo reconoció hace poco el propio ministro de Hacienda.

Todo país necesita niveles mínimos de unidad nacional para poder funcionar razonablemente bien, así que lo dicho no debiera tomarse como un llamado al encono o la división. El punto es simplemente anotar que si no se toma en serio el desafío de revertir un escenario en que los beneficios del desarrollo siguen estando sistemáticamente mal distribuidos, eventualmente la retórica del "Chile ganador" dejará de ser creíble para vastos sectores de la población, lo que podría derivar en el tipo de inestabilidad social y política que en otras latitudes ha llevado al estancamiento económico y a situaciones de efectiva explosión de la criminalidad. Esto último constituiría un caso verdaderamente lamentable de profecía autocumplida.

04/01/2004

Realities of a virtual economy

Realities of a virtual economy

To most people, the internet is nothing more than a powerful communications tool, a quick way to find information, buy goods and reach likeminded people. However, to players of one type of computer game it is nothing less than a second home, a virtual world in which they can socialise, fight battles and trade with others.

More than 6m people pay $10-$20 a month to take part in huge online games - simulated worlds inhabited by thousands of players, each controlling one or more substitute selves, known as avatars.

The games are visually rich environments where fantastic things are possible, such as magic or space travel. They offer a more profound escape from reality than traditional video games - indeed, a study of one of the most popular showed it occupied the average player for 20-30 hours a week.

However, these games have become so heavily populated and commercially significant that their effects are increasingly being felt in the real world, with some odd legal consequences.

The idea of enabling players from different locations to meet in a virtual world has been around since the mid-1980s. However, it was not until 1997 that the first true "massively multiplayer online game", or MMOG, was launched to commercial success. Ultima Online was based on a successful series of conventional video games and has since built a subscriber base of about 250,000 players. Like many MMOGs, it takes place in a medieval-type landscape replete with wizards, monsters and quests for glory.

However, not all players are drawn to the life of an adventurer within the game, and many choose to settle down and start their own business - for example as a merchant, a blacksmith or a tavernkeeper. All MMOGs involve an element of trade using a virtual currency, and they usually offer numerous potential sources of income, ranging from simple entrepreneurialism (such as cornering the market in one particular ingredient for a spell) to service provision (training as a healer and treating other players) to armed robbery.

However, as the games communities grow larger and more sophisticated, more and more players are trading imaginary goods created within the games - products, services and even spare avatars - with other players for real money.

It is the rise of internet auction sites that has enabled MMOG players to sell imaginary items to one another, on the understanding they will be exchanged by one another's avatars within the game. On eBay, for example, a special category has been set up to deal with these goods which now has a weekly turnover of more than 28,000 trades, with a total value of more than $500,000 (£282,000).

Typical items for sale include spells (from about $5), property (up to several hundred dollars for a house or castle, depending on size and location) and avatars themselves, which are proving the most valuable commodities. This month a rare "Jedi knight" in the Star Wars Galaxies game sold on eBay for $1,900.

The currency used in the games is also being traded. On December 6 a block of 100,000 Norrathian Platinum Pieces (the currency used in the EverQuest online game) was sold on eBay for $65, implying an exchange rate of just over 1,538 to the dollar.

Dr Edward Castronova, an associate professor of economics at California State University, Fullerton, has been a keen watcher of the MMOG world for some years and since 2001 has published two popular studies of these virtual economies.

"All you need for an exchange rate is a robust market and eBay is very robust," he says. "It represents around 75-80 per cent of the US market [for this category of goods] and around 35-40 per cent of the global market, because MMOGs are very popular in the Far East.

"Since July 1 it has seen a really large increase in trading. It's too early to understand whether this is a seasonal trend or something related to macroeconomics or a genuine growth in this sort of economic activity, but if it's the latter then it's a really big annual growth rate of around 600 per cent."

Dr Castronova has used such calculations to make some unlikely comparisons between real-world economies and that of Norrath, the virtual world where EverQuest takes place. In 2001, for example, he looked at the EverQuest avatars being sold on eBay and used the information to calculate a rough and ready per capita gross national product for Norrath.

At the top end of his range, this came out at $2,266 per head, making Norrath the 77th richest country in the world.

There are even reports of real-world companies being set up to trade in imaginary goods. One such company claims to have more than 50 full-time employees in the US and Hong Kong.

Of course, as soon as an imaginary item is given a value in the real world, it can potentially be protected by real-world laws. This became a reality this month when a Chinese player of a science-fiction game called Red Moon successfully sued the administrator after his avatar's property had been stolen by hackers.

A loophole in the game's security was to blame, but the case set a precedent because a Beijing court rejected the administrator's argument that virtual property in the game was "just piles of data to our operating companies". Player Li Hongchen, 24, had spent two years and the equivalent of more than $1,200 building a stockpile of virtual chemical weapons. d4 It was the growing complexity and need for internal regulation of these virtual societies that inspired Professor Beth Noveck, director of the Institute for Information Law and Policy at New York Law School, to organise a conference in November entitled "The State of Play: Law, Games and Virtual Worlds", which brought together games designers, lawyers, economists and even government representatives.

"You can liken a regulated world to a regulated industry or set of stakeholders - all confront common problems of governance," says Prof Noveck.

She describes a conference workshop involving game designers and officials from Washington responsible for putting the regulatory work of all 180 federal agencies online. "We wanted to see if game designers could come up with ideas for a game to train citizens to use these governmental systems.

"In fact, what generated the most interest was the exchange of best practices between game designers and regulators about ways to manage regulated communities."

Some games have already experienced serious dissent among their players over unpopular regulation. For example, the administrators of Star Wars Galaxies recently asked players, for technical reasons, to reduce to 100 the number of items in their virtual houses.

"There was a tremendous outcry," says Prof Noveck. "This had a lot of resonance with the officials from Washington, particularly a representative from the Department of Transportation, which is responsible for rules that get millions of people to wear seat belts or change their driving habits."

She predicts that the law will soon adapt to MMOGs, with case law establishing "the rights of avatars, ownership of intellectual property within games and the rights of players to emulate or modify games", over the next few years.

One MMOG, Second Life, pre-empted this process at the conference by announcing that it would change its terms of service to respect intellectual property rights in the virtual world and "recognise the ownership of in-world content by the subscribers who make it".

In Second Life, players are not set challenges but are rewarded for creating impressive clothing, art, architecture or other items that attract visitors to their plot of virtual land.

Founder Philip Rosedale says its economy is regulated like a real economy in order to stimulate content creation. "We created pressure for better and better content by levying a property tax on land and objects. We also wanted very high liquidity, so we made transaction costs low, and we wanted a high level of price transparency to incentivise more rapid evolution."

Dr Castronova argues that the world of the MMOGs could have uses beyond occupying the time of millions of internet fantasy fans.

"The great potential of this technology is to build parallel worlds and give one, say, a central bank independent of political authority, and another a central bank dependent on political authority, and one where we don't have a central bank at all," he says.

"If someone could build a public-use world in this way, they could watch what happens to inflation, production rates, populations or any other factor in isolation. What we're groping towards is what the physical sciences have been doing with computers - experimenting on simulations of plant life or the cosmos.

"This would be the sociological equivalent, subjecting them to well-chosen interventions."

02/01/2004

Modernización gracias al Gobierno?

Una queja frecuentemente escuchada es que el Gobierno interviene en demasía en el ámbito privado. Muchos quisieran ver el sector estatal reducido a su mínima expresión, ya que sería el mercado el mejor impulsor del desarrollo del país.
Sin embargo es notorio que las principales modernizaciones ocurridas en el país han venido de la mano del Gobierno, siendo la digitalización del SII el ejemplo más claro de esto.
Es así como nuevamente el gobierno da un impulso a la modernización del país mediante diversas iniciativas de desarrollo digital. Todo esto ante la pasividad del sector privado
Gobierno define agenda tecnológica

Cinco serán los ejes centrales que tendrá la agenda tecnológica del Gobierno durante 2004, siendo la disminución de los costos de acceso a Internet, la digitalización de los municipios y la implementación de la "Ruta 5D" los más importantes.

El subsecretario de Economía y CIO de Tecnologías de Información del Gobierno, Álvaro Díaz, sostuvo que la implementación de estos puntos será clave para profundizar el proceso de digitalización del país, incorporando de manera masiva a los sectores de menores recursos.

La autoridad precisó que otro de los focos centrales será incluir en esta dinámica a los poderes Legislativo y Judicial, que muestran un mayor rezago que el Ejecutivo, con el fin de avanzar con más fuerza en la conformación no sólo un Gobierno digital, sino de un Estado con estas características.

En materia de acceso a Internet - y en especial, en banda ancha- , Díaz dijo que la tarea central para este año será generar los marcos regulatorios adecuados para abaratar los costos de acceso a esta tecnología. De acuerdo a las estadísticas de la Unión Internacional de Tecnología (ITU), Chile presenta costos de interconexión competitivos, aunque todavía altos respectos de otros países de la región - como Argentina- , que muestran menores índices de penetración tecnológica.

Más trámites en línea

En este punto, la fijación tarifaria de Telefónica CTC Chile - cuyo resultado final se conocerá el próximo 6 de mayo- se considera crucial, así como la desagregación de redes y la convergencia tecnológica.

Otra de las áreas estratégicas donde se focalizarán los esfuerzos es el gobierno electrónico. La idea, explicó Díaz, es aumentar el número de trámites en línea de los actuales 170 a cerca de 240, poniendo especial énfasis en los dedicados a las empresas del país.

De hecho, el programa de "Ventanilla Empresa" pretende ampliarse de los 34 trámites que tiene hoy a 45 a fines de 2004.

En materia de infraestructura, la Ruta 5D es, por lejos, el proyecto más emblemático. Esta iniciativa busca crear una supercarretera de telefonía y banda ancha a lo largo de Chile - de ahí su nombre, que evoca la Ruta 5 que recorre el país, pero de manera digital- , a la que estarán conectadas todas las reparticiones públicas, como gobierno central y regionales, municipalidades, escuelas y servicios.

Pero además, el proyecto 5D prevé licitar agregadamente los servicios de telecomunicaciones de los organismos públicos, generando importantes ahorros debido a las economías de escala que se generarían con esta medida. El Gobierno chileno gasta cada año más de US$70 millones en esta materia.

Respecto de la educación - el quinto eje estratégico- Díaz comentó que la meta es consolidar lo que ya se ha hecho. Actualmente existen 1.304 infocentros en el país - a través de los cuales se ha "infoalfabetizado" a 120.000 personas- , los que son visitados principalmente por personas de clases menos acomodadas.

"La idea es transformarlos de puntos de acceso a puntos de servicios digitales, incorporándoles banda ancha, centros de capacitación y desarrollo de contenidos", dijo el CIO tecnológico.