Ads 468x60px

sábado, 19 de diciembre de 2015

Diversificación y Riesgo de Una Cartera

Los inversionistas podrían aceptar que los mercados financieros se comportan de manera similar a la jungla: o se hace un safari guiado y protegido por una fuerte seguridad, con lo cual se concluiría erróneamente que en la selva no hay peligro, o se lanza a la aventura, en busca de lo inesperado e inexorable sin más armas que sus manos, donde es casi seguro que funestas consecuencias pueden ocurrir. En ambos casos hay consecuencias: para el primer caso, la sensación de paz probablemente no ponga vidas en peligro, pero tampoco se gana experiencia en situaciones monótonas; para el segundo caso, si ocurre algo inesperado y se vive para contarlo, se habrá ganado una experiencia inolvidable.

Aprovechando la comparación con la jungla, se puede decir que los inversionistas antes de arriesgar su dinero, tienen que analizar si están dispuestos a arriesgar con la finalidad de ganar mejores dividendos, o simplemente apostar a lo estable, con lo que se gana cierto margen, pero siendo consciente que mucho no es. Estas dos situaciones ocurren porque en el mercado de inversiones se dan cambios económicos y financieros todo el tiempo, algunas veces el escenario se caracteriza por períodos de tranquilidad y otras veces, la excesiva volatilidad destaca con más fuerza.

Muchos han intentado descubrir cuál es la fórmula ganadora que, a la vez, asegure un nivel de rentabilidad óptimo, un adecuado grado de bursatilidad y la menor volatilidad posible, además de otras condiciones propias del mercado. Esta complejidad finalmente provoca que los inversionistas se apalanquen en herramientas que pongan en la balanza estas características del mercado y ponderen cada una de ellas, para finalmente decidir por alguna. Esta búsqueda tuvo frutos, algunos estudios  de modelos de optimización de portafolios muy bien elaborados arrojaron teorías interesantes y fueron dignas de ser reconocidas, a saber.

Definitivamente la teoría moderna de selección de portafolios bajo metodología EWMA (promedio móvil ponderado exponencialmente) para el cálculo de riesgos, concebido por Harry Markowitz en 1952 es el más completo cuando se abarcan estos temas. Inclusive se especula que a partir de la elaboración de esta teoría, el mundo de las inversiones escaló hacia una nueva época, es decir, se marcó un antes y un después. Esta metodología asigna criterios de mayor importancia a los datos más recientes, lo cual permite que el modelo se ajuste mucho más a la realidad y,  a su vez, permite lograr un mayor aprovechamiento de la información. El argumento que defiende principalmente la teoría de selección de portafolios es que se puede lograr la optimización de los portafolios mediante la correcta diversificación de cartera, con lo cual se puede alcanzar el mayor rendimiento con el menor riesgo.

La diversificación ayuda  a que las inversiones se realicen sobre activos de diferentes sectores, esto es beneficioso porque al no estar relacionados los retornos, se puede reducir el riesgo. Los retornos de la diversificación pueden darse en tres niveles de correlación: (a) cuando hay correlación perfecta y positiva, cuando tanto el riesgo como el rendimiento de dicho portafolio son similares al promedio ponderado de dicho riesgo y al retorno de los activos que la integran, y (b) cuando hay correlación perfecta y negativa, se establecen las condiciones cuando se conforma un portafolio con activos estrechamente relacionados pero en forma negativa, minimizando de esta manera el riesgo de la cartera, (c) retornos incorrelacionados, cuando en los retornos de los activos no existe ninguna relación. Combinar 2 activos de este tipo ayudará a minimizar el riesgo del portafolio.

La teoría de selección sostiene que el grado de inversión que se desee realizar tiene honda vinculación con el grado de aversión al riesgo que se espera enfrentar, y  honda vinculación con el grado de utilidades que se desea alcanzar. De aquí se desprende entonces, que los inversionistas pueden ser clasificados según la actitud al riesgo, pudiendo ser: (a) con aversión al riesgo, aquellos que están dispuestos a arriesgar lo mínimo, siendo conscientes que esta decisión generará consecuentemente un mínimo nivel de rentabilidad (b) con propensión al riesgo, son aquellos inversores que en determinadas situaciones donde las ganancias son importantes, elegirán la alternativa con mayor riesgo, y por último (c) con neutralidad al riesgo, son todos aquellos inversores que teniendo múltiples alternativas de inversión con diferentes niveles de riesgo pero que generan la misma rentabilidad, les resulta indiferente la alternativa que pudieran elegir.

Vale destacar que el grado de aversión está directamente ligado con ciertas características del inversionista, como pueden ser su edad, la situación financiera que pudiera presentar en el momento de la inversión o inclusive, la experiencia en el ámbito. Estas características determinarán las condiciones de la inversión. Es necesario resaltar que lo común es invertir con el menor riesgo posible.

Hasta antes de la teoría de selección, los inversores solían trabajar con un solo activo, Markowitz demostró que lo correcto era invertir en varios activos a la vez, y tratarlos como un todo integrado, un portafolio diversificado. La diversificación permite compensar las pérdidas que se pudieran generar en otros activos, con el retorno que se pudiera obtener por la inversión en otros activos y, esta compensación se logra cuando se invierte en varios activos, es decir en varias compañías, de preferencia de diversos sectores y de diversos países. Esto con la finalidad de paliar el riesgo que pudiera surgir inicialmente en una compañía, luego en determinado sector, y posteriormente de riesgos que afecten a diversos países. Para lograr el retorno esperado de un portafolio o cartera, se calcula el promedio ponderado de forma proporcionalmente inversa a los retornos esperados de cada uno de los activos del portafolio.

Se debe recalcar que, no obstante la diversificación de portafolios, el riesgo jamás podrá darse por
descontado, dado que las variables macroeconómicas siempre están sujetas a afectar de manera global y no hay forma de librarse de ellas por completo. Mientras mayor sea el número de activos en un portafolio, habrá un mayor impacto en el riesgo, en promedio la desviación estándar cae más mientras mayor sea la cantidad de activos de un determinado portafolio. La desviación estándar de un activo en promedio está en 21%, para un portafolio de dos activos, la desviación llega a 16%, con tres activos llega hasta 15%, cuando se tiene 470 activos, la desviación llega a 11.6%, de lo cual se deduce que el riesgo jamás se puede evitar. Este riesgo que no se puede evitar es conocido también como riesgo sistémico, el cual es diferente al riesgo no sistémico, que sí permite eludir los riesgos, permitiéndonos invertir en un mercado que no se ha visto afectado.

Para lograr este equilibrio en la diversificación, Markowitz propone lo que llamó la frontera eficiente, que no es otra cosa más que todos los portafolios con las combinaciones de riesgos, los cuales se obtienen de la combinación de activos. Otro aspecto clave es que no existe límite al momento de buscar la diversificación de portafolios, sino que más bien, éstos están supeditados a los criterios que se establezcan con la intención de medir la rentabilidad y el riesgo.

Para medir el riesgo de un activo se utiliza la desviación estándar de los retornos, de esta manera obtenemos el grado de dispersión del activo con respecto al retorno esperado del mismo activo. Esto se mide mediante la varianza o la desviación estándar. La regla es: cuanto mayor sea el grado de dispersión, mayor será el grado de volatilidad o riesgo. Conviene notar que el riesgo de una cartera no se halla calculando el promedio ponderado de cada uno de los riesgos que componen dicha cartera, sino hallando el nivel de riesgo individual de cada uno de los activos que componen la cartera y luego hallando el grado de correlación que se genera entre los retornos esperados que conforman dicha cartera.

Luego de la teoría de Markowitz, surgieron nuevos estudios, unos con la finalidad de extenderla y otros con el propósito de facilitar el cálculo de los parámetros de esta teoría base. Destacan por ejemplo, el teorema de la separación de Tobin, el cual incluye el concepto de activo libre de riesgo, con el cual permitía nuevas puertas a la inversión. De este teorema se deduce que el portafolio óptimo será igual para todos quienes participen en el mercado.

Tenemos también el modelo de valoración de activos CAPM, donde involucraba los conceptos de riesgo sistemático y no sistemático, así como la prima de riesgo. Se debe destacar que el modelo de Markowitz explica que las inversiones se hacen sobre  activos riesgosos y, el modelo CAPM  lo que hace es incorporar la variable activo libre de riesgo, con una determinada tasa, la cual es fijada por cada país y brinda la rentabilidad ofrecida, por ello su desviación estándar es cero. Tal es el caso de Estados Unidos, cuyos bonos del tesoro con muchos años permiten que el activo sea cero riesgos. La duda que surge en este punto es cuán realista son los supuestos de CAPM, cuyo modelo intenta representar de manera simplificada la relación que existe entre la volatilidad y el retorno esperado. Para hacerlo más real se tendrían que incluir los costos de transacción y los impuestos que se pagan, lo cual complicaría la figura. Además, si la información estuviera disponible para todos los inversionistas, no habría forma de que algunos aventajen a otros.

La explicación se centrará ahora en determinar cómo se elabora un portafolio óptimo. La primera recomendación consiste en recabar dos años de información diaria de precios de los activos que se desean analizar, para luego calcular la rentabilidad de cada activo de manera diaria, seguidamente se debe calcular la rentabilidad promedio de cada activo, con esto lograríamos la matriz de información de rendimientos promedio. Acto seguido se debe construir la matriz de información con los pesos iniciales, donde se combina el número de activos riesgosos y la cantidad de portafolios que se desean construir. Luego de construir las matrices de varianzas y covarianzas según la metodología del promedio móvil ponderado de manera exponencial, se debe calcular el riesgo asociado para cada portafolio de manera independiente, lográndose con esto la construcción de diversos portafolios óptimos.

Para ir concluyendo, la teoría moderna de selección de portafolios permite diseñar alternativas de inversión, en las cuales tenemos la posibilidad de elegir el riesgo que estamos dispuestos a asumir y la rentabilidad esperada. Estos portafolios óptimos se ubican en la frontera eficiente y se obtienen del análisis matemático que se realiza a la rentabilidad de los activos.

Al revisar el desempeño de cada uno de los portafolios de inversión, se entiende que el desempeño logrado por los portafolios sirve como marco de referencia para aquellos inversionistas que aún no conocen lo suficiente del mercado, permitiendo invertir en los activos  que gozan de mejor reputación en el mercado. Resaltar también que un portafolio diseñado mediante activos nacionales y extranjeros, antes que puramente nacional, brinda un mejor rendimiento, ofreciendo un menor nivel de riesgo.

Las matrices de varianzas, covarianzas de EWMA le dan mayor valor a la información recientemente obtenida, permitiendo construir estimaciones mucho más certeras, detectando períodos de paz y tranquilidad, así como de alta volatilidad, permitiendo diseñar portafolios más ajustados a la realidad.

martes, 8 de diciembre de 2015

Rentabilidad de la RSE

Atrás quedaron ya aquellos tiempos donde la responsabilidad social corporativa era un tema de atender si se tenía ganas y tiempo. Hoy por el contrario, las empresas la aprovechan para demostrar su compromiso con los diferentes grupos de interés, sabiendo que su participación les mejora la imagen corporativa, generando agrado, aceptación, empleados más felices, más clientes y, por ende, más rentabilidad. Sabedores de tantos beneficios, la RSE ya no es tomada a la ligera, por el contrario, se aborda como parte de la estrategia empresarial, e inclusive sirve para que en los discursos destaquen dizque la preocupación por la sostenibilidad.

¿A qué puede deberse que de pronto hayan decidido las empresas asumir un serio compromiso ante los problemas de toda la vida? ¿Será posible que además de los beneficios de practicar la RSE, adicionalmente se logre una mejor rentabilidad? Si fuera así, no habría más remedio que practicar RSE en adelante y sin dudarlo. Se van a analizar diferentes argumentos y enfoques con la intención de llegar a la verdad de esta proposición.

Todo el mundo está hablando de RSE: en los periódicos y revistas no pueden faltar noticias que hablen de esta o de esta otra empresa haciendo obras en bien de la sociedad o el medio ambiente. Y es que la RSE vende y es un tema importante, quien lo practique va por buen camino. Un hecho más destacable aún es que la sección de finanzas es el apartado preferido de este tipo de emprendimientos, y va de la mano junto a lo más resaltante del día,  como los cambios en la bolsa de valores, etc. 

No es coincidencia que Porter y Kramer (2002) resaltaran las ventajas competitivas que brinda practicar la RSE, inclusive desde el momento que ingresa a la agenda de los objetivos estratégicos de la empresa, porque le da un aire fresco e innovador de gestión. Si lo vemos desde otras perspectivas, también están los inversores, quienes casi premian las prácticas de responsabilidad social y reconocen el valor agregado, lo cual impacta en la cotización de las empresas que la practican. Este fenómeno de inversores socialmente responsables es llamado Inversión Socialmente Responsable (ISR), también conocida como inversión ética o ecológica. Antes de ahondar en la rentabilidad que genera la RSE, se va a repasar en algunos conceptos que merecen ser bien fijados.

Hay que dejar claro primero que la RSE no es filantropía, donde los grupos de interés ven buenas acciones o favores por parte de la organización, cabe recordar que el fin de las empresas es generar rentabilidad. También se ha dicho que hacer RSE es hacer negocios  pero teniendo como base la ética y los principios que correspondan a ley. La verdadera intención debiera consistir en asumir un compromiso serio y responsable, el cual tiene que ser voluntario para que haya beneficiados, tanto en lo económico, en lo social y en lo ambiental, preocupándose al mismo tiempo por el cumplimiento responsable hacia los grupos sociales involucrados. Queda claro entonces que la filantropía que ejercen las empresas muchas veces “con lo que les sobra” queda superada grandemente para convertirse en un compromiso, como ya se dijo antes, de gestión innovadora y preocupada por atender las demandas sociales, orientado tanto hacia los inversores como hacia los grupos de interés.

Para lograr este compromiso, es imprescindible que el principio de transparencia sea el pilar que dirija los esfuerzos, pues es sinónimo de gestión saludable. Lo siguiente es delimitar claramente los partícipes del proceso, cada uno con su respectivo aporte y exigencia. También es importante la forma innovadora de realizar los informes financieros, donde se recoge parcialmente los resúmenes o memorizas de sostenibilidad, las cuales son totalmente superiores a las formas antiguas de informar sobre los temas de responsabilidad social, las cuales carecían de fiabilidad, por ejemplo ante informes de severo impacto ecológico, que a la larga se convertían en riesgos financieros.

Es así que en esta búsqueda de informar eficientemente, Elkington (1997) propuso lo que se llamó “Triple Bottom Line” enfocada a la gestión empresarial, que buscaba la prosperidad económica, la justicia social y la calidad medioambiental, que en resumidas líneas defendía que las empresas no tenían que centrarse sólo en los resultados financieros, sino mas bien debía coordinar de manera equilibrada para lograr la armonía en los tres aspectos arriba mencionados. Fue entonces la TBL la pionera del nuevo modelo de información sobre RSE, enfatizando los resultados en los tres aspectos que se mencionó antes: económico, medioambiental y social.

Esta estructura de informes resultó de atractivo valor para las grandes corporaciones, quienes de a pocos se fueron alineando a este estilo, dejando de lado los informes medioambientales. Este valioso estilo de informes de sostenibilidad está estructurado de modo que pueda atender las demandas de los diferentes grupos de interés y,  la vez, permite obtener mayor rentabilidad dado que se enfoca en todos los grupos de interés, no sólo en aquellos aportantes de recursos financieros (Freeman, 1984), que sin embargo, siguen siendo la principal motivación.

Como se dijo en el párrafo anterior, las motivaciones económicas y el enfoque que predominan en estos informes, hacen que sean tremendamente útiles para tomar decisiones en beneficio de los grupos de interés, destacando sobre todo, los stakeholders que requieren este tipo de información, o bien llamados inversores, que sobre todo se comportan de acuerdo a ciertos criterios, destacándose: (a) los inversores concienciados, que son inversionistas que realmente demuestran preocupación por la RSE y están dispuestos a invertir en aquellas empresas que han demostrado una aferrada preocupación por la sostenibilidad. (b) los inversores colectivos, quienes se interesan en invertir sus recursos financieros en inversores individuales. (c) los inversores prudentes, quienes consideran conveniente acercarse a aquellas empresas que poseen indicadores de calidad en gestión y gobierno corporativo. Esta variedad de inversores ha generado un crecimiento  del tema RSE en los mercados financieros, tales como los fondos de inversión socialmente responsables (ISR), los índices de responsabilidad empresarial y los proveedores de RSE.
 
Los fondos de ISR sólo seleccionan a aquellas empresas que cumplen criterios seleccionados específicos, los cuales pueden ser negativos, como es el caso de excluir a empresas tabaqueras y  de comercialización de alcohol, o positivos, los cuales son las preferencias que se ejercen por aquellas empresas que reconocen el apoyo al sector social y medioambiental, pudiendo destacarse: (a) Fondos solidarios, cuando la sociedad que administra las inversiones, cede una parte de dichas comisiones a ciertas entidades benéficas. (b) fondos de inversión éticos (ISR), quienes deben cumplir criterios éticos, ecológicos que se han establecido previamente, para seleccionar las inversiones. Se tiene entonces que los fondos ISR se han incrementado de manera importante, experimentando un crecimiento de cerca del 300%. Y sobre el efecto positivo de la RSE, los resultados muestran que existe un pronunciado mejor ánimo con respecto a los fondos ISR y, en conclusión, los números no mienten e indican que los productos financieros en definitiva no son menos rentables a los convencionales ya conocidas.

Otra forma de aceptar la rentabilidad de la RSE es atarla al desempeño financiero de la empresa, donde los indicadores de desempeño financiero son más ambiciosos en aquellas empresas socialmente responsables, dado que existe una mejor gestión y reconocimiento de las actividades de parte de los grupos de interés. Los gobiernos corporativos, junto a los informes de sostenibilidad han logrado que se focalice el desempeño social donde es más provechoso. Los índices obtenidos han demostrado que no existe una real diferencia, aunque sobre todo es positiva, es decir orientada hacia aquellas empresas que contribuyen con la RSE. Podemos deducir entonces que la RSE no afecta de manera negativa a la rentabilidad empresarial.

Finalmente, sintetizar el hecho de que las empresas que representan lo positivo manifiestan la importancia de la RSE, y es que con el tiempo han aumentado las prácticas socialmente responsables y se han expandido a través de los informes de RSE, las cuales garantizan  su importancia. Sin embargo, a pesar de todo lo sustentado anteriormente, a pesar de que las empresas reconocen la calidad e importancia de los reportes de sostenibilidad, no existen realmente evidencias contundentes que permitan afirmar que la RSE genera rentabilidad financiera.

De la misma manera, tomando como base los indicadores de desempeño tales como los ratios financieros, tampoco se ha demostrado fehacientemente que las diferencias realmente provengan de aquellas empresas más responsables socialmente. Entonces, no podemos aseverar que la RSE es la forma de generar las mayores rentabilidades, tal vez tenga que ver el hecho de que no haya una clara conciencia sobre el verdadero significado e importancia de la RSE, el cual podría realizarse si hubiese un escenario que permita resaltar las notorias diferencias entre aquellas empresas que son sosteniblemente responsables  y las otra que aún no lo son.

Sin embargo, lo que sí generará es (a) mayor productividad, porque se darán las condiciones para que los trabajadores permanezcan en la empresa y se reduzca el índice de rotación, (b) lealtad, al producirse el acercamiento al cliente se puede transmitir las preocupaciones y necesidades del entorno, (c) credibilidad, una empresa que se preocupa por las comunidades refleja una reputación que le avala y garantiza crecimiento en el futuro, minimizando las probabilidades de riesgo, previendo situaciones que, de otra manera, generarían desconfianza e incredulidad.

domingo, 1 de noviembre de 2015

La educación universitaria de postgrado online: características, pros y contras

Es evidente que la realización de un postgrado acelerará la posibilidad de conseguir ascensos o mejores oportunidades salariales, es decir el trampolín para tentar mejoras laborales. Sin embargo, muchos empleados truncan sus sueños de cursar estudios de postgrado debido al ritmo de trabajo que les ha tocado enfrentar, ya sea estar viajando constantemente o trabajar hasta altas horas de la noche, les bloquea la opción de estudiar. Esa es una realidad que no se puede negar.

Por otro lado, estudiar el postgrado abre una puerta de oportunidades que pocos pueden aprovechar, ya sea porque la inversión que se debe hacer les es inalcanzable o porque, como se mencionó antes, su trajín diario simplemente no les permitirá dedicarle tiempo. Este abanico de nuevas oportunidades les puede cambiar la vida y llevarles a puestos que, sin postgrado, serían bastante más difíciles de alcanzar.

Ante este escenario, es que el ingenio humano se puso nuevamente de manifiesto y, encontró una salida ante tal declarado problema: aprovechar la tecnología existente para armar cursos en línea vía internet, los cuales deben caracterizarse por la gran flexibilidad en los horarios de estudio, de modo que las personas que antes no pudieron estudiar, no encuentren pretextos y puedan salir airosos. Dado que ni los horarios ni los inconvenientes de desplazamiento eran problemas, se empezaron a visualizar los cursos online como alternativas interesantes y, aunque no lo parezca, permite realizar una interacción interesante entre los docentes y los alumnos.

A medida que los años han ido pasando, los cursos virtuales han ido perfeccionándose, al extremo inclusive de competir de igual a igual con los cursos presenciales, se habla también que inclusive ya los cursos virtuales han superado a los presenciales, dado que los virtuales son más exigentes. Si bien es cierto que el curso de postgrado en línea me resuelve los problemas de no poder cumplir con horarios establecidos de estudio, también es cierto que no todos pueden estudiar en modalidad virtual, porque requiere atributos que no todos pueden satisfacer.

Vamos a mencionar tanto los pros como los contras de estudiar en línea. Entre los pros destacan que (a) El alumno puede adecuar su tiempo libre para el estudio, permitiéndose entonces dedicarse a una actividad adicional, sin que interfiera con las que ya realizaba previamente. Existen también alumnos que prefieren estudiar de madrugada, en completo silencio, otros de día, entonces para ellos está el abanico de oportunidades para elegir el horario que más les convenga.

Pero también pueden beneficiarse aquellas personas que por darle predilección a la familia, han descuidado su formación profesional, con la modalidad virtual no tendrían por qué postergar el avance profesional. (b) Se ahorran los tiempos perdidos por concepto de traslado hacia los centros de estudio, con lo cual adicionalmente se eliminan los gastos de movilidad y alimentación fuera del hogar. (c) Se puede hacer uso de las herramientas sociales para potenciar la comunicación, participación e intercambio de información, como por ejemplo los foros, los chats, los cuales invitan a la participación dado que son herramientas de uso cotidiano y de comunicación diaria. (d) Se recupera una fuerza de docentes que, probablemente por razones de tiempo y lugar, declinaron a dictar, pero que, sin embargo con estas facilidades, vuelven a ella de modo inmediato. (e) para aquellos alumnos que ya poseen autodisciplina y orden, les resulta sumamente fácil adaptarse a esta modalidad de enseñanza; lo contrario ocurre para aquellos alumnos que tienen problemas de organización y disciplina, probablemente la metodología de aprendizaje no vaya bien con ellos, pues requiere que cada alumno se haga sus propios hábitos estrictos de estudio.

(f) Existe mucha oferta de formación en línea, por lo que encontrar la oferta más variopinta no será un inconveniente. (g) Los costos por gastos de materiales se ven reducidos enormemente dado que la mayor parte será en formato digital, lo cual posibilita que el material sea descargado o accedido múltiples veces y desde cualquier dispositivo. (h) El trabajo colaborativo se encuentra en su máxima expresión en l modalidad de postgrado virtual, dado que los trabajos grupales pueden ser gestionados de manera centralizada donde todos y cada uno de los integrantes del grupo puede aportar sobre un documento que irá refinándose para pasar a ser el trabajo final.

Entre los contras destacan (a) La falta de disciplina, como se mencionó antes, puede jugarle en contra y probablemente se complique en el cumplimiento de sus compromisos estudiantiles, lo cual a la larga lo llevará a fracasar bajo esta modalidad. (b) La modalidad online es más exigente que la presencial, y es que la única forma de avanzar en modo virtual es resolviendo paquetes de trabajos asignados de manera periódica, lo cual invita bastante a la investigación. (c) Para estudiar bajo la modalidad online es menester que el estudiante posea conocimientos de nivel básico de tecnologías actuales (celulares, computadoras, manejo de redes sociales, manejo de sistemas de gestión de contenidos, etc.). (d) Puede resultar perjudicial cursar estudios de postgrado, si se elige una institución que no posea el suficiente reconocimiento académico.

Entonces, la recomendación es fijarse en la calidad de la oferta y elegir la más competitiva que esté al alcance del bolsillo. Entre los inconvenientes de elegir alternativas no recomendadas puede estar el inconveniente de no contar con las suficientes herramientas tecnológicas que faciliten el desenvolvimiento adecuado del curso.
Con respecto a la calidad de la educación virtual es que hablamos de control de calidad de la educación virtual, en donde los especialistas concuerdan que es necesario un conjunto de especificaciones y estándares para la educación virtual propiamente dicha. Si faltaran estos estándares de calidad, cada institución implementaría sus cursos según les parezca, lo cual generaría una dispersión que terminaría matando la modalidad de enseñanza.

Por eso debiéramos hablar de requisitos de cada curso, como matricularse en el curso, no faltar a las sesiones virtuales, rendir exámenes, etc. Es claro que la apertura de la información mediante internet podría resultar contraproducente. El hecho de gozar de una modalidad virtual no debería degenerar un curso, sino por el contrario, producir alumnos virtuosos y conocedores de su capacidad.
Vale la pena mencionar que la educación de postgrado en modalidad virtual, a pesar de que no es nueva, se podría decir que recién está surgiendo con fuerza y recibiendo el reconocimiento y la seriedad que amerita. También cabe resaltar que aunque no todos optarían por la modalidad virtual, pues muchos le dan preferencia a la interacción en persona, no se pierde la capacidad de socializar e interactuar en la modalidad virtual. Entonces, si ese es el motivo, realmente no hay motivo para no inclinarse por la modalidad virtual.

Otro aspecto serio que toca mencionar es el del peso de la acreditación mediante modalidad virtual, donde toca saber si ambas formas de estudio descansan sobre un título del mismo nivel. En realidad este aspecto depende de lo que indiquen las especificaciones, es decir depende de la realidad en la que se esté desarrollando el curso de postgrado, pueden haber algunas instituciones que indiquen que la modalidad virtual no es equivalente a la presencial, sin embargo , puede ocurrir también lo contrario, donde entre ambas no exista ninguna diferencia, tal es el caso de Brasil, donde los contenidos son los mismos, impartidos de diferente manera, pero los exámenes son presenciales y del mismo nivel, con lo cual queda reafirmada el hecho de que no es necesario asistir a clases de forma presencial porque de modo virtual también funciona de modo perfectamente igual.

En un estudio realizado hace unos años atrás en la Argentina, con el aval de la UNESCO, cuando el afán de desarrollar la educación virtual estaba de moda, se obtuvieron algunas conclusiones dignas de mencionar en base a las ofertas de la época. Esta medición desvistió la precariedad con la que se afrontaba la educación virtual en dicho país. El estudio se fijó sobre todo en la evolución de las ofertas virtuales, cuál era el impacto obtenido y las plataformas preparadas, así como los obstáculos en la implementación y las perspectivas planeadas para el futuro. Las conclusiones no fueron alentadoras, se encontró que la educación virtual estaba en apenas construcción, sin planificación estratégica, sin estándares mínimos, sin profesores realmente preparados para saber aprovechar esta modalidad de enseñanza, lo cual dejaba un panorama incierto en ese entonces.

Sin embargo, a partir del encaramiento de estos problemas, se desarrollaron esfuerzos por superar estos problemas, sabedores de que esta modalidad de educación virtual era imprescindible desarrollar con miras a la evolución de la educación superior. Y, es en este sentido que se desarrollaron responsables formas de ofrecer sus ofertas, favorecidos por el auge de las nuevas tecnologías, las cuales iniciaron una cabalgata sin freno. En los centros de educación se complementó cada curso con materiales de lectura, asistencia de programas de foros, chat, etc. Con lo cual se dio inicio a la reformulación de propuestas, fuertemente cimentadas en tecnologías de información y de comunicación.

Para mencionar un poco en qué áreas de conocimiento destacan mayormente las ofertas de cursos, se destaca sobre todo las áreas de educación y administración, con lo cual queda en evidencia que aún existe mucho nicho de mercado falto de ofertas.
Un aspecto clave en el crecimiento de la educación universitaria vía internet ha sido la implementación de robustas plataformas web, las cuales son el cimiento principal para que cualquier institución pueda ofrecer sus cursos, es así entonces, que muchas instituciones optan por desarrollar sus propias plataformas, pero también muchas de ellas se agarran de las plataformas que el mercado disponibiliza de manera gratuita, unas más robustas que otras, unas de cierta tecnología avanzada, otras de rudimentaria tecnología, las opciones están allí, las instituciones tienen que tomarlas.

En la sociedad actual en la que nos desenvolvemos, donde la renovación del conocimiento está a la orden del día, donde la velocidad de los cambios tecnológicos es el pan de cada día, se requiere la infraestructura para avanzar a la misma velocidad de desarrollo que el conocimiento y la tecnología. Una de las formas de enfrentar este dinamismo es a través de la enseñanza de postgrado mediante la modalidad de enseñanza en línea. Esto es posible porque las tecnologías tanto de información como de comunicación hacen posible este atrevimiento, los mismos que serían impensables unos años atrás.
La enseñanza en línea promueve una educación sin fronteras, más libre, más preocupada por el estudiante y por lo que necesita para salir airoso en esta batalla de aprendizaje individualizada, la cual es más interactiva y participativa vía medios sociales tecnológicos.

Este estilo de enseñanza es ya una realidad debido al desarrollo de la tecnología, especialmente la computadora, mediante la cual, el estudiante gana acceso a ingentes cantidades de información disponibles para todos y de manera gratuita, hasta el punto de poder manifestar que todo está en internet. Esta tecnología disponible hay que saber usarla de manera responsable y disciplinada; de no hacerlo, en lugar de beneficio podría convertirse en amenaza, porque se destruiría un sistema de enseñanza educativa que se ha ido formando a través de los años, donde el estudiante mismo quiso asumir la responsabilidad de su aprendizaje, intentando así, mejorar su calidad de vida.

Finalmente, recordar una frase de Juan Manuel Valentín, quien en su tesis de maestría, intentaba dar una descripción de la educación virtual:
"como un espacio social que tiene una especificidad distintiva, la virtual. Este espacio posibilita novedosas formas de interrelaciones y de intercambio. En este sentido, a través de diversas tecnologías accesibles en Internet (chat, foro, email, entre otras), la persona trasciende los condicionamientos propios de la proximidad y se ubica en un escenario que le permite iniciar nuevas relaciones sostenidas por el mundo de los bits".

lunes, 26 de octubre de 2015

Tratado de Libre Comercio Peru - Estados Unidos

En este mundo cada vez más globalizado, no es buena idea para un país mantenerse aislado, porque perdería muchas posibilidades de hacer sinergia y crecer a velocidades inimaginables. Pensando en esto, los países buscan establecer lazos mercantiles y comerciales, donde los ganadores son todos: gobierno, pequeños y grandes empresarios, clientes, el impulso de la generación de empleo, la mejora y el bienestar de la población, etc. ¿El requisito? Producir bienes y servicios innovadores, de primera calidad y a precios competitivos, una combinación que es posible si se produce en grandes cantidades y se logra generar alta rotación de productos, tanto a nivel de exportación como de importación.

Pero, ¿cuáles son los objetivos que se persiguen con un tratado de libre comercio? La respuesta se concentra en los siguientes puntos: Apertura del comercio hacia el mundo, lo cual es urgente para un país como el nuestro con deseos de crecer. Mayor dinamismo de los flujos de inversión extranjeros y nacionales. Lograr la asignación más oportuna de los factores de producción. Dicho de otro modo, se busca mejorar la calidad de vida de los peruanos, lograr precios más bajos y mejores productos para los consumidores, aumento del empleo.

De hecho que el Perú ha entendido esta figura y ha hecho énfasis en el establecimiento de tratados comerciales diversos. Uno de los importantes tratados es el Acuerdo de Promoción Comercial (APC) firmado con Estados Unidos. Este tratado de libre comercio se firmó en Washington el año 2006, pero recién inició operaciones el 1ero de febrero de 2009. Las negociaciones abarcaron el acceso a los mercados, reglas de origen, administración aduanera y facilitación de comercio, medidas sanitarias y fitosanitarias, obstáculos técnicos al comercio, Defensa Comercial, Contratación Pública, Inversión, Comercio Transfronterizo de Servicios, Servicios financieros, Políticas de Competencia, Telecomunicaciones, Comercio Electrónico, Derechos de Propiedad Intelectual, Laboral, Medio Ambiente, Transparencia, Fortalecimiento de Capacidades Comerciales, Solución de Controversias.

Como no podía ser de otra manera, hubo detractores al TLC con los EE.UU. Una de las primeras era que en la negociación no se reconocía la asimetría entre las economías y la diferencia abismal en el nivel de desarrollo existente en ambos países. Algunos líderes políticos estaban de acuerdo con la realización del tratado, en su mayoría de derecha como Lourdes Flores, Alan García (aunque su posición fue ambigua durante las elecciones del 2006 al rechazarlo y luego como presidente apoyar el TLC). Entre los políticos y personalidades importantes que se oponían estaban los políticos Javier Diez Canseco, Susana Villarán y el ex presidente Valentín Paniagua.

Actualmente, EE.UU. es uno de los principales países a los cuales exportamos nuestros productos, tales como minerales, metales, textiles, productos pesqueros, petróleo crudo, café, cacao, artesanías, paprika, alcachofa, uva, mango, mandarina, espárragos. Este país de América del Norte, cuya capital es Washington D.C., gobernada como república federal presidencialista, cuenta con una extensión territorial de 9’826,675 KM2 de superficie terrestre y una población superior a los 321 millones de habitantes.

A poco más de cumplidos seis años de iniciado el tratado de libre comercio con EE.UU., y pese a que la antesala a iniciar el intercambio de bienes y servicios se caracterizó por la desinformación de parte de ciertos grupos a los cuales no les convenía el importante intercambio mercantil que se avecinaba, ahora se puede justificar el tratado con cifras: las exportaciones aumentaron de manera importante y fueron bastante favorables para el Perú. Es indudable entonces que el TLC ha sido una pieza clave para el despegue de nuestras exportaciones, las cifras lo sustentan, sentenció Comex: “Entre 2009 y 2014, nuestras exportaciones totales al mercado estadounidense crecieron un 26%, mientras que las exportaciones no tradicionales –aquellas que incorporan un mayor valor agregado y generan mayor empleo– tuvieron un crecimiento del 80%”, agregó. Mediante este tratado de libre comercio, el Perú está experimentando un importante crecimiento económico, a la vez que cuenta con el privilegio de negociar con una de las economías más grandes del mundo.

Asimismo, entre las exportaciones no tradicionales destinadas a EE.UU., las del sector agropecuario representan el 30%, mostrando aún una gran ventana de crecimiento. Estas pasaron del inicial US$ 580 millones en 2009 a US$ 1,263 millones en 2014, lo que muestra un crecimiento sostenido, con una tasa de crecimiento acumulada del 118%. También, este tratado de libre comercio logró que muchísimas empresas se apalanquen con tecnología para incrementar su capacidad de producción a costos mucho menores. A tal punto que en los dos primeros años de vigencia, el monto pagado por aranceles disminuyó un 47% para nuestras importaciones.

Es así que el 20% de las importaciones de bienes de capital para la industria de nuestro país provienen de EE.UU., las cuales están absolutamente libre de aranceles. Comex Perú reportó que, de 2009 a 2014, las importaciones de este rubro pasaron de US$ 1,219 millones a US$ 1,738 millones, con un crecimiento de 43%. De la misma manera, las importaciones de bienes de capital para la agricultura crecieron un 136% en el mismo período. Del mismo modo, las importaciones de materias primas desde EE.UU. registraron un orgulloso crecimiento de 2009 a 2014. Si analizamos por ejemplo, las importaciones de materias primas para la industria, veremos que éstas pasaron de US$ 1,617 millones a US$ 2,548 millones, con una tasa acumulada de crecimiento de 58%. Además, las importaciones de materias primas para la agricultura crecieron un 18%, al pasar de US$ 186 millones a US$ 219 millones.

El TLC, desde cualquier punto de vista, ha resultado muy provechoso para nuestro comercio exterior. Es así que en la actualidad, las empresas peruanas pueden colocar sus productos con relativa igualdad de competencia, en uno de los principales mercados del mundo, como es el norteamericano. Comex Perú sugiere aprovechar esta gran oportunidad de inversión en un mercado que nos ha abierto las puertas.

Aunque es obvio que el tratado de libre comercio traería muchos beneficios, también causó malestar en algunos sectores del pueblo peruano, tales como los campesinos, quienes indicaban que serían directamente perjudicados. Ante este reclamo, el gobierno peruano ofreció subsidios para reducir el impacto del tratado sobre los campesinos, de la misma manera que lo hace EE.UU. para apoyar a sus productores. El aparente incumplimiento generó una serie de protestas reclamando lo prometido, generando incluso muertes entre los campesinos. Ante esta ola de huelgas y protestas, el gobierno de aquel entonces, de Alan García se vio obligado a imponer un estado de emergencia en ocho provincias del Perú. Esta serie de protestas se realizaron antes de que entre en funcionamiento el tratado comercial.

Finalmente, ¿Cuál es el papel del gobierno para que este emprendimiento sea exitoso?
Básicamente, el gobierno tiene la responsabilidad de implementar una política de sana competitividad a largo plazo, estampar en la mente de los peruanos una mentalidad emprendedora y  exportadora, enfatizar la descentralización, de modo que todo el Perú tenga la oportunidad de hacer empresa, favoreciendo las concesiones. Asimismo, es clave la implementación de un marco regulatorio que defienda a los pequeños empresarios y regule el accionar de los grandes empresarios, brindándoles la adecuada protección de sus inversiones, eliminado las barreras administrativas y burocráticas para facilitar la creación de nuevas empresas, desarrollando infraestructuras físicas (puertos, aeropuertos, carreteras).

lunes, 19 de octubre de 2015

Marketing 3.0

Todo es dinámico, y así es como debiera ser, para crecer hay que evolucionar, innovar, lo mismo aplica para los negocios, y por consiguiente, también para el marketing. Es evidente que todo cambio ha mejorado la vida de las personas. Un primer gran paso se dio con la agricultura, que en un momento dado fue la base de la supervivencia, y que inclusive en esta época moderna, sigue siendo una gran fuente de capital para muchos países. 

El siguiente gran paso fue la era industrial, que trajo consigo grandes fábricas y la automatización de muchos procedimientos complejos. Luego vino la era de la información, quien junto a la tecnología conformaban los activos más valiosos de las organizaciones. Pero como nada es estático, se vive ya el siguiente cambio, el cual le da más énfasis a la creatividad, a la cultura y al entorno en donde se desenvuelven las personas, en un intento por hacer de este mundo un lugar mejor.

Y, es en este contexto que el marketing 3.0 nace en una atmósfera totalmente digitalizada, donde el uso del internet, ya sea mediante celulares, redes sociales u otros medios, es casi obligatorio para hacer negocios. Si hacemos un breve repaso de cómo inició el marketing 1.0, centrado en el producto, para luego evolucionar hacia el marketing 2.0, centrado en el consumidor. La nueva forma de hacer marketing es la 3.0, donde los elementos más importantes son los seres humanos junto a la responsabilidad social corporativa, los cuales prácticamente van de la mano.

Las organizaciones ya no son máquinas automatizadas donde los empleados se comportan como robots bajo la consigna de producir más a toda costa; por el contrario, en el marketing 3.0 la cadena de producción es conformada por la asociación trabajadores, proveedores, socios, cada uno de ellos enormemente preocupados por su contraparte y comprometidos mediante similares objetivos, misión, visión y, cuya fundamental premisa consiste en proporcionar valor.

Y es que el marketing 3.0 surge casi como una respuesta ante las necesidades actuales: satisfacer a consumidores muy bien informados, los cuales tienen el poder de comparar varios productos con suma facilidad gracias a la tecnología disponible. Entonces, se va concluyendo que el valor del producto es definido por el cliente. Las personas ya no son simples consumidores, como fueron vistos en el marketing 2.0, son seres humanos íntegros con pensamiento, corazón y espíritu. Ellos buscan productos que puedan complacer sus más hondas exigencias. Es el marketing 3.0 emocional y de espíritu humano que, a su vez, es capaz de adaptarse a los constantes y rápidos cambios sociales, económicos y ambientales.

El marketing 3.0 se complementa con tres eras: (a) la era de la participación, en donde el internet junto a los avances tecnológicos han sido vitales para lograr una interactividad, colaboración y, sobre todo participación en la creación de nuevas ideas y entretenimientos mediante redes expresivas tales como blogs, redes sociales como Twitter, Facebook o redes colaborativas tales como Wikipedia, Craigslist, etc. Luego se tiene (b) la era de la globalización y del marketing cultural, en donde la globalización pone en juego uno de sus atributos más importantes como es el de integrar las economías del mundo. Esta misma fuerza hace posible que el intercambio de información e ideas se realicen de modo rápido ya sea entre naciones, empresas transnacionales o clientes alrededor del mundo. También se debe mencionar (c) la era de la sociedad creativa y del marketing de espíritu humano, donde se aspira al más alto nivel de desarrollo social en la civilización humana. Para esta aspiración también la tecnología juega un papel clave.

El marketing 3.0 evoluciona hacia donde evoluciona el comportamiento y actitud del usuario, la cual es, finalmente, la manera de centrar al consumidor como el centro de los negocios. Pero este consumidor requiere que se utilicen métodos que sean de colaboración, culturales y espirituales. Este método de colaboración es conocido como communization en inglés, el cual significa que los consumidores quieren realmente interactuar con otros consumidores, no con las empresas que producen los productos.

El marketing 3.0 maneja usuarios hacia afuera y hacia adentro de la organización: hacia adentro de la organización son los propios empleados y proveedores. Hacia afuera son los clientes. Las empresas necesitan esforzarse de la misma manera tanto a nivel de clientes externos como internos. De manera interna se demuestra en los esfuerzos que se hacen para atraer y mantener dichos talentos para las compañías, donde los empleados que se quedan a laborar buscan que la cultura y propósito humano sean los pilares que mueven a la empresa.

Las empresas que pretendan mantenerse en la cresta de la ola deben enarbolar lo que se conoce como los 10 mandamientos del marketing 3.0, los cuales son: (1) amar a los consumidores, respetando a los competidores, (2) mantener un espíritu de sensibilidad al cambio, consciente de la transformación, (3) resguardar la marca, teniendo claro la posición que se ocupa en el mercado, (4) enfocarse primero en los consumidores que brindarán mayores beneficios, (5) el producto debe ser de la mayor calidad posible, a un precio justo, (6) apertura ante todos, (7) retener y hacer crecer a los clientes, (8) antes que nada recordar que el negocio de cara al público debe ser siempre con vocación de servicio, (9) ofrece siempre la mayor calidad, al menor costo y tiempo de distribución, (10) mantener seguimiento del usuario, manteniendo la información relevante que posteriormente permita aprovechar dicha información y tomar decisiones acertadas.

Finalmente, la pregunta clave que queda por responder es: ¿es posible ser una empresa que se centre en el bien del ser humano y, a la vez, obtener gratificantes beneficios? El marketing 3.0 cree que lo primero es una necesidad que conduce a lo segundo, no hay otro camino. Además, el crecimiento y expansión de las redes sociales ha hecho posible que los consumidores sean los jueces y casi decidan el futuro de las empresas. Teniendo esto en cuenta, las compañías deben reinventarse de cuando en cuando, para conseguir el objetivo de hacer negocios en esta nueva era, la cual ha sido perfectamente delineada en el marketing 3.0.

viernes, 21 de agosto de 2015

Calidad, productividad y competitividad

productividadYa no es ninguna novedad decir que ahora los clientes son consumidores, no de un mercado aislado, sino de un gran mercado globalizado; en este mercado se enarbolan las banderas de la competitividad y la productividad, donde para mantenerse, se exige calidad y satisfacción del cliente como pilares básicos para continuar en él. Pero muchas veces esa exigencia básica no es comprendida al interior de las organizaciones y, los intentos de mejorar los procesos son sólo aves pasajeras, en los que, con el transcurrir del tiempo, se les resta importancia y se diluyen, no llegándose a consolidar en medidas que brinden mejoras al proceso. Es en esta realidad, que conviene mostrar los beneficios que trae consigo elaborar procesos de calidad, y la relación que mantiene con la productividad y la competitividad, de la mano con las metodologías que permiten esta realización.

Si se analizan los cambios que han ido asimilando las empresas, como el gran paso que se dio al reemplazar muchos trabajos manuales por grandes máquinas, las cuales transformaron el concepto de productividad, se multiplicó la velocidad para elaborar productos y se economizaron los procesos de producción, resulta fácil deducir que esta revolución de cambios trajo repercusiones sociales, políticas y culturales.

Como ya se ha dicho antes, la realidad actual nos demuestra que vivimos en un mundo globalizado e interconectado, que funciona diferente a como era antes, gracias a las tecnologías de la información; se resalta por ejemplo que ahora los productos valen más por sus elementos complementarios (diseño, publicidad) que por los elementos físicos que la componen (materiales, sabor, etc.), en el caso de una gaseosa Coca Cola por ejemplo, el valor de dicha bebida es reconocido más por la asfixiante publicidad, por su historia y el peso de la marca que por el sabor mismo de la bebida.

Otro de los grandes cambios que hemos aceptado de manera natural con el paso de los años, buscando reducción de costos, calidad, productividad y competitividad, es la tercerización de ciertos procesos, a fin de que otras empresas se hagan cargo de elaborarlos, inclusive desde cualquier parte del mundo. Uno de los inmediatos beneficios que saltan a la palestra con esta subcontratación es que permiten que las empresas se concentren en aquellos procesos claves para su producto. Un aspecto clave para que esto sea posible es el desarrollo que han logrado las tecnologías de la información y el conocimiento acumulado.

El conocimiento ha permitido que se aprenda de las experiencias anteriores y se optimice dicha experiencia en conceptos universales, tales como liderazgo, búsqueda de la calidad total, nichos de mercado, alianzas entre empresas, etc. Ya lo decía Drucker en 1999: “El activo más valioso de una empresa del siglo XX era su aparato de producción. El activo más valioso de una institución del siglo XXI, tenga o no un carácter comercial, serán sus trabajadores del conocimiento y la productividad de los mismos”.

Es así que las empresas hacen énfasis en la selección del talento humano y la motivación que se pueda lograr en éste, para que desempeñe un papel protagónico en los procesos de la empresa, dándole facultades para que desarrolle sus habilidades técnicas o directivas en beneficio de la empresa. Las empresas que no entiendan que este es el nuevo contexto sobre el cual deben avanzar, están destinadas a desaparecer, sin importar el tamaño o historia que posean.

Una de las características importantes de todo personal eficaz es la administración de su tiempo, dicho de otra manera, distribuir el tiempo de tal manera que primero se haga lo primero (Covey, 1997). La administración eficaz del tiempo se logra clasificando las actividades de acuerdo a su urgencia e importancia, lo cual puede ser gestionado a través de una matriz de administración del tiempo donde se conjugan las actividades urgentes y no urgentes versus las actividades importantes y no importantes; aquellas que recaigan sobre el cuadrante urgente e importante son aquellas a las que se debe atender primero pues casi siempre representan problemas o crisis indispensables de ser resueltas cuanto antes. Si se prioriza el cuadrante urgente pero no importante, resolveremos asuntos que al parecer son urgentes, pero que en realidad no lo son, o dicho de otro modo, son urgentes para algunas personas, quienes erróneamente las han catalogado de esa manera. Si se desvía la vista hacia estas actividades se terminará dando la impresión de ser empleados irresponsables que nunca hacen las cosas a tiempo, porque se dedicaron a satisfacer caprichos de las personas equivocadas.

Si se habla de procesos bien implementados, hablamos de procesos de calidad, pero la calidad se ha definido de múltiples maneras. Por ejemplo, Juran (1990) dijo que la calidad consiste en la ausencia de deficiencias en aquellas características que satisfacen al cliente. Algo diferente dice la American Society for Quality, al mencionar que la calidad es subjetiva y por lo tanto cada persona o sector tiene su propia definición. Por otro lado, la norma ISO-9000:2005 dice que la calidad es el grado de acercamiento de un conjunto de características a las expectativas establecidas. Pensando un poco más en la realidad del día a día, se puede decir que la calidad es percibida por el cliente cuando el bien o servicio cumple con las características que esperaba encontrar, es decir el grado de satisfacción del cliente. Esta satisfacción se da en diferentes planos, tales como la necesidad que el cliente tiene del producto, el precio, la modernidad del producto, la empresa que lo vende y la publicidad ejercida sobre el producto.

Se puede decir entonces que la calidad está íntimamente ligada a la creación de valor para el cliente, y el valor lo podemos medir tomando las características del producto, sumada a la reputación de la empresa, y sumada a la calidad del servicio que está acostumbrada a brindar la empresa, dividido entre el precio. Si esta división resulta mayor que uno, entonces el cliente recibe más que lo que paga, o lo que es igual, recibe mucha calidad. Todas estas características se conjugan fuertemente y no funcionan aisladas, por ejemplo si las características de un producto son malas, lo más probable es que la imagen de la empresa que lo comercializa esté por los suelo. Se va deduciendo entonces que la opinión de calidad debe ser respondida por el cliente, y que para lograr calidad se debe enfocar el negocio hacia la satisfacción del cliente. Todos los procesos y actividades entonces tienen su razón de ser, en función al valor que agregan para añadir calidad al bien o servicio, de otro modo no tienen sentido.

Ahora, ¿cómo se miden los resultados que obtenemos de los procesos o actividades? La productividad nos permite hacerlo, pues busca mejorar los resultados, considerando los mismos recursos destinados. Simplificando, la productividad se mide mediante el cociente de los resultados logrados entre los recursos empleados. Los resultados logrados pueden ser unidades vendidas, unidades producidas o utilidades obtenidas.

La productividad involucra eficiencia, eficacia y efectividad, donde buscar eficiencia es tratar de optimizar los recursos evitando que éstos se desperdicien y, buscar eficacia involucra optimizar los recursos para cumplir los objetivos establecidos. Por otro lado, buscar efectividad involucra que los objetivos propuestos son importantes y deben ser realizados de todos modos.

Con respecto a la competitividad, surge la pregunta ¿qué es lo que hace competitiva a las empresas? Pues es la forma de proceder de las empresas. Ya decía Michael Porter que la competitividad consistía en la visión interna y en la influencia que sobre la empresa ejercían las fuerzas externas. Para lograr competitividad, las empresas deben tener bien claro lo siguiente: cuál es el rumbo de la empresa, rumbo que, para lograrse, debe ser apoyado con fuerte liderazgo; centrarse en el mercado y en sus clientes; lograr un proceso de alineación de procesos, personal, información, conocimiento y responsabilidad social.

lunes, 6 de julio de 2015

Teoría de Colas

pinguinosCotidianamente, hay muchas situaciones en las que lamentablemente se tiene que perder el tiempo haciendo cola para poder ser atendido. Situaciones tales como hacer cola en un peaje para efectuar el pago correspondiente, hacer cola en un supermercado para cancelar en caja por los productos deseados; en una computadora, un programa tiene que esperar para efectuar su labor, porque el procesador está atendiendo otras tareas; en internet, no se puede acceder a una página web, porque el servidor está atendiendo peticiones de otros usuarios, y entonces hay que esperar hasta que se reduzca la cantidad de peticiones; en un negocio de lavado de carros, la carga de trabajo y la cantidad de recursos atendiendo, determinan en cuánto tiempo te podrán atender. La pregunta es ¿por qué ocurren las colas? Ocurren porque la demanda del servicio supera la capacidad de atención de quienes brindan dicho servicio (para decirlo de modo simple, por ahora). Se dice que en promedio las personas pasan cinco años de sus vidas haciendo colas.

El hecho de hacer colas no ha aparecido de súbito en los tiempos modernos debido a la conglomeración de personas en las ciudades, para nada. Toda la vida han existido colas; frente a esto, cada civilización le buscó soluciones empíricas y medianamente efectivas para atenuar la problemática que afrontaban. De hecho, inclusive se puede afirmar que las personas están casi acostumbradas a hacer cola para recibir atención. Felizmente han surgido estudiosos decididos a enfrentar este problema de manera científica.

La teoría de colas o, como se conoció en un principio, Teletráfico en ingeniería de Telecomunicaciones (A.K. Erlang, 1909), lanza su primera publicación llamada La teoría de probabilidades y las conversaciones Telefónicas. Erlang, por aquel entonces era empleado de una compañía telefónica y tenía asignada la tarea de recomendar el número de líneas de atención, tomando en cuenta la frecuencia y duración de las llamadas. Si bien es cierto que éste fue el comienzo del estudio de la teoría de colas, no fue sino hasta los años 50 que empezaron a difundirse gran cantidad de trabajos relacionados a Teoría de colas en diversos campos.

La teoría de colas, a través de modelos, permite representar comportamientos en los cuales el factor común es el tráfico que se genera, y presenta los aspectos que originan que se generen estas colas y la manera de afrontarlas. Hay características que cumplen todos los sistemas de colas, empezando con (a) El patrón de llegada, el cual en la vida real es aleatoria, es decir, a la cola no llegan clientes cada x tiempo exacto, a veces llegan solos, a veces en grupo, hay que tomar en cuenta también que algunos clientes se cansarán de esperar en la cola y terminarán retirándose, lo cual añade más variables a tener en cuenta al realizar el cálculo de servidores. (b) El número de personas en la cola, para este caso se toma en cuenta el estilo con el cual se ordenan las colas: en la mayoría de casos la atención se realizará tomando en cuenta el orden de llegada, es decir, se atiende a quien llega primero, en otros casos, se formarán varias colas dando preferencia a ciertos clientes, basándose en criterios tomados en cuenta. (c) El número de personas que están siendo atendidas. (d) El tiempo que se invierte esperando en la cola. (e) El tiempo que se invierte siendo atendidos. (f) La capacidad del sistema, toma en cuenta la posibilidad de desbordamiento de las colas por exceso de clientes aglomerados esperando su turno de ser atendidos. (g) El número de servidores, la capacidad de múltiples servidores ante una única cola es una característica importante, éstos tienen demostrado mejor rendimiento antes que aquellos sistemas donde se hacen múltiples colas, cada uno con su propio servidor, lo cual da la posibilidad de tiempos flojos de algunos servidores, mientras que colapsos en otros.

Independientemente de lo optimizado y bien elaborado que pueda estar, un sistema de colas puede ser tan complejo como lo requiera el servicio, puede funcionar mediante una sola etapa o puede ser multietapas, es decir, puede necesitar pasar por varias colas para completar el servicio. El pago de peaje es un sistema de una etapa: se hace la cola para pagar, no hay más. Caso diferente es el servicio de lavado de autos: es un sistema de múltiples etapas: se hace una cola inicial para pagar por adelantado el servicio, luego viene la cola para el aspirado del carro, luego la cola para el ansiado lavado del carro, finalmente hay que dirigirse a otra cola para el secado.

¿Cómo sabemos si en un negocio los clientes están siendo bien atendidos? ¿Cómo se mide el rendimiento de un sistema? Básicamente se deben establecer métricas para detectar la calidad del sistema o, en todo caso, diseñar un nuevo sistema que cumpla los requisitos para ser óptimo. El costo de implantar un nuevo sistema debería permitir la recuperación de dicha inversión, mediante el servicio que se brinda. Para lograr esto, es necesario que se analicen fuertemente y se obtenga información de tres tipos principalmente: ¿Cuánto es el tiempo de espera de los clientes? ¿Cuál es la cantidad de clientes esperando? ¿Cuál es el tiempo ocioso de quienes atienden?

Para responder estas preguntas, es necesario recopilar información. La forma de recopilar esta información es importante, antes que registrar información cada cierto período de tiempo, es recomendable capturarla mediante eventos que se suscitan en el momento, es decir, se registra la información cada vez que ocurre. Por ejemplo, registrar cada cuánto tiempo llega un cliente y cuánto tiempo tardan en atender a este cliente. La mayoría de modelos aceptan que el tiempo entre llegada de clientes sigue el flujo de una distribución de Poisson. También se acepta que el flujo de atención de los clientes, cuando quienes atienden están ocupados, sigue una distribución de Poisson y el tiempo que dura la atención, sigue una distribución exponencial.

Sin embargo, debemos precisar que no siempre se solucionan los procesos con distribuciones de Poisson o exponenciales, algunos procesos funcionan mejor con otras distribuciones. Para trabajar con la distribución adecuada, es requisito conocer a plenitud cada una de ellas, lo cual nos abre un abanico de oportunidades y de aprovechamiento; asimismo, igual de importante es conocer el procedimiento para determinar cuál es la distribución que se ajusta a cada situación.

Empecemos conociendo la notación de Kendall, que permite reconocer características de un modelo simplemente analizando las letras que la conforman. La estructura general es la siguiente: A/B/X/Y/Z/V; donde A representa la distribución de llegadas y puede tomar los valores: M, para distribuciones exponenciales; D, para distribuciones determinísticas y G, para llegadas generales; B refiere a la distribución de servicio, y puede tener las mismas distribuciones que A; X representa la cantidad de servidores; Y representa el número máximo de clientes que puede soportar el sistema, si es infinita no es necesario mencionarla; Z es la disciplina, de igual forma se omitirá si es FIFO.

A continuación se hará un repaso por los diferentes modelos de colas simples: (a) El modelo de cola simple, también conocido como M/M/1, este esquema trabaja bajo un único servidor y tanto la tasa de llegada como la de servicio siguen la distribución de Poisson. (b) El modelo de colas en paralelo o M/M/C, es el esquema bajo el cual más de un servidor atiende a los clientes con la misma calidad. (c) Modelo de cola con servidores en paralelo y límite de capacidad o M/M/c/K, útil para los casos en los que no se puede atender a todos los clientes. En la nomenclatura, el límite de atención es representado por K. (d) El modelo de Erlang o M/M/C/C, esta distribución atiende casos en los que la cola de clientes debe coincidir con el número de servidores, en otras palabras: nunca debe existir cola en la atención. Funciona independientemente de la distribución usada en el servicio. (e) Modelo de cola sin límite de servidores o M/M/∞, especialmente útil para situaciones en las que el número de servidores no tenga que tener un límite, por ejemplo en los casos en que los clientes acceden a internet. (f) Modelo de colas con límite en la fuente, para casos en los que la cola tiene un número finito de clientes. (g) Modelo de colas con impaciencia, para los casos en los cuales los clientes se integran a la cola sólo si ésta no está saturada, o si les alcanza el tiempo para esperar. (h) Colas que no siguen el modelo de Poisson o Exponencial o G/G/c, para casos por ejemplo del modelo M/G/1, donde los clientes aún llegan con una distribución de Poisson, pero son atendidos mediante un proceso más general.

Finalmente, se han analizado modelos para representar cualquier situación que involucre hacer cola. Con estos modelos, es posible determinar la capacidad de servicio que necesita un sistema para atender eficazmente a sus clientes. Como es de esperarse, no es una tarea fácil, pero es más barato simular un sistema que hacer cambios en el sistema sin saber si solucionará los problemas. Los resultados que brinda la teoría de colas se aplican en todos los ámbitos, sea transportes, telecomunicaciones, negocios de diversas índoles, comercio, industria, etc. Por ejemplo en el trabajo final se demostró la utilidad de aplicar la teoría de colas a un negocio de lavado de carros, el cual inicialmente, al poseer sólo 6 servidores en la sección de secado de carros, originaba que se congestione el negocio, y los tiempos de atención rápidos que se ganaban en las primeras etapas, se pierdan por el retraso en el secado.

Al incrementar en tres servidores más se demuestra la eficiencia que esto arroja, al lograr una utilización de mano de obra superior de 89.16%, lo cual antes era de 73.04%, lográndose una mejor atención y un mejor aprovechamiento de los recursos que participaban en el proceso de lavado de carros.

miércoles, 1 de julio de 2015

Equilibrio de Nash

nash¿Alguna vez, antes de tomar una decisión, ha analizado si saldrá airoso ante la incierta respuesta de un contrincante? De repente sí, lo cierto es que siempre se debiera proceder analizando posibles respuestas. Inclusive los juegos simples que conocemos, demuestran que detrás existe toda una estrategia basada en las decisiones de los demás hagan y que influirá en el desenlace de la competencia. Pero esta lucha de estrategias se repite en la vida real, en situaciones económicas, donde ya no es un juego, lo cual la hace importante para el análisis económico.

Están los juegos cooperativos, donde los jugadores pueden comunicarse entre ellos, negociar los resultados y que las ganancias se repartan entre los jugadores. También destacan los juegos no cooperativos, donde se prohíbe negociar entre jugadores, en este grupo tenemos el juego «el dilema del prisionero», donde las estrategias deben decidirse dependiendo de la elección del otro jugador.

El «dilema del prisionero», consiste en la situación de dos delincuentes con una pena de 10 años de cárcel. Sólo se les puede inculpar de un delito menor, cuyo castigo es de 2 años de cárcel. Se les ofrece la alternativa de reducir su pena si acusan al otro. Para esto, ellos no pueden comunicarse entre sí. Las alternativas de decisión de los presos son: acusar o permanecer en silencio, y los posibles resultados son 4, en base a lo que decidan. Una de las opciones es traicionar, la cual pareciera la alternativa más gananciosa.

El dilema del prisionero inclusive permite evaluar el comportamiento de empresas rivales en un mercado de oligopolio, ya que los resultados de cada una dependerán de lo que hagan las demás, resultando un choque de estrategias. Ya desde hace mucho, los economistas empezaron a elaborar modelos para estudiar el juego de estrategias. Estos estudios brindaban una buena lectura de la realidad, evaluando casos como cuando unas pocas empresas dominan un mercado o cuando varios países tienen que establecer acuerdos sobre política comercial o cuando en el mercado de trabajo las partes tienen que negociar los salarios. En estos casos la teoría de juegos es la precisa para entender estas realidades.

Si analizamos un mercado oligopólico, donde los resultados que obtiene cada una dependen no sólo de su comportamiento sino del comportamiento de las demás. El problema para las empresas, por tanto, implica una elección estratégica que tenga en cuenta el posible comportamiento de las demás. El funcionamiento de estos mercados puede ser modelado con la teoría de juegos.

Nash, muy joven todavía, pudo encontrar una solución al problema de negociación entre dos agentes asumiendo que la utilidad es no transferible, mientras que, como hemos apuntado, antes se asumía que la utilidad era transferible.

Su mayor aportación fue el desarrollo de una definición de equilibrio general en todos los juegos de horizonte finito para un número cualquiera de jugadores. Este concepto de equilibrio, es lo que hoy en día se conoce como Equilibrio de Nash, por la que obtuvo el Premio Nobel.

Para dar esta definición, Nash tomó los juegos en forma normal y modeló un proceso de negociación entre personas como un juego simple, donde cada agente elige su estrategia óptima. Es así que propuso dos interpretaciones para entender la definición de su equilibrio: una, basada en la racionalidad de los participantes y la otra, en el comportamiento estadístico de poblaciones. La primera interpretación establece que cada jugador puede calcular los pagos esperados de cada una de las posibles estrategias de sus contrincantes y ver cuál es la estrategia óptima de los otros jugadores. Si todos los agentes hacen lo mismo, todos esperan el mismo equilibrio de Nash y ninguno tiene incentivos a desviarse y jugar otra estrategia distinta.

Además de aportar un nuevo concepto de equilibrio en los juegos de negociación en forma normal, Nash demostró, aplicando el teorema del punto fijo de Kakutani, que todos los juegos con un número finito de jugadores y un espacio de estrategias finito para cada jugador,

tienen al menos un equilibrio de Nash en estrategias mixtas, resultado conocido como el Teorema de Nash.

Nash también aportó un buen número de ejemplos económicos interesantes de problemas de teoría de juegos, en un trabajo publicado en 1951 en Annals of Mathematics, bajo el nombre de «Noncooperative Games», y que recoge buena parte de su tesis doctoral. En este trabajo, Nash incluye un juego con múltiples equilibrios, (como el de la batalla de los sexos), otro juego con un equilibrio que es Pareto ineficiente (como el dilema del prisionero), y un juego con un equilibrio inestable.

Dos aspectos que sobresalen en este trabajo y que Nash hace notar son que elimina dos restricciones que se imponían en la literatura previa: la utilidad transferible y que los juegos fueran de suma cero. Nash, en su último trabajo establece una aplicación donde transforma un proceso de negociación entre dos personas en un juego simple de demandas simultáneas. La principal aportación de este estudio es que Nash es capaz de transformar un juego cooperativo, con múltiples equilibrios de Nash, en otro no cooperativo, donde el autor da un argumento que determina un único equilibrio estable.

La argumentación que dio Nash en esta aplicación anticiparía un poco lo que serían los refinamientos del equilibrio de Nash (el equilibrio perfecto en subjuegos, el equilibrio correlacionado, etc.), que se desarrollarían más tarde, como respuesta al problema de que algunos juegos tienen varios equilibrios de Nash, y es difícil predecir el resultado del juego. Nash marcó un antes y un después en la teoría de juegos. Este autor utilizó su teoría en juegos no cooperativos bajo supuestos de información completa, un entorno estático y basándose en la forma normal de Von Neumann. Los estudios posteriores a Nash tomaron como punto de referencia su concepto de equilibrio y su metodología, pero introduciendo nuevas condiciones en los problemas que se plantean.

La primera desviación del marco genérico que creó Nash, fue la que surgió al considerar juegos dinámicos, es decir juegos que se repiten un número finito o infinito de veces, manteniendo el resto de condiciones, es decir, agentes plenamente racionales e información completa. A la hora de estudiar este tipo de juegos dinámicos aparecieron las limitaciones de la forma normal de Von Newman, lo que llevó a un estudio más profundo

de la forma extensiva, llevada a cabo por Kuhn en sus trabajos de 1950 y 1953. Aunque los juegos de decisiones sucesivas pueden representarse bajo la forma normal, los aspectos dinámicos del juego resultan más fáciles de analizar si se representan en forma extensiva.

Son ejemplos clásicos de juegos dinámicos el modelo de Stackelberg (1934) o el modelo de negociación de Rubinstein (1982). El problema de algunos juegos dinámicos es que incorporan muchos equilibrios de Nash, alguno de los cuales se basa en promesas o amenazas no creíbles, que resultan irracionales cuando se analizan en forma extensiva. Reinhard Selten (1965) analizó este problema y, como respuesta, desarrolló el primer refinamiento del concepto del equilibrio de Nash: el equilibrio de Nash perfecto en subjuegos. Este concepto de equilibrio permite obtener los equilibrios de Nash, para juegos tanto en forma normal como en forma extensiva, que pasan la prueba de la credibilidad.

La segunda desviación del marco teórico de Nash, fue desarrollada por Harsanyi (1967, 1968), quien consideró juegos de información incompleta, o lo que es lo mismo, juegos donde existen asimetrías de información entre los jugadores, y que pueden ser considerados en un marco estático o dinámico. A este tipo de juegos de información imperfecta, se les denomina «juegos bayesianos» y se caracterizan porque al menos un agente no conoce la función de pagos de los otros agentes.

Para resolver este problema, Harsanyi estableció que el agente que no conoce las ganancias de otro agente, tiene ciertas expectativas de que ese agente sea de un tipo u otro/s. De esta forma, dicho agente asigna probabilidades a cada uno de los posibles tipos de contrincante, caracterizados por las funciones de ganancias esperadas. Harsanyi

fue capaz de dar respuesta a estos juegos en un entorno estático, refinando de nuevo el equilibrio de Nash, y definiendo el concepto de equilibrio bayesiano de Nash. Un claro ejemplo de un juego bayesiano estático es el tipo de juegos que se producen en las subastas de sobre cerrado. En este tipo de subastas los agentes conocen sus propias valoraciones de los bienes, pero no conocen las de los demás. De esta forma cuando escriben su apuesta en el sobre cerrado, es decir, cuando tiene lugar el juego, ningún agente sabe cuáles son las valoraciones del bien de los otros.

Como hemos dicho, los juegos bayesianos pueden ser estáticos y dinámicos. Para resolver los juegos bayesianos en un entorno dinámico se refinó el concepto de equilibrio bayesiano, desarrollándose el concepto de equilibrio bayesiano de Nash perfecto en subjuegos, y estableciendo una similitud equivalente a la del equilibrio de Nash perfecto en subjuegos para juegos estáticos con información completa. David Kreps y Robert

Wilson (1982) aportaron el aspecto crucial del equilibrio bayesiano perfecto en subjuegos: formalmente el equilibrio no solo viene caracterizado por una estrategia para cada jugador, sino también se incluyen unas creencias para cada jugador en cada conjunto de información en el que el jugador tenga que jugar. Estos dos autores definieron el equilibrio secuencial, un concepto de equilibrio equivalente al equilibrio bayesiano perfecto en muchas aplicaciones económicas, pero en algunas otras es un concepto más restrictivo.

Precisamente, los ejemplos económicos más interesantes tienen lugar para juegos bayesianos que se desarrollan en un entorno dinámico y se aplican fundamentalmente en los juegos de señalización. Los juegos de señalización sirven para describir problemas económicos reales y su literatura comienza con el modelo de Spence (1973) que se produce entre un trabajador y un empresario. El trabajador tiene una información privada sobre su productividad, que el empresario desconoce, con lo cual es necesario que el trabajador emita una señal que, en este caso será la educación, para indicar su tipo. Según la señal emitida,

el empresario elige una determinada acción, que será el nivel salarial pagado al trabajador.

Es indudable la importancia del equilibrio de Nash en los últimos tiempos y es que estamos ante un instrumento muy útil a la hora de predecir el comportamiento de los agentes. Otros dicen que el equilibrio de Nash en concreto y, en general, el marco metodológico de la teoría de juegos, debería utilizarse como herramienta para evaluar teorías en todas las ciencias sociales.

domingo, 7 de junio de 2015

Costeo basado en actividades (ABC)

abcEl mundo está viviendo cambios vertiginosos: por un lado, la competencia globalizada, y por otro, el desmesurado crecimiento tecnológico, ambas características brindan a las empresas que sepan aprovecharlo, la posibilidad de situarse en ventaja ante sus competidores. Las organizaciones que adopten tecnología de punta le inyectan a sus procesos mucha más velocidad y calidad, lo cual permite que los usuarios finales reciban un mejor producto por el mismo o inclusive menor precio. Sin embargo, esta misma tecnología es la que facilita la competición global: ahora las empresas no sólo deben competir con el medio local, sino contra inmensas transnacionales que ingresan al mercado de manera agresiva y con precios realmente competitivos.

Es en este contexto que, cada centímetro de ventaja que se pueda obtener de la competencia, cada costo ahorrado, cada cliente captado es crucial. Nadie se puede dormir en sus laureles, pues corre el riesgo de ser desterrado. Las empresas se preguntan ¿cómo mejorar la productividad y al mismo tiempo reducir los costos? Dentro de los escenarios que las empresas pueden controlar están las actividades. Si se analizan las actividades y se busca potenciar a aquellas que aportan más valor y, del mismo modo, eliminar a aquellas que, por su poca importancia o nula colaboración en el proceso de entrega al mercado de productos o servicios, no son necesarias, se estará dando pasos agigantados.

La siguiente incógnita es ¿cómo se llega a este mundo ideal? Pareciera que del dicho al hecho hay mucho trecho, pero realmente no es así, existe una administración basada en costos, la cual toma a las actividades del ciclo completo de producción, como la base para gestionar un eficiente sistema de control de costos. Esta gestión debe buscar la excelencia y la mejora continua de las actividades participantes, bajando los costos, de manera que se reduzcan los vacíos entre actividades con diferentes áreas de la misma empresa.

El Costeo basado en actividades considera que las empresas funcionan en base a actividades, y que las actividades son las piezas atómicas de un engranaje final llamado producto, el cual ha atravesado un proceso de conversión de materias primas, mano de obra y tecnología inyectada, por ello el centro será el análisis de las actividades, así como su costo, el rendimiento que genera y el resultado final.

El punto de inicio consiste en identificar las actividades importantes de la empresa, los cuales nos van a servir como mapa de ruta para entender el negocio, así como sus costos. Este listado de actividades se obtiene de cada unidad organizacional, las cuales deben indicar claramente sus objetivos y cuántos recursos utilizan para lograr lo propuesto. El siguiente paso consiste en determinar el costo de cada actividad, el cual incluye los factores de producción consumidos. Participan empleados, materias primas, maquinarias y demás factores que intervengan en el proceso de producción. Toda actividad que participe en la generación del producto tiene un costo. Algunas actividades son fáciles de rastrear debido a que los recursos se asignan sólo a dicha actividad. Sin embargo, hay recursos que se deben distribuir entre varias actividades, para la correcta asignación de costos hacia dichas actividades se requiere de un meticuloso análisis de recursos.

El costeo basado en actividades enarbola el principio de que las actividades consumen recursos y se enfoca en rastrear los costos de elaboración de productos, en el servicio al cliente. Para esto se identifican las actividades y su output se dedica al objeto el costo. Es así que se forma la lista de actividades o bill, la cual describe cuáles son las actividades que consumen cuáles productos. De esta manera se puede evaluar la rentabilidad del producto, inclusive con una proyección a largo plazo. Luego de asignar las actividades, viene el proceso de mejoramiento continuo de las actividades. El método que se utilice implicará la inversión que se pueda realizar y depende del tipo de administración y capacidad de control, los cuales finalmente deben contribuir a que se colmen los objetivos planteados por la organización.

Existe una serie de pasos que permiten determinar los costos asignados a las actividades, de los cuales destacan: a) Análisis de las actividades, lo cual permite identificar aquellas actividades importantes relacionadas tanto al proceso de producción como aquellas de apoyo, para luego definir claramente el costo y performance de cada una. Es así que esta recopilación de actividades permite desmembrar los procesos de una organización compleja en actividades individuales, sencillas de hacer seguimiento.

Teniendo este mapa de actividades, las organizaciones tienen un claro panorama para entender en qué se están consumiendo los recursos y decidir si realmente aportan a la consecución de los objetivos establecidos. b) Estudio del ciclo de vida de un producto, inicia con el reconocimiento de la necesidad del cliente, pasando por la investigación, el diseño, planeación, desarrollo, etc. Estudiar el ciclo de vida nos permite gestionar los costos a través de las diferentes etapas y períodos de tiempo.

Si los costos no son comprendidos a lo largo del proceso, pueden mal interpretarse, lo cual generaría un control de costos errados. c) Medición de costos de las actividades, esto se logra determinando los costos de los recursos de cada actividad. Dichos recursos pueden ser las personas, las máquinas y sus repuestos, computadoras, etc. d) Performance de medida de las actividades, realizada a través de estadísticas, tanto operacionales como financieras. Así se puede determinar la efectividad del trabajo realizado, comparados desde ópticas de calidad, tiempo y costo.

En otras metodologías de control de costos hay problemas de criterios de asignación de costos indirectos, y es que priorizan los elementos con mayor volumen de producto, de materia prima u horas de trabajo, es decir, metodologías que priorizan el volumen: a más volumen más costos.

Luego se va deduciendo que la causa no está determinada sólo por el volumen, sino por factores más complejos, tales como: niveles de planificación, tareas de afinación, investigación y desarrollo, control de calidad, los niveles de supervisión, el tipo y volumen de postventa, la existencia de diferentes productos y procesos, la complejidad del producto y del proceso. Es así que se detectan grandes costos para productos con poco volumen, por ejemplo: poca producción de un determinado producto, pero que tiene procesos de control de calidad carísimos, grandes niveles de planificación y fuertes servicios de postventa, los cuales generan costos muy altos para tan poca producción.

Aquí la metodología de costeo ABC entra en acción, intentando mejorar la forma de asignación de costos indirectos así: las empresas realizan funciones tales como planificar, comprar, vender, pagar, cobrar, etc. Para cumplir con cada una de estas funciones, se deben realizar una serie de actividades de manera cotidiana. Además, cada una de esas actividades consume recursos tales como personas, maquinarias, tecnología, etc. Dichas actividades no son opcionales, son necesarias en el proceso. Entonces, el primer paso consiste en cuantificar cuánto cuesta realizar cada actividad. El segundo paso consiste en encontrar un vínculo entre las actividades y los productos que requieren dichas actividades.

El tercer paso consiste en asignar el costo de cada actividad al producto que requiere la actividad. Este paso permite ver a la organización de manera más horizontal. Por ejemplo la función comprar se desdobla en varias actividades, como solicitar cotizaciones de precios a los proveedores, analizar las propuestas, asignar la compra a un proveedor generando la orden de compra, etc. Cada una de esas tareas consume diferentes recursos. Además cada una de estas tareas puede requerir más costos para determinado producto y para otros menos costos. Entonces, no debería asignarse los mismos costos para todas las actividades. Para lograr la correcta asignación de costos a cada actividad se requiere mayor procesamiento y costo, sin embargo es mucho más exacto.

Entre las ventajas de implantar esta metodología, es que se podrá determinar la causa final de cada actividad, es decir, responde preguntas tales como ¿para qué realizamos esta actividad? ¿Vale la pena seguir manteniendo la actividad? ¿Será posible tercerizar esta actividad? Como observa, no se trata sólo de un tema de asignación de costos a actividades, sino que es un asunto de gerenciamiento, es decir se intenta mejorar la eficiencia, con la posibilidad de bajar los costos de las actividades, lo cual es una preocupación gerencial.

Antes de implantar la metodología a la empresa, debemos respondernos preguntas tales como ¿el tremendo esfuerzo a emprender es justificado? Para esto, es muy conveniente determinar con cuidado -en el corto plazo- cuál es el verdadero impacto de los costos indirectos. La metodología aplica sobre todo para grandes corporaciones, que incursionan en varios rubros y que poseen una estructura de costos grande y complicada de manejar.

Finalmente, el gran aporte del costeo ABC radica en la capacidad de medir e intentar responder cuál es el origen de cada costo. No es una metodología que distribuye los costos, su fin es asignar costos a quien le corresponde. El costeo ABC no es un mundo aparte, simplemente intenta medir de manera razonable, lo que tal vez no se esté haciendo bien en su organización, si los criterios actuales se diluyen en el camino o son arbitrarios, esta metodología corrige esas falencias, con una visión orientada al largo plazo.

sábado, 6 de junio de 2015

Un futuro de cristal

A los pasos agigantados que la tecnología crece diariamente, ya no debe sorprendernos el futuro que nos espera, sin embargo, siempre es interesante ver cómo están proyectando las empresas sus productos innovadores.


viernes, 27 de marzo de 2015

Las estructuras de la mente

Mind structure¿Es posible determinar si es más inteligente un científico famoso, un orador de talla mundial o un deportista de primer nivel? La teoría dice que sí, que la forma de determinar la inteligencia de las personas es mediante un test de CI o de coeficiente intelectual. Dicho test arrojará un puntaje por cada evaluado y quien alcance la mayor nota, será el más inteligente.

El pensamiento crítico nos autoriza cuestionar la existencia de una única inteligencia, en ese sentido, ponemos nuestras cartas sobre la mesa y los invitamos a hacer uso de su capacidad analítica, a fin de que aperturen su mente para escuchar esta propuesta.

En las próximas líneas se argumentará una teoría relacionada a las estructuras de la mente: la teoría de las múltiples inteligencias, el cual sostiene que no es correcto medir con los mismos parámetros a personas con diferentes cualidades, porque es ventajoso para unos y perjudicial para otros. Para ser justos, esta teoría no es nueva, sino que, con algunas modificaciones, ha recuperado vigencia y el derecho de ser evaluada nuevamente. Está claro que, dada la ambición de esta propuesta, encontrará detractores e intentos por derrumbarla, pues su triunfo significaría reformular el proceso de cognición humana.

Haga un recorrido mental, viaje al pasado, piense en los cazadores primitivos, en los jefes de aldeas, en los músicos, en los arquitectos de fortalezas, en los líderes políticos, en los científicos, en fin, la lista es interminable. Cada uno con características muchas veces únicas, pero a la vez con limitaciones serias como incapacidad para expresarse verbal o físicamente. Estas limitaciones nunca fueron pretexto para dejar de resolver problemas ni para innovar cuando había que hacerlo, y esta descripción es, precisamente, el concepto de la inteligencia humana: en resumen, la capacidad para resolver problemas y crear nuevos productos.

Es claro que no podemos confundir ciertas habilidades con inteligencia, por ello debemos establecer algunos criterios para aceptar algo como inteligencia. Dichos criterios se manifiestan en: (a) la presencia de niños especiales, promedios y niños prodigios o excepcionales, nos revelan niveles de desempeño en determinados campos; en un extremo, las capacidades están totalmente aisladas y en otro, se muestran espléndidas. Entonces, la ausencia de una capacidad, demuestra, mediante la negación, de que al otro extremo existe una gran capacidad; (b) ante determinada información de entrada, algunos cuerpos se activan o disparan de modo natural. Por ejemplo, la sensibilidad que sienten algunas personas sintiendo la música, es inteligencia musical; (c) la inteligencia -como todo- ha evolucionado, los períodos de aprendizaje han sido vitales, y las mutaciones han otorgado ventajas en cuanto a adaptabilidad; (d) apoyo de hallazgos psicométricos, los experimentos psicológicos (lógicos, lingüísticos, espaciales, personales, etc.) brindan pruebas irrefutables de que se destacan más en algunas capacidades; (e) susceptibilidad a la codificación de sistemas simbólicos (lenguaje, pinturas, matemáticas, etc.), es la facilidad con la que se adaptan a estos sistemas que representan información precisa y puntual.

Este ensayo rechaza rotundamente la concepción tradicional de inteligencia única medida mediante el test de CI. Antes de exponer con fuerza nuestros argumentos, recordemos brevemente los antecedentes de la inteligencia en fases secuenciales: (a) Teorías legas, cuando no existía definición científica de la inteligencia, se calificaba a las personas como “brillantes”, “tontos” y hasta “sagaces”, un ejemplo es Thomas Alva Edison, quien fue llamado sagaz, nunca inteligente; (b) Enfoque psicométrico común, desde hace un siglo atrás se abordaron con fuerza múltiples intentos por medir la inteligencia, es así que nace el famoso test de CI, el mismo que adquiere demasiado protagonismo; (c) Pluralización y jerarquización, donde surgen psicólogos especializados en estudios de la inteligencia (Charles Spearman y Lewis Terman), los cuales sostienen que la inteligencia era la medida de la capacidad general.

En una segunda etapa, nuevos psicólogos (L. L. Thurstone y J. P. Gilford) contradicen la inteligencia general, afirman que la inteligencia es la manifestación desarrollada de un único factor en cada persona, si no tienes esa capacidad, no eres inteligente. Con el paso de los años se añadieron dos nuevas tendencias: (d) Contextualización, donde se sostiene que existe una fuerte interacción entre la inteligencia y el contexto donde se vive. (e) Distribución, la cual defiende la relación de aprovechamiento que se establece entre la persona y las cosas para repotenciarse; es decir, la inteligencia es mejor aprovechada cuando la persona se apoya de artefactos para potenciar sus capacidades. Por ejemplo una computadora, cuadernos, red de contactos; en suma, el valor de las herramientas que se aprovechan.

Retomando la teoría de las inteligencias múltiples: las objeciones no se hicieron esperar, los detractores sostenían que si bien es cierto las personas poseen diferentes capacidades y talentos, no debe llamarse a esto inteligencia, pues el término inteligencia debe reservarse para capacidades más generales. El hecho es que al formar la definición de inteligencia, sólo la vinculan a capacidades relacionadas con la lógica o las matemáticas, lo cual es inexacto, porque están ignorando la inteligencia de los grandes músicos, de los jugadores de ajedrez, de los grandes líderes, de los atletas, etc.

A continuación describimos las inteligencias múltiples:

· Inteligencia lingüística, entiéndase como el grado superlativo de sensibilidad que poseen algunas personas (poetas, escritores, etc.) para plasmar con gran intensidad las emociones y figuras de lo que se quiere transmitir.

· Inteligencia musical, de todos los dones, éste es el que surge a más temprana edad. Según los conocedores, quienes poseen esta inteligencia, están todo el tiempo combinando tonos musicales en su cabeza, una capacidad que no todos poseen.

· Inteligencia lógico matemática, esta forma de inteligencia consiste en una confrontación con los objetos, en el ordenamiento y evaluación de cantidades. Las matemáticas despiertan tales pasiones que muchos no se imaginan vivir sin ella, como decía Bertrand Russell:

Me inicié con Euclides, con mi hermano como tutor, a, la edad de once años. Fue uno de los grandes acontecimientos de mi vida, tan deslumbrante como el primer amor. Yo no había imaginado que hubiera nada tan delicioso en el mundo... Desde ese momento hasta que... cumplí los 38 años, fue mi principal interés y mi principal fuente de felicidad... Las matemáticas no son humanas y no tienen nada que ver con este planeta ni con todo el universo accidental, puesto que, como el Dios de Spinoza, no nos devolverá el amor.

· Inteligencia espacial, consiste en la capacidad para resolver problemas que presentan relaciones entre formas o bien representadas gráficamente o explicadas verbalmente. Muchas veces los problemas involucran entender y construir representaciones mentales, para luego recién proponer una solución.

· Inteligencia cinestésico corporal, la característica principal es la habilidad que poseen para utilizar su cuerpo, ya sea con propósitos expresivos o para cumplir objetivos. En este tipo de inteligencia están los actores, danzantes, atletas, etc.

· Las inteligencias personales, consiste en el conocimiento primero de sí mismo, y luego de los demás, como la ruta correcta para lograr el entendimiento personal, de los problemas y sentimientos de los demás, para finalmente lograr los objetivos personales

En cada una de estas capacidades, el pensamiento crítico juega un rol vital: antes de escribir, el escritor decide qué poner y qué no, basado en los juicios de su razón; el músico combina las melodías, pero prefiere una combinación según sus parámetros; el matemático, siguiendo los planteamientos adecuados, concluye en teoremas; el actor va puliendo su arte, con la práctica y un análisis concienzudo de su desempeño.

Continuemos. Si confrontamos a grandes músicos y expertos en lógica y matemáticas en un test de CI, es evidente quién saldrá airoso, pero si el examen refiriera a temas vinculados a música, también sabemos quién sacará mayor puntaje. ¿No se supone que una persona inteligente puede rendir más que un músico? Entonces ¿Hay una medida única que nos pueda responder esta incógnita? Pues no la hay, dado que cada capacidad se mide de manera particular, lo que equivale a decir que cada inteligencia se mide de con diferentes parámetros. ¿Podemos negar por ejemplo, la inteligencia de una niña que a los 15 años ya domina la computadora y puede crear complejas obras de arte con ayuda de un sintetizador? Se hace evidente entonces que los métodos de determinar la inteligencia no se han pulido lo suficiente, aún falta trabajar mucho en esa dirección, y de hecho se está trabajando e invirtiendo en investigación; muchos están volteando sus miradas hacia la teoría de las múltiples inteligencias y están dando ya el beneficio de la duda.

Si bien es cierto, se sostiene que hay inteligencias humanas relativamente autónomas, también es cierto que hasta ahora no se ha podido determinar la cantidad exacta ni la naturaleza y el alcance de cada una. Sin embargo, es posible detectar, cuando aún son infantes, el perfil intelectual; una vez descubiertas estas inclinaciones, se podría canalizar su educación hacia programas que le permitan desarrollar dichas capacidades en busca de un verdadero provecho.

Es así que se rechaza rotundamente el hecho de que se intente medir la inteligencia humana mediante preguntas que miden velocidad de respuesta y chispazos de breve razonamiento, como lo hace el test de CI. Sólo si reformulamos el viejo concepto de inteligencia, sólo de esa manera, estaremos en condiciones de elaborar medidas más apropiadas de la inteligencia. Y eso, sólo es cuestión de tiempo.