sábado, 10 de noviembre de 2012

Cinco razones para adoptar Windows 8 Enterprise Para una empresa, el cambio de sistemas operativos en los equipos de escritorio y en los dispositivos móviles y portátiles no es un asunto menos. Dentro de la decisión entran factores como las inversiones ya realizadas en los sistemas anteriores, las ventajas que el nuevo sistema operativo ofrece dentro de la organización (que no es precisamente la capacidad de ejecutar multimedia o intercambiar fotos en las redes sociales), y a manera en que la nueva plataforma armoniza con las políticas corporativas, las aplicaciones, los sistemas de gestión… Windows 8 Enterprise incluye al menos cinco características que, eventualmente, resultarán beneficiosas para su organización. Claves para comenzar a considerarlo en su empresa. Windows 8 está llegando al mercado local con toda la fanfarria. Es un sistema operativo esperado y a la vez temido, dado que parece romper con el paradigma del “escritorio”, en favor de los nuevos “live tiles”: los mosaicos animados que caracterizan la nueva interfaz Metro de Microsoft. Sin embargo, esta ruptura es sólo aparente. No hay ninguna razón para que las empresas deban reemplazar el sistema operativo en su base instalada de PCs con Windows 7. “Si recientemente invirtieron en Windows 7, les conviene dar el salto a Windows 8 con las máquinas nuevas que compren, porque todo lo que tienen hoy funcionando en Windows 7 también funciona perfectamente en Windows 8. Sobre el escritorio de Windows 8 corren las mismas aplicaciones que corren en Windows 7”, tranquiliza Gabriel Gordon, director de unidad de negocios de Windows de Microsoft para la Argentina y Uruguay. El nuevo escritorio (presente sólo en la versión de Windows 8 para las plataformas x86, no está en la versión RT) fue, de hecho, optimizado y mejorado, e incluye capacidades de seguridad que no estaban en Windows 7. Acaso la primera ventaja visible de usar Windows 8 y las aplicaciones desarrolladas específicamente para esta plataforma sean los mencionados mosaicos vivos, que presentan información de la aplicación en tiempo real (correos entrantes, citas, niveles de venta, estado del tiempo, valor de las acciones) y sin necesidad de abrir dicha aplicación. Vale recordar que, en la interfaz Metro, estos mosaicos reemplazan a los íconos. Esta capacidad permite, por ejemplo, desarrollar sobre dicho mosaico animado una suerte de tablero de comando en miniatura, con semáforos que indiquen el estado de ciertos parámetros que monitorea la aplicación. Estas aplicaciones para Windows 8 sólo pueden ser descargadas e instaladas a través de Windows Store (de manera similar a lo que sucede con las tiendas en línea de Apple o Google Android). En el universo x86 de tabletas, notebooks, netbooks, ultrabooks y PCs basadas en la arquitectura de Intel o compatible, existen tres versiones: Windows 8 (que es la versión para el usuario común), Windows 8 Pro (para profesionales y PyMEs) y Windows 8 Enterprise para organizaciones. Estas plataformas llegan en una extensa variedad de dispositivos nuevos, pero también están disponibles para actualizar las PCs con sistemas operativos anteriores. Microsoft explicó que, hasta finales de enero, aquellos que tengan PCs con Windows XP, Windows Vista o Windows 7 pueden calificar para descargar Windows 8 Pro a un precio estimado de venta al público de US$ 39,99. Por otra parte, los usuarios en que adquieran PCs con Windows 7 entre el 2 de junio de 2012 y el 31 de enero de 2013 podrán descargar Windows 8 Pro a un precio estimado de venta al público de US$ 14,99 a través de la Oferta de Actualización de Windows, que está disponible en www.actualizatuwindows.com. La versión RT para plataformas ARM de smartphones y tablets) vendrá preinstalada en los nuevos dispositivos. Los cinco ases de Windows 8 Enterprise La versión empresarial de Windows, que sólo puede adquirirse mediante un contrato de licenciamiento (llamado Software Assurance), fue concebida para el uso en grandes organizaciones, donde rigen políticas de seguridad y acceso, y donde la plataforma debe correr en armonía con servidores (como el Windows Server 2012), sistemas de gestión de entornos de TI (como System Center) o servicios de directorios (como Active Directory). En este contexto, Windows 8 Enterprise presenta nuevas funciones sumamente atractivas para usuarios y gerentes de TI. 1) Application Sideloading. Si bien las aplicaciones para Windows 8 sólo pueden ser bajadas desde Windows Store, la versión Enterprise permite hacer la distribución y despliegue de dichas aplicaciones desde una llave de memoria USB o a través de System Center, o bien descargarlas desde un servidor centralizado de la empresa. Esto es especialmente útil cuando se desarrollan aplicaciones “in house”, o las aplicaciones sólo están destinadas a los usuarios internos de la compañía. La instalación de la aplicación es totalmente transparente para el usuario. 2) Seguridad del dispositivo. Windows 8 Enterprise tiene una funcionalidad llamada AppLocker que permite a los administradores establecer qué aplicaciones no deben ser instaladas en el equipo. Esto es un nivel de seguridad adicional al que establece Active Directory (que define políticas de grupo). Por otra parte, con BitLocker se puede encriptar el contenido del dispositivo. También se agregan funcionalidades adicionales de gestión incorporando un servicio adicional llamado MDOP (Microsoft Desktop Optimization Pack), como por ejemplo la restauración de las claves. 3) Ambientes portables. Los viajeros frecuentes se enfrentan a una problemática común: ¿Cómo llevarse la oficina con ellos, sin tener que llevar la notebook? Windows 8 Enterprise cuenta con Windows To Go: una herramienta que permite instalar en una memoria USB o disco externo todo lo necesario para trabajar desde cualquier máquina (no importa el sistema operativo) como si estuviera trabajando desde su escritorio. En 32 GB se instala el Windows 8 Enterprise con todas las aplicaciones, políticas y derechos que tenía en la computadora corporativa. Sólo hay que arrancar la máquina (por ejemplo, en el business center del hotel) con el penn drive. Windows To Go no utiliza (de hecho ni siquiera permite ver) el disco duro de esa máquina. El drive USB puede estar encriptado con BitLocker. Esta misma herramienta puede usarse con consultores o proveedores externos que tengan que interactuar desde sus notebooks con los sistemas empresariales. 4) DirectAccess. Es la posibilidad de acceder a la red corporativa sin necesidad de desplegar una red privada virtual (VPN). Es una tecnología que, en conjunto con Windos Server 2012, permite armar un túnel a través de la red pública sin necesidad de hacer nada más. Este sistema simplifica además la autenticación contra la red de la empresa, sólo es necesario hacer login en la máquina propia. 5) Capacidades de virtualización. Con Windows 7 sólo era posible virtualizar (una máquina, un escritorio, la provisión de una aplicación) desde un servidor y acceder a él remotamente. Windows 8 Enterprise ofrece Hyper-V Client, que permite ´deplegar máquinas virtuales sobre Windows 8. A partir de esta capacidad integrada, se suman otras. Con MDOP, por ejemplo, se agregan dos funcionalidades de virtuaización: Med-V y App-V. La primera permite correr todo el entorno virtualizado, por ejemplo un Windows XP. Esto resulta especialmente útil en los casos en que se tenga una aplicación para XP que no se puede actualizar. Med-V arma la capa de virtualización de todo el sistema operativo. Para el usuario, todo este despliegue es transparente, sólo tiene que tocar el iconito de la aplicación, y se levanta la máquina virtual. De manera similar, App-V virtualiza sólo la aplicación.
Cinco razones para adoptar Windows 8 Enterprise Para una empresa, el cambio de sistemas operativos en los equipos de escritorio y en los dispositivos móviles y portátiles no es un asunto menos. Dentro de la decisión entran factores como las inversiones ya realizadas en los sistemas anteriores, las ventajas que el nuevo sistema operativo ofrece dentro de la organización (que no es precisamente la capacidad de ejecutar multimedia o intercambiar fotos en las redes sociales), y a manera en que la nueva plataforma armoniza con las políticas corporativas, las aplicaciones, los sistemas de gestión… Windows 8 Enterprise incluye al menos cinco características que, eventualmente, resultarán beneficiosas para su organización. Claves para comenzar a considerarlo en su empresa. Windows 8 está llegando al mercado local con toda la fanfarria. Es un sistema operativo esperado y a la vez temido, dado que parece romper con el paradigma del “escritorio”, en favor de los nuevos “live tiles”: los mosaicos animados que caracterizan la nueva interfaz Metro de Microsoft. Sin embargo, esta ruptura es sólo aparente. No hay ninguna razón para que las empresas deban reemplazar el sistema operativo en su base instalada de PCs con Windows 7. “Si recientemente invirtieron en Windows 7, les conviene dar el salto a Windows 8 con las máquinas nuevas que compren, porque todo lo que tienen hoy funcionando en Windows 7 también funciona perfectamente en Windows 8. Sobre el escritorio de Windows 8 corren las mismas aplicaciones que corren en Windows 7”, tranquiliza Gabriel Gordon, director de unidad de negocios de Windows de Microsoft para la Argentina y Uruguay. El nuevo escritorio (presente sólo en la versión de Windows 8 para las plataformas x86, no está en la versión RT) fue, de hecho, optimizado y mejorado, e incluye capacidades de seguridad que no estaban en Windows 7. Acaso la primera ventaja visible de usar Windows 8 y las aplicaciones desarrolladas específicamente para esta plataforma sean los mencionados mosaicos vivos, que presentan información de la aplicación en tiempo real (correos entrantes, citas, niveles de venta, estado del tiempo, valor de las acciones) y sin necesidad de abrir dicha aplicación. Vale recordar que, en la interfaz Metro, estos mosaicos reemplazan a los íconos. Esta capacidad permite, por ejemplo, desarrollar sobre dicho mosaico animado una suerte de tablero de comando en miniatura, con semáforos que indiquen el estado de ciertos parámetros que monitorea la aplicación. Estas aplicaciones para Windows 8 sólo pueden ser descargadas e instaladas a través de Windows Store (de manera similar a lo que sucede con las tiendas en línea de Apple o Google Android). En el universo x86 de tabletas, notebooks, netbooks, ultrabooks y PCs basadas en la arquitectura de Intel o compatible, existen tres versiones: Windows 8 (que es la versión para el usuario común), Windows 8 Pro (para profesionales y PyMEs) y Windows 8 Enterprise para organizaciones. Estas plataformas llegan en una extensa variedad de dispositivos nuevos, pero también están disponibles para actualizar las PCs con sistemas operativos anteriores. Microsoft explicó que, hasta finales de enero, aquellos que tengan PCs con Windows XP, Windows Vista o Windows 7 pueden calificar para descargar Windows 8 Pro a un precio estimado de venta al público de US$ 39,99. Por otra parte, los usuarios en que adquieran PCs con Windows 7 entre el 2 de junio de 2012 y el 31 de enero de 2013 podrán descargar Windows 8 Pro a un precio estimado de venta al público de US$ 14,99 a través de la Oferta de Actualización de Windows, que está disponible en www.actualizatuwindows.com. La versión RT para plataformas ARM de smartphones y tablets) vendrá preinstalada en los nuevos dispositivos. Los cinco ases de Windows 8 Enterprise La versión empresarial de Windows, que sólo puede adquirirse mediante un contrato de licenciamiento (llamado Software Assurance), fue concebida para el uso en grandes organizaciones, donde rigen políticas de seguridad y acceso, y donde la plataforma debe correr en armonía con servidores (como el Windows Server 2012), sistemas de gestión de entornos de TI (como System Center) o servicios de directorios (como Active Directory). En este contexto, Windows 8 Enterprise presenta nuevas funciones sumamente atractivas para usuarios y gerentes de TI. 1) Application Sideloading. Si bien las aplicaciones para Windows 8 sólo pueden ser bajadas desde Windows Store, la versión Enterprise permite hacer la distribución y despliegue de dichas aplicaciones desde una llave de memoria USB o a través de System Center, o bien descargarlas desde un servidor centralizado de la empresa. Esto es especialmente útil cuando se desarrollan aplicaciones “in house”, o las aplicaciones sólo están destinadas a los usuarios internos de la compañía. La instalación de la aplicación es totalmente transparente para el usuario. 2) Seguridad del dispositivo. Windows 8 Enterprise tiene una funcionalidad llamada AppLocker que permite a los administradores establecer qué aplicaciones no deben ser instaladas en el equipo. Esto es un nivel de seguridad adicional al que establece Active Directory (que define políticas de grupo). Por otra parte, con BitLocker se puede encriptar el contenido del dispositivo. También se agregan funcionalidades adicionales de gestión incorporando un servicio adicional llamado MDOP (Microsoft Desktop Optimization Pack), como por ejemplo la restauración de las claves. 3) Ambientes portables. Los viajeros frecuentes se enfrentan a una problemática común: ¿Cómo llevarse la oficina con ellos, sin tener que llevar la notebook? Windows 8 Enterprise cuenta con Windows To Go: una herramienta que permite instalar en una memoria USB o disco externo todo lo necesario para trabajar desde cualquier máquina (no importa el sistema operativo) como si estuviera trabajando desde su escritorio. En 32 GB se instala el Windows 8 Enterprise con todas las aplicaciones, políticas y derechos que tenía en la computadora corporativa. Sólo hay que arrancar la máquina (por ejemplo, en el business center del hotel) con el penn drive. Windows To Go no utiliza (de hecho ni siquiera permite ver) el disco duro de esa máquina. El drive USB puede estar encriptado con BitLocker. Esta misma herramienta puede usarse con consultores o proveedores externos que tengan que interactuar desde sus notebooks con los sistemas empresariales. 4) DirectAccess. Es la posibilidad de acceder a la red corporativa sin necesidad de desplegar una red privada virtual (VPN). Es una tecnología que, en conjunto con Windos Server 2012, permite armar un túnel a través de la red pública sin necesidad de hacer nada más. Este sistema simplifica además la autenticación contra la red de la empresa, sólo es necesario hacer login en la máquina propia. 5) Capacidades de virtualización. Con Windows 7 sólo era posible virtualizar (una máquina, un escritorio, la provisión de una aplicación) desde un servidor y acceder a él remotamente. Windows 8 Enterprise ofrece Hyper-V Client, que permite ´deplegar máquinas virtuales sobre Windows 8. A partir de esta capacidad integrada, se suman otras. Con MDOP, por ejemplo, se agregan dos funcionalidades de virtuaización: Med-V y App-V. La primera permite correr todo el entorno virtualizado, por ejemplo un Windows XP. Esto resulta especialmente útil en los casos en que se tenga una aplicación para XP que no se puede actualizar. Med-V arma la capa de virtualización de todo el sistema operativo. Para el usuario, todo este despliegue es transparente, sólo tiene que tocar el iconito de la aplicación, y se levanta la máquina virtual. De manera similar, App-V virtualiza sólo la aplicación.
Nuevos Roles para el Gerente de TI Artículos - Tecnología Escrito por Jose Camilo Daccach T. Pasamos de la época de los grandes proyectos y las grandes inversiones en tecnología a administrar estas inversiones, y generar valor con las mismas. Esto implica nuevos roles para el Gerente de TI. En inglés se conocen como los “Chief Information Officers”, para seguir en la línea de Chief Executive Officer (Gerente General), Chief Fiancial Officer (Gerente Financiero), y Chief Operating Officer (Gerente de Operaciones), los que se conocen dentro de la línea de empleados de nivel “C”. En la última década en algunas latitudes, y en otras solo en el último lustro, los Gerentes de Tecnología Informática jugaban papeles de suma importancia en las empresas, al mando de proyectos de alto costo que prometían cambios radicales en las empresas. Implementando sistemas integrados, aprovechando la nueva conectividad, y en general, dando acceso a todos los funcionarios de la empresa, a la tecnología y la información para mejorar su productividad. Muchos de estos Gerentes de TI anteriores provenían de oficios dentro del departamento, como Gerentes Operativos, o Gerentes de Desarrollo y fueron ascendiendo a manejo de proyectos de gran envergadura. No todos pudieron hacer la transición de Técnicos a Administradores, y el proceso dejó varias víctimas. Hoy no se requerirá tanto conocimiento técnico como para los procesos anteriores, y si se recaerá sobre requerimientos de liderazgo y de negocios. Una vez culminados estos proyectos de la década pasada, surgen las nuevas funciones o nuevos requerimientos a ser atendidos por la Gerencia de TI, requerimientos que podríamos clasificar en cuatro objetivos que se deben cumplir o personalidades que se deben desempeñar, por los “nuevos” gerentes de TI, según las investigaciones de R. Wang, analista en Constellation Research Group. Las relacionamos a continuación con los ajustes para nuestro entorno. Gerentes de Infraestructura Este rol se enfoca en la reducción de costos operativos, rubro que por lo general abarca entre el 65% y el 70% del presupuesto total de TI. Las actividades principales de este rol implican mantener “las luces encendidas” y administrar entornos de cómputo implementados. Tecnologías disruptivas como la vitalización de servidores y el cómputo en la nube juegan un papel importante en esta reducción de costos. Los Gerentes de Infraestructura tienden a enfocarse en el lado de la tecnología y actividades de cara hacia adentro del departamento. Muchas de nuestras empresas definen hoy en día al gerente de tecnología como el gerente de infraestructura. Es más, se determina que la responsabilidad del Gerente de TI es por la infraestructura, no por lo que se haga con ella. El porcentaje de aplicación del presupuesto podría ser del 100% al 70%, variando solo por la asignación de presupuesto a las otras tres labores. Dentro de estos análisis de asignación de presupuestos entra a participar también la necesidad de distinguir y definir preferencias entre Costos de Capital o Gastos Operativos. Para el primero requerimos unas altas inversiones que convertimos en gastos mediante depreciaciones, mientras que para el segundo el monto de desembolso inicial es menor que en el caso de inversión, pero es constante por año. Gerente de Integración El Gerente de Integración tiene la función de conectar los sistemas internos y externos de la compañía. Para esto cuenta con una tajada aproximada entre un 5% y 10% del total del presupuesto. Por la evolución de la tecnología y la creciente demanda de los usuarios, esta labor incluye integrar una multiplicidad de procesos de negocio, sistemas, datos, y puntos de conexión con sistemas heredados y nuevos desarrollos hacia la nube. Estos integradores se enfocan en el lado de la tecnología y en actividades tanto internas como externas. Es el siguiente rol, y en nuestro medio con mayor razón, porque por razones económicas o de otra índole, todavía tenemos un “sancocho” de soluciones que debemos ofrecer en forma integrada a los usuarios. Hoy son los usuarios, indistinto del tamaño de la empresa, quienes deben hacer estas labores de integración, con genialidades aplicando herramientas de productividad de oficina como hojas de cálculo. Programaciones de Plantas productivas, manejo de información de clientes y muchas otras aplicaciones.

jueves, 4 de octubre de 2012

Gestión de Proyectos
No permita que sus proyectos de tecnología informática terminen costando y durando mucho más de lo necesario. Relacionamos los factores que por lo general se omiten en la planeación y son críticos para el éxito de los proyectos. Por lo general lo que se comenta (como me lo comentó un cliente una vez), los proyectos de tecnología informática siempre demoran y cuestan mucho más de lo que originalmente estaba presupuestado, y sin los resultados fijados desde el principio. El símil fue que así como uno solicita tres cotizaciones, en vez de seleccionar una en cuanto a tiempo y costo habría que sumarlas. Los proyectos de tecnología informática tienen múltiples componentes o subproyectos que de no ser bien identificados, y sobre todo asignados a su responsable, hacen efectivamente que la duración y el costo del mismo sean mucho mayores al planteado, si es que se logran los objetivos de funcionalidad y servicio inicialmente estipulado. Ahora se ha facilitado un poco más la ejecución de este tipo de proyectos dado que las casas de software (SAP, Oracle, JDEdwards, entre otras) han optado por ofrecer esquemas de implementación "aceleradas", es decir, en vez de tomarse los 18 a 24 meses que tomaba la implementación de una solución básica, han resuelto muchas de las variables en el proceso de implementación y han elaborado procesos de implementación de aproximadamente entre 4 y 6 meses. Sin embargo, hay que leer minuciosamente a qué se compromete el/los proveedores y a qué se compromete uno como cliente. Por lo general, uno podría contratar los equipos, su instalación, la instalación del sistema operativo, el montaje de las aplicaciones, la capacitación al usuario final y a los funcionarios del área técnica en su operación y administración. Sin embargo hay responsabilidades exclusivas del cliente como son el rediseño de procesos, los procesos de migración, convivencia, limpieza de datos, definición y ejecución de perfiles de seguridad, definición de pruebas de aplicaciones, y muchos otros que de solo enumerarlos acabaríamos con el espacio. Hay algunos puntos álgidos cuando se implementan los proyectos de tecnología, y normalmente tienen que ver con la disponibilidad de tiempo de los usuarios. El proveedor pretenderá que haya un grupo de personas asignados de tiempo completo al proyecto, más si se tiene afán, sin embargo, en esta época, la designación de personas especiales para dejar sus puestos y dedicárselos exclusivamente a un proyecto por cuatro o seis meses es casi un imposible. Se debe entonces ser muy celoso en la elaboración de los cronogramas y en especial en la asignación del recurso humano del cliente. Por lo general el recurso humano del proveedor viene definido e incluido dentro de los cronogramas iniciales, pero casi siempre se omite hacer, por ejemplo, un balanceo de cargas para los recursos del cliente. Otro aspecto crucial tiene que ver con la cantidad de modificaciones que se aceptará se hagan a las aplicaciones. En las implementaciones "aceleradas" éstas están prácticamente abolidas, ya que el proceso de definición del requerimiento, programación, prueba y aceptación es bastante largo y ocasionaría fuertes retrasos en la ejecución del proyecto. Hay que ser muy claros tanto con el proveedor como con los usuarios de hasta donde abarca el proyecto. El factor más importante es tener en cuenta qué pierden los usuarios con la implementación del nuevo sistema (siempre sabemos lo que ganan, pero desconocemos lo que dejarán de tener) y a estas falencias habrá que buscarles una solución bien sea con el proveedor directamente, o con medidas alternas, pero siempre buscando satisfacer esa necesidad (mas no los caprichos) del usuario. La definición clara de el alcance en materia de modificaciones es crucial tanto para el desarrollo del proyecto, como para la contratación posterior de mantenimiento sobre las aplicaciones (si se contratan externamente). Cuando el desarrollo de aplicaciones es interno, es importante poder definir el proyecto en diferentes etapas marcadas por bloques de funcionalidad e ir terminando cada etapa por versiones de la aplicación, como si fuera una casa de software, pero esto es tema por completo de otro artículo. Se pretende, con la implementación de un nuevo sistema, hacer las cosas más fáciles para la empresa y los usuarios. Sin embargo, si se omite una revisión a los procesos y procedimientos actuales, es factible que en el momento de poner en producción el sistema se tropiece con obstáculos operativos que habrá que resolver en la mitad del cambio, momento que no es propicio para hacerlo. Dentro de las actividades del proyecto, a cargo del cliente, estará la evaluación de los procedimientos y procesos actuales a la luz del nuevo sistema, y el diseño y/o ajuste de los procesos actuales a la aplicación. La programación de estos ajustes debe ir de la mano con la programación de la implementación e idealmente, al tiempo con la capacitación en el uso de la aplicación al usuario final, se imparte la capacitación procedimental. Por último, no descuide dos procesos que tienen que ver con la información actual: el de convivencia y el de migración. El primero es el que le permitirá tener dos sistemas (el viejo y e nuevo) operando en simultánea durante unos meses. Por ejemplo, es probable que esté facturando con el nuevo sistema, pero que la contabilidad esté todavía en el viejo, o que en el nuevo sistema tenga ya lista la contabilidad pero los auxiliares estén en el viejo. La decisión sobre la puesta en producción de las aplicaciones y su orden está estrechamente ligada a decisiones sobre conveniencias en esta etapa de convivencia. La migración compete al traslado de la información corriente e histórica en los sistemas actuales al nuevo. Hay consideraciones de tipo tributaria, otra de tipo comercial y de producción. Si en el trasteo se pierde algo porque en el nuevo sistema no hay como manejar ese tipo de información, es imperante establecer un esquema de acceso a la información antigua. Como recomendación, limpie la información antes de migrarla, en especial en archivos como de clientes y de proveedores donde la información se incluye la primera vez que se tiene contacto con el cliente y/o proveedor pero no se vuelve a actualizar. Los proyectos de tecnología informática no necesariamente tienen que durar o costar más de lo inicialmente pactado. Si el alcance descrito desde el inicio de la contratación es el que se ajusta a las necesidades del plan estratégico de la compañía y al plan estratégico de tecnología informática, si la contratación se hace acorde a las necesidades de éxito del proyecto y no de protección jurídica, y si la ejecución tiene en cuenta recomendaciones como las que brevemente referimos arriba, el éxito estará garantizado.

lunes, 27 de agosto de 2012

Pensamiento Inductivo Escrito por Jose Camilo Daccach T.
El pensamiento inductivo parte de la existencia de soluciones preconfiguradas, y la tarea que queda es buscar qué problemas existentes se pueden resolver con ésta tecnología, o mejor aún, que problemas que aún no tengo (mejoramiento) puedo resolver o evitar usando esta nueva tecnología. La forma tradicional de utilizar y seleccionar la tecnología (y en general de solución de problemas) utiliza el pensamiento deductivo. En este tipo de alcance, se selecciona un problema, se determina la forma en la cual se puede resolver y posteriormente se evalúa cuál sería la tecnología apropiada para aplicar a la solución seleccionada. Acto seguido, se procede a implementar la solución, validar el logro de objetivos, detectar posibles ajustes, efectuarlos y seguir el proceso de validación, ajuste y prueba de tal manera que se llegue al objetivo. Este esquema, que se ha utilizado por años en la justificación de proyectos de tecnología, tiende a desaparecer y dar paso a una nueva forma de aplicar tecnología, cobijada bajo el tema del pensamiento inductivo. Pareciera un juego de palabras, pero el pensamiento inductivo es exactamente opuesto al pensamiento deductivo. El pensamiento inductivo parte de la existencia de soluciones preconfiguradas, y la tarea que queda es buscar qué problemas existentes se pueden resolver con ésta tecnología, o mejor aún, que problemas que aún no tengo (mejoramiento) puedo resolver o evitar usando esta nueva tecnología. En este caso, no se requiere efectuar arduas jornadas de implementaciones, validaciones, pruebas y ajustes ya que las tecnologías seleccionadas ya han pasado por pruebas en otros sitios y precisamente son estas pruebas en otros sitios los que la hacen merecedora de ser considerada como una alternativa válida de implementación. Las tecnologías de Internet se brindan para ser parte de este nuevo movimiento de aplicación del pensamiento inductivo. Tomemos por ejemplo la existencia del correo electrónico, que aunque existe hace más de 30 años, se popularizó con la Internet. Nadie puede alegar hoy en día que la tecnología no tiene utilidad. Tampoco se puede alegar que está en estado experimental ni que puede ocasionar tal o cual problema. Es una tecnología tan difundida, que ni si quiera se necesita una justificación económica para implementarla. Otras tecnologías más exclusivamente cercanas a la Internet, como el http (protocolo con el cual se elaboran y sirven las páginas Web) y el FTP (protocolo para transferir archivos) también gozan ya de aceptación generalizada, lo que les da un halo de aprobación para ser utilizada sin mayores estudios y/o análisis. Las tecnologías de Internet permiten entonces ejercer con buenos resultados el pensamiento inductivo, implementando soluciones que permitan lograr objetivos al interior de las empresas y a nivel personal, con muy bajo costo y con una altísima probabilidad de éxito, algo que no estaba ni remotamente garantizado con la metodología del pensamiento deductivo. La aplicación del pensamiento inductivo no viene sola. Exige la utilización de estándares de industria que permitan replicar resultados ya obtenidos y probados. No tiene sentido que se utilice una tecnología no estándar cuando una estandarizada ya ha probado sus beneficios y cubre la funcionalidad requerida. No se duda de la Web, no se duda del Correo Electrónico, no se duda de las bondades de la comunicación con clientes, proveedores, familiares, y las posibilidades de utilización de estas tecnologías son limitadas exclusivamente por su imaginación. Un sitio Web no necesariamente tiene que ser para vender algo, puede crear un árbol genealógico de su familia y tener un tablero de avisos donde cada miembro, por lejano que esté, se pueda enterar de las noticias, y a su vez pueda divulgar las propias. Un sitio FTP puede servir para que usted no tenga que viajar cargado de archivos por todo el mundo, sino que cuando llegue a su destino pueda bajar de la red lo que necesita en el lugar que se encuentre. Dé rienda suelta a su imaginación, empiece a explotar estas nuevas tecnologías y disfrutar de una infraestructura ya probada y en pié tanto a nivel corporativo como personal.

jueves, 23 de agosto de 2012

MiFi: La nueva cara de la conectividad móvil
Es una nueva opción en cuanto a conectividad de banda ancha móvil que puede ser compartida hasta por 5 usuarios a la vez y desde múltiples dispositivos WiFi como PCs, notebooks, tablets y smartphones. El nuevo servicio, se perfila como una opción rentable para las empresas ya que trae consigo un importante ahorro de costos y ya está disponible en Argentina. ¿Qué es MiFi? ¿Cómo funciona? Todos tenemos dispositivos que se conectan a Internet, de hecho, tenemos más de uno: PCs, portátiles, tablets, smartphones, consolas, etc. Cada uno de ellos, necesita de alimentación para conectarse a la red, y los dispositivos MiFi son una buena opción ya que nos permite conectar a todos estos dispositivos juntos y a la misma conexión 3G móvil sin tener que contratar servicios por separado. Los dispositivos MiFi, que hoy ya ofrecen fabricantes como Novatel y Huawei, entre otros, son altamente portables lo permite al usuario llevarlo en su bolsillo o cartera con facilidad necesidad de conectar físicamente el dispositivo a su computadora portátil. Cómo funciona Un dispositivo MiFi necesita cobertura de telefonía móvil para conectarse a internet, por lo que algunos de estos equipos cuentan con slot para introducir la tarjeta SIM 3G con tarifa de datos de cualquier compañia telefónica o disponen de un conector USB para que conectemos un Router 3G USB.

domingo, 20 de mayo de 2012

Investigadores en Japón rompieron el récord de transmisión de datos en la banda de terahercios, la zona en el extremo más alejado de la banda infrarroja. La velocidad a la que viajan los datos es 20 veces mayor que la más rápida Wi-Fi estándar. La investigación, dada a conocer en la publicación Electronic Letters , contribuye a la idea de que la banda de terahercios podría ofrecer enormes franjas de ancho de banda para la transmisión de datos. El Wi-Fi actual usa la banda de 2,5 GHz. La banda elegida se ubica entre la onda corta y el infrarrojo lejano en el espectro, y no está regulada por los organismos de telecomunicaciones. A pesar de su nombre, la banda usa frecuencias informalmente desde cerca de 300 gigahercios (300 GHz, cerca de 60 veces más alta que el máximo actual estándar inalámbrico) hasta cerca de 3 THz, todavía diez veces más alta. Se usa principalmente para imágenes en investigación, ya que las ondas de terahercios penetran muchos materiales de forma tan efectiva como los rayos X, pero depositan menos energía, y causan menos daño. Más pequeña y menos costosa Hasta muy recientemente, la tecnología requerida para generar y detectar estos "rayos T" ha sido muy voluminosa, ha sido muy costosa o ha consumido demasiada energía como para ofrecer una alternativa plausible para dispositivos internados en teléfonos inteligentes o routers Wi-Fi. Todo eso estaría a punto de cambiar. En noviembre, la fabricante de componentes electrónicos ROHM hizo una demostración de transferencia de datos a 1,5 Gb/s a una frecuencia de 300 GHz. Es posible que el terahercio Wi-Fi sólo funcione en rangos de unos 10 metros, pero podría en teoría soportar tasas de hasta 100 Gb/s, unas 15 veces más alta que la próxima generación de Wi-Fi estándar, la 802.11ac , que está en desarrollo. El nuevo trabajo, realizado por el Instituto de Tecnología de Tokio, mostró una transmisión de 3 Gb/s a 542 GHz. En el corazón del dispositivo de un milímetro cuadrado está lo que se conoce como resonancia del diodo túnel o RTD. Los túneles diodos tienen la característica inusual de que el voltaje que producen puede bajar cuando se incrementa la corriente. Los RTD están diseñados de tal manera que el proceso hace que el diodo "resuene". En el actual diseño eso significa que rocía las ondas en la banda de terahercios. El equipo está trabajando ahora para mejorar su dispositivo de prueba y extender su rango más profundo en el régimen de terahercios, así como incrementar la potencia de salida

viernes, 18 de mayo de 2012

La Red está a reventar de información, pero seguimos sin sacarle todo el partido posible. Los buscadores son todavía herramientas burdas que matan mosquitos a cañonazos. Sin embargo, la Web Semántica podría cambiar las cosas. Cuando uno intenta entender qué es eso de la Web Semántica, un término acuñado por Tim Berners-Lee, uno de los padres de Internet, corre el peligro de perderse en un debate de académicos y visionarios trufado de siglas y estándares. La Web Semántica es una propuesta de futuro, que no existe o que está en pañales, con lo que cuesta mucho identificarla, y sigue circunscrita a entornos de desarrollo de universidades, start-ups e ingenierías muy especializadas. Sin embargo, es una tecnología que, si llega realmente a materializarse, propone una experiencia mucho más rica que la que tiene un internauta hoy en día ante un ordenador. Tim Berners-Lee dirige el W3C, que genera todo tipo de recomendaciones técnicas y sobre estándares para Internet. Para intentar arrojar algo de luz, hemos preguntado a varios expertos en qué consiste esto de la Web Semántica. Lluís Codina, profesor en la Universidad Pompeu Fabra y que ha escrito un libro específico sobre la materia junto a varios autores (Web Semántica y sistemas de información documental), habla de un «conjunto de normas y especificaciones técnicas destinadas a tratar la información, de manera que sea más fácil de interpretar por parte de los programas de ordenador». «Aunque la mayoría de páginas web son generadas a partir de bases de datos donde la información está bien estructurada (por ejemplo, en tablas con filas y columnas), después esta estructura se pierde bajo distintas capas de estilo y formato. Por lo tanto, extraer información de estas páginas e interpretarla automáticamente es difícil. La Web Semántica resuelve este problema», explica Ricardo Baeza Yates, vicepresidente de Yahoo! Labs en Europa. Es decir, sería como enseñar a la propia Internet a interpretar y vincular la gigantesca cantidad de información que atesora, permitiéndole así comunicarla de la manera más útil e intuitiva posible. Uno de los objetivos es permitir a los usuarios comunicar con Internet usando el lenguaje natural, escrito o hablado. La idea es que preguntemos a un buscador del mismo modo que lo hacemos a un amigo o a un colega del trabajo. Para facilitar este aprendizaje a las máquinas, los programadores utilizan marcadores o tags (que técnicamente se conocen como metadatos), que hacen reconocible la información a los motores de búsqueda y otros programas de extracción. Además, se ayudan de lenguajes que jerarquizan estos datos y articulan las preguntas que podemos hacer. Aplicaciones Una de las aplicaciones más claras de la Web Semántica está asociada a los buscadores. Gracias a las etiquetas adicionales y al trabajo del software que la hace posible, esta clase de herramientas podrán contestar directamente a las preguntas de los usuarios, en vez de vomitar una pila de enlaces donde somos nosotros los que tenemos que bucear para encontrar la información deseada. Idealmente, los buscadores nos darán la información debidamente confeccionada con aportaciones de múltiples páginas. Digamos que nos interesamos por el actor Matt Damon. Pues bien, una Internet inteligente nos respondería con un documento formado por su perfil (sacado, por ejemplo, de Wikipedia), fotos y comentarios de su blog personal, vídeos con escenas de sus películas (de Youtube) y críticas de sus películas publicadas por diversos medios. Pero no queda ahí la cosa. «Si la Web Semántica fuera una realidad, deberíamos disponer de agentes inteligentes, una especie de buscadores/gestores personalizados, capaces de satisfacer todas nuestras necesidades de información», dice Rafael Pedraza-Jiménez, profesor de la Pompeu Fabra. Y es que si se cumplen los vaticinios en torno a la Web Semántica, Internet debería hacer, por sí sola, todo el trabajo. Es decir, que si le preguntáramos por un viaje a Nueva York, nos daría información de la ciudad, del tiempo y de las conexiones de transporte, pero también sería capaz de comprarnos los billetes de avión, reservarnos un hotel en el SOHO y comprarnos unas entradas para un espectáculo en Broadway. Sin ir tan lejos, la Web Semántica también posibilitará a una página reutilizar información que ya ha sido publicada en otra, pero que es pertinente. Como dice Xavier Uribe-Etxeberría, CEO de Anboto, una start-up vasca especializada en asistentes virtuales, podremos acceder a una página para comprar un coche cuyas características expuestas no provienen precisamente de esa página, y sí de otra donde la información se actualiza a cada minuto. En todo caso, por el momento la cosa va más despacio y los logros son más modestos. Los agentes inteligentes que deben buscar y juntar por nosotros la información no han funcionado hasta la fecha. «La Web Semántica hoy se reduce básicamente a la creación de sistemas de búsqueda muy eficientes para entornos muy controlados», dice Rafael Pedraza-Jiménez. Ricardo Baeza habla de los últimos avances de Yahoo! «En Yahoo! Search, el resumen de las páginas de la Wikipedia contiene el primer párrafo del artículo, la foto principal y los enlaces directos a las distintas secciones del artículo. Esto es posible porque el buscador entiende dónde comienza el artículo, qué foto es relevante y dónde comienza cada sección». Los proyectos más interesantes en el campo de la Web Semántica se pueden encontrar en el site del W3C, el consorcio que promueve estándares en el ámbito de Internet. A nivel mundial, son interesantes los trabajos realizados por la NASA y la BBC británica. En España, también encontramos iniciativas en ayuntamientos, fundaciones o bancos. El consistorio de Zaragoza implantó una herramienta de búsqueda semántica para ayudar a sus ciudadanos a encontrar más fácilmente el servicio que necesitan. Antes las búsquedas eran tortuosas. La Fundación Marcelino Botín también incorporó esta tecnología para facilitar el acceso a la información que sobre el patrimonio y la historia de Cantabria atesora. Era una información que estaba muy dispersa. Por su parte, Bankinter también se vale de esta tecnología para ayudar a sus empleados a compartir nuevas ideas. Aquellos con sugerencias que hacer tienen una herramienta que les pone en contacto con otros que han hecho aportaciones en el mismo campo. Queda mucho por hacer En cualquier caso, la Web Semántica está en ciernes, muy lejos de llegar a su madurez tecnológica y también de popularizarse. El listado de proyectos referenciados por la W3C es solo de 32, y eso en toda una década de desarrollos. «La Web Semántica no se espera para mañana, ni para pasado mañana. Siempre que se ha dado una fecha, aunque haya sido a muchos años vista, se ha incumplido», asegura Lluís Codina. Codina también dice que la confianza en las posibilidades de la Web Semántica que mostraron Tim Berners-Lee (que escribió un artículo muy celebrado titulado precisamente The semantic web, -clic para descargar-) y otros gurús en 2000 y 2001 se ha ido evaporando con los años, y ahora las expectativas son más conservadoras. Por otra parte, según algunas fuentes, solo un 5% de las páginas han adoptado RDF, el lenguaje que permite añadir datos semánticos (metadatos) a los contenidos de Internet. Pero cuidado, porque algunos consideran este dato bastante optimista. Juan Antonio Pastor Sánchez, experto de la Facultad de Comunicación y Documentación de la Universidad de Murcia y autor del libro Tecnologías de la Web Semántica, no cree que sea muy indicativo del desarrollo de esta tecnología el porcentaje de páginas web con RDF, toda vez que no es un formato pensado para su uso en páginas convencionales, que seguirán utilizando XHTML y HTML5. Además, dice el profesor de la Universidad de Murcia, un 5% puede, en realidad, no ser tan poco como parece, porque en Internet hay mucha información redundante y muchos datos tienen muy escaso interés. En este sentido, también se expresa Ricardo Baeza Yates, de Yahoo! Labs, que aclara que no vamos a necesitar que la totalidad de páginas web usen RDF, ya que no todas contienen información estructurada y en muchas predominan archivos de otro tipo, como vídeos, imágenes o sonido, que requieren otros tipos de tecnologías. En cualquier caso, en una entrevista concedida al diario El Mundo el pasado verano, Jeff Jaffe, presidente ejecutivo del W3C decía que estamos en un punto de inflexión y que la gente está por fin aprendiendo a usar e implantar estos desarrollos. Nos obstante, otros consultados no son tan optimistas.

jueves, 10 de mayo de 2012

Una red inalámbrica que le sirva a su negocio La popularidad del Wi-Fi hizo que muchos decisores empresariales creyeran que dotar de conectividad inalámbrica a sus oficinas era tan sencillo como comprar un router hogareño e instalarlo. Sin embargo, una auténtica red empresarial debe ser capaz de satisfacer necesidades técnicas y de negocios, en términos de desempeño, confiabilidad, cobertura, seguridad y escalabilidad. Estas redes profesionales pueden dar soporte no sólo a la conectividad básica, como reemplazo o extensión de la red cableada, sino también a prestaciones como voz sobre IP inalámbrica, control de acceso y hasta control de activos. El primer paso hacia su red inalámbrica empresarial es leer esta nota. La primera opción para instalar una red inalámbrica en una oficina suele ser sencilla: se compra un router inalámbrico en el supermercado o en la casa de computación, y se enchufa a la red. Cualquiera que sea capaz de interpretar las instrucciones de instalación del “wizard” de configuración puede dejarla funcionando. Estos routers son los hermanos mayores de los routers hogareños, y a menudo pueden satisfacer las necesidades de las organizaciones pequeñas, las sucursales y las oficinas de los profesionales independientes. La segunda opción es buscar a algún técnico conocido que pueda tirar algunos cables de red desde el switch, e instalar un punto de acceso inalámbrico. Si este técnico se da maña, podrá configurar una seguridad mínima, incluso podrá ingeniárselas para que la cobertura sea más o menos uniforme. Ninguna de estas opciones responde a una decisión de negocios y, de hecho, ambas ofrecen resultados pobres: redes que sólo pueden dar las prestaciones empresariales más básicas, y que a menudo son vulnerables a toda clase de intrusiones. En este sentido, y a diferencia de lo que sucede con las redes cableadas, la información de las redes inalámbricas viaja por un medio al que todos tienen acceso, por lo que la exposición a los ataques y las intrusiones es propia del sistema y es inevitable. Por otra parte, correr aplicaciones críticas o que transporten datos sensibles sobre estas redes es, cuanto menos, imprudente. El despliegue de auténticas redes inalámbricas empresariales (ó WLANs empresariales) exige la asistencia de un profesional con cierto expertise. “Ese profesional debe conocer los principios propagación de Radio Frecuencia, conceptos de antenas y, en el área de Networking, especialmente manejo de VLANs y ruteo IP”, especifica Patricio Bandurek, gerente técnico de Bug Soluciones Informáticas. Adicionalmente, debe conocer las soluciones disponibles en el mercado y cómo articularlas con las necesidades del cliente, porque en materia de redes inalámbricas no aplica aquello de “One Size Fits All”. “Lo primero que debe de hacer es entender para qué se va a utilizar esa red inalámbrica, a fin de establecer los requerimientos de performance y seguridad”, apunta Gustavo Ramón, encargado de Ventas de Viditec. “Una instalación no profesional, casi con seguridad, arrojará un funcionamiento errático en la solución, y no se lograrán los objetivos de ancho de banda requerido, cobertura y, lo que es peor, se puede comprometer la seguridad de toda la red”, advierte Bandurek. Por otra parte, resolver los problemas de una red que no fue correctamente concebida puede ser una tarea compleja. “No realizar una implementación racional de una red inalámbrica, desde el punto de vista físico, termina en que, cuando al red no cumpla los requisitos, no podamos saber por qué esta fallando ni como reaccionar, no tendremos un punto de arranque. De la misma forma en que los errores en los cables de cobre y la fibra óptica terminan impactando en el desempeño final de la red, los errores en el despliegue inalámbrico van a afectar al tráfico de datos, pero a diferencia de lo que pasa en una red conmutada, donde los errores de la capa física quedan circunscriptos al puerto del switch, en una red Wireless los problemas los pagan todos los usuarios, porque el espectro de radio frecuencia un medio compartido por todos los usuarios
Nuevo módem router 3G e inalámbrico de Huawei El módem router Wi-Fi B260a permite contar con conectividad 3G, con una velocidad de bajada de 7,2 Mbps, y de subida de 5,76 Mbps. Este equipo de Huawei apunta a proveer conectividad en aquellas zonas donde no hay cobertura de la red fija o donde está deteriorada, permitiéndole al usuario conectar sus dispositivos Wi-Fi, un teléfono analógico o una red LAN. Estará disponible a través del operador celular Claro. El proveedor de soluciones Huawei anunció el lanzamiento del módem router Wi-Fi B260a, para su disponibilidad a través de Claro. Este producto permite contar con conectividad 3G, con una velocidad de downstream (enlace de bajada) de 7,2 Mbps y upstream (subida) de 5,76 Mbps. Huawei B260a apunta a proveer conectividad en aquellas zonas donde no hay cobertura de la red fija o donde está deteriorada, permitiéndole al usuario conectar sus dispositivos Wi-Fi, un teléfono analógico o una red LAN. Gracias a este producto, además, se puede mejorar la recepción de la señal Wi-Fi ya que cuenta con la posibilidad de conectar una antena externa, convirtiéndolo en una excelente solución para brindar conectividad en zonas rurales o de escasa cobertura. El equipo funciona en las bandas de GSM/GPRS/EDGE (850/900/1800/1900 MHz) y UMTS/WCDMA (850/1900/2100 MHz), y soporta Wi-Fi 802.11b/g. Posee un puerto de conexión telefónica, un puerto LAN (para conexión con la PC), conector de alimentación y de antena. Incluye antena interna (antena externa opcional). También tiene un panel LED para indicar el estado del equipo.
La importancia de la innovación en las PyMEs Por: Omar Quiroga Muchas empresas piensan que la innovación no es algo que puedan implementar. A veces esto se debe a que no saben qué es innovar o cómo son los procesos para lograrlo. Algunas PyMEs suelen creer que determinados conceptos que maneja la jerga del management le son totalmente ajenos e inaplicables para la realidad que viven. Ante la propuesta de implementación de alguna idea que apunte a mejorar la competitividad, pero que les resulte extraña, la respuesta llega en forma inmediata: “Eso no es para nosotros”, “Somos demasiado pequeños”, “Mi empresa es muy especial” o “No va a funcionar”. Por supuesto que entre esos conceptos “extraños” está la innovación. Entonces, cabe preguntarse: ¿Es importante innovar en las PyMEs? ¿O es realmente cierto que no es aplicable en este tipo de empresas? Para responder la pregunta es necesario detenerse un instante en definir qué es y para qué sirve la innovación. En sus inicios, el movimiento hacia la innovación se confundió con la creatividad. Más precisamente con un señor creativo y bastante loco que conduce a través de diversos juegos y ejercicios a un conjunto de empleados a expresar aquellas ideas que hasta el momento no habían aflorado. Pero la innovación no es un proceso místico. Tampoco es sentarse a meditar frente al mar esperando que surja esa idea transformadora. Las actividades lúdicas y de meditación deben apreciarse, pero actualmente es muy evidente que la innovación es algo muy distinto a eso. Para ser efectiva, la construcción de esa dinámica grupal orientada hacia lo creativo tiene que encuadrarse en una planificación extremadamente rigurosa de un proceso de innovación. Esa es la única manera en que un conjunto de “ideas creativas” se puedan transformar en negocios concretos y específicos. Habitualmente suele confundirse el concepto de innovación, se simplifica en la creación de nuevos productos. Pero esa es sólo una de las formas de innovación. Y no es precisamente la más importante. No todos los tipos de innovación son iguales. Aclarando este punto, Gary Hamel establece una clasificación que determina cuatro tipos ordenados de menor a mayor importancia: • Innovación operativa: está vinculada a la búsqueda fundamentalmente de la preeminencia en la calidad de la infraestructura de los sistemas informáticos de la empresa. Son avances en hardware y software que tienden a disiparse rápidamente, lo cual significa que es muy difícil sostener este tipo de ventajas durante mucho tiempo. En este tipo de innovación encontramos un ejército de consultoras dedicadas a transferir las mejores prácticas de las empresas exitosas hacia aquellas de rendimiento discreto con el objeto de al menos ponerlas en un mismo punto de partida. • Innovación de productos y/o servicios: también es una ventaja competitiva efímera la que se consigue a partir de este tipo de innovación ya que el ritmo acelerado de los avances tecnológicos permite dejar obsoleto velozmente lo que ayer era un producto de última generación. Lo que es claro hoy en día es que los productos novedosos rara vez confieren un liderazgo duradero. • Innovación estratégica: supone modelos empresariales audaces que ponen al rojo vivo al mercado en el cual competimos. Un ejemplo emblemático es el de Ryanair, la primera aerolínea de bajo costo en Europa. • Innovación administrativa: La misma sacude el pensamiento convencional y cambia las reglas de juego vigentes hasta ese momento. Ford y General Motors alguna vez fueron pioneras en la innovación administrativa en el primer cuarto del siglo XX. Este tipo de innovación pone su acento en desafiar los retos que el futuro nos plantea y convertir la innovación en un trabajo de todos los días, creando un entorno laboral atractivo que inspire a la gente a dar lo mejor de sí mismos. En un contexto en el cual los ciclos de vida de las estrategias es cada vez más breve, quienes trabajamos desde el ámbito académico y profesional debemos desterrar la cultura de la resignación de la PyME que mencionábamos al inicio. La pequeña y mediana empresa es un emprendimiento comercial como cualquier otro. Atraviesa un momento de su ciclo de vida en el que busca su identidad, consolidar un sistema de valores y desarrollar conocimientos para mejorar su competitividad en los mercados. Para afrontar estos desafíos necesitan innovar, ya que es la única fórmula que una empresa tiene para buscar el éxito y, una vez alcanzado, sostenerlo en el tiempo. También innovar es la única manera de sobrevivir en un mundo en el que en sus mercados se pelea a todo o nada. Transformar una PyME en una empresa ágil, veloz e innovadora, significa efectuar un abordaje sistémico que nos permita otorgarle la competitividad suficiente para posicionarse en el mercado con un producto o servicio que se diferencie de sus competidores. Ello debe estar apoyado en la productividad de la PyME. La única manera de lograrlo en un contexto inestable, turbulento y cargado de incertidumbre es aplicando un proceso de innovación permanente. Se convierte así en un término imposible de ignorar en el vocabulario y en cada acción de las pequeñas y medianas empresas.

lunes, 23 de abril de 2012

Planeación Estratégica de Tecnología Informática Para un adecuado y efectivo manejo de la tecnología informática debe poder responder estas preguntas: ¿Cómo convertir el departamento de Sistemas en un puntal de desarrollo e innovación de la empresa, y no una fuente de gastos? ¿Cómo alinear las inversiones en Tecnología Informática con los objetivos estratégicos de la compañía? ¿Cómo definir las prioridades de los proyectos de TIC? ¿SOA, ITIL, COBIT, CMMI, ISO, SaaS, Nubes, Outourcing: qué hacer con todo esto?

jueves, 12 de abril de 2012

Para formar parte de las redes sociales lo primero que hay que hacer es entender el propósito de cada una de ellas De una forma u otra, las redes sociales están siempre con nosotros, ya sea en el boca a boca, en una conversación con un amigo, familiar o incluso con un vecino. Lo cierto es que la tecnología avanza y las redes sociales ganan más y más popularidad, las conversaciones se vuelven online. Esto implica que conectar e interactuar con los clientes es ahora mucho más importante. Las empresas tienen que entender la importancia de las redes sociales y de formar parte de ellas. Los consumidores hablan sobre los productos de distintas empresas en redes sociales como Facebook, Twitter o Youtube. Estar en ellas facilita aún más esta conversación. Luchar contra ellas no es la solución, la integración en ellas sí. A pesar de que estas redes pueden llegar a tener mucho valor para las empresas, la mayor parte de los directivos de las mismas aún las ven como un misterio y es el momento de que eso cambie. Las compañías necesitan formar parte, ser parte. A pesar de que se trata de otro medio con una estrategia diferente, las empresas deben empezar a apostar fuerte por ello. Si después de todo esto aún piensas que las redes sociales no pueden tener tanta importancia échale un vistazo a los datos, que no engañan. De acuerdo con los datos aportados por la empresa DoubleClick Ad Planner, Facebook cuenta ya con 880 millones de visitantes al mes, YouTube con 800 millons, BlogSpot con 340 millones y Twitter con 160 millones. Se trata de un fenómeno global que crece muy deprisa. Según los datos que da Nielsen, Australia y Brasil son los países cuyos usuarios más utilizan las redes sociales según las horas que pasan en ellas al mes. En Sudáfrica por ejemplo la media de horas a la semana en redes sociales está en siete. El pilar sobre el que tenemos que apoyarnos a la hora de empezar en el mundo de las redes sociales es la transparencia. Si nos basamos en los negocios tradicionales vemos cómo sólo se compartía la información necesaria y entre un número determinado de personas. Pero eso y no funciona así. Internet busca ofrecer toda la información posible y los consumidores es lo que quieren de las empresas actualmente, el mayor acceso a la información que se pueda y que todo se base en los principios de claridad y transparencia. Debido a que la mayoría de las cosas en la red son públicas, las redes sociales son la forma más rápida de ganar o perder credibilidad. Gerd Schenkel, fundador de Ubank y director de Testra Digital, cree que para formar parte de las redes sociales lo primero que hay que hacer es entender el propósito de cada una de ellas. Para él YouTube propone entretenimiento, Facebook el consumo de contenidos generados por tus amigos y Twitter es una conversación con determinadas personas. Respecto a los blogs, para Schenkel sirven para compartir puntos de vista. Desde su punto de vista hay siete consejos que nunca debemos perder de vista durante nuestra inclusión en las redes sociales: 1. No centrarse exclusivamente en las métricas que nos informan de las visitas a nuestra Web. En vez de eso hay que ir donde va el consumidor. 2. Ser auténtico y consistente. Si no lo somos, nuestros esfuerzos se verán como simples estrategias de relaciones públicas. 3. Cuidado con subcontratar servicios, especialmente en cuanto a las cuentas de Twitter y los blogs. 4. Olvídate de poder controlar el mensaje, no es posible. Simplemente discúlpate si haces algo mal y los usuarios te apoyarán. 5. Ten expectativas realistas. Las redes sociales no mejorarán un mal producto. 6. Nadie es experto en redes sociales y la estrategia de cada compañía difiere en función de multitud de detalles y factores. 7. Hazlo, pero debes estar preparado para aprender y adaptarte. Fuente: Social Media

lunes, 2 de abril de 2012

5 Tecnologías que cambiarán nuestra vida en los próximos 5 años

Como parte de un proyecto que lleva en marcha desde 2006, IBM ha presentado las previsiones de lo que sucederá de aquí a 5 años. Así, IBM 5 in 5 ya tiene claro las tendencias que marcarán el próximo lustro. http://www.muycomputer.com/wp-content/uploads/2011/12/ibm.png . Estas son las tecnologías: 1- Generación de energía propia 2- Tecnología biométrica de seguridad 3- Los dispositivos leerán nuestro pensamiento 4- La tecnología al alcance de todos 5- Fin del spam

miércoles, 21 de marzo de 2012

La mayor oportunidad de negocio es llevar el cloud a la PYME”, María Garaña, Microsoft

Microsoft se encuentra celebrando en Madrid su evento Destino la Nube en el que, entre hoy y mañana, reunirá a más de 3.000 clientes y partners. En este sentido, María Garaña, presidente de Microsoft Ibérica, destacó que, a día de hoy, “la mayor oportunidad de negocio” se encuentra en “llevar el cloud a la PYME”. Microsoft se ha propuesto acercar la tecnología a la pequeña y mediana empresa española, y, por eso, se encuentra celebrando su evento Destino la Nube, en el que reunirá a cerca de 3.000 empresas, entre clientes y partners. Y es que, tal y como destaca la multinacional, la PYME es un mercado clave. En este sentido, Vahé Torossian, vicepresidente corporativo del grupo SMB&P (pequeña y mediana empresa y partners) de Microsoft a nivel mundial, ofreció algunos datos que explican la apuesta de Microsoft por este mercado. Así, y según Vahé Torossian, “la PYME representa entre un 80 y un 90 por ciento del tejido empresarial de la mayoría de los países” y su contribución al Producto Interior Bruto (PIB) va desde el 50 al 75 por ciento”. Además, son las PYMES las que “contribuyen a crear empleo”. No obstante, Vahé Torossian destacó que “también son las que más se resienten en una crisis”. Para ayudar a la PYME a salir de la crisis, Microsoft apuesta por el cloud. “Llevamos dos años hablando del cloud y hoy en día es una realidad”, destacó Vahé Torossian, quien, citó un estudio de IDC en el que se asegura que, “gracias al cloud se generarán 14 millones de puestos de trabajo de aquí a 2015”. En el caso concreto de España, sólo en 2012 el cloud generará casi 56.000 puestos de trabajo, llegando a los 133.961 en cuatro años. Vahé Torossian, además, también hizo referencia a otro estudio en el que se asegura que “el 76 por ciento de las PYMES es muy optimista respecto a sus resultados económicos gracias al cloud”. Con estas cifras en la mano, Vahé Torossian analizó la realidad a la que se enfrentan las PYMES. Así destacó que “el 75 por ciento de los presupuestos de una empresa se dedican a actividades de mantenimiento”, algo que cambiará una vez que se adopte la tecnología cloud, permitiendo, de esta forma, “que gran parte del presupuesto se dedique a otras actividades, como la innovación”. En el caso de España, Vahé Torossian quiso resaltar el compromiso “de Microsoft con la PYME” asegurando que “160 empresas se suben a la nube a la semana con Microsoft”, lo que les permite “reducir costes y aprovechar la tecnología”. Es más, Vahé Torossian destacó el largo camino que ha recorrido Microsoft en España y afirmó que la compañía “está aquí para largo”. El papel del canal de distribución también fue resaltado por Vahé Torossian, al asegurar que “disponemos de 9.000 partners en España”. “La crisis nos permite salir reforzados, y eso es lo que va a ocurrir con las PYMES españolas”, finalizó Vahé Torossian. Palabras de María GarañaTras la intervención de Vahé Torossian, María Garaña, presidente de Microsoft Ibérica, destacó la importancia del evento que está celebrando la multinacional. “Destino a la Nube vuelve a convertirse en el principal punto de encuentro del cloud computing en España, demostrando el liderazgo de Microsoft y de sus clientes en creciente mercado”. Para María Garaña “la mayor oportunidad de negocio se encuentra en llevar el cloud a la PYME”, y también hizo mención al hecho de que “el 66 por ciento del presupuesto de una empresa se dedica a actividades de mantenimiento, el 20 por ciento a crecer y el 14 por ciento a innovar”. Porcentajes que se podrían invertir si se utiliza la tecnología cloud. “Llevamos un par de años hablando de la necesidad de impulsar la tecnología cloud”, afirmó María Garaña, quien también se refirió a las barreras a las que se tiene que hacer frente. “Muchas PYMES no tienen departamento TIC y los dueños no están familiarizados con las TIC. Además, hay una importante barrera económica”. No obstante, la presidente de Microsoft Ibérica destacó que “gracias al cloud estas barreras se pueden solventar”. De la tecnología cloud, María Garaña resaltó cuatro aspectos “la flexibilidad, la agilidad, la simplicidad y los costes”, aunque advirtió que “a la hora de adoptar el cloud se tienen que tener en cuenta elementos como la funcionalidad, la seguridad, la privacidad, la compatibilidad, el soporte 24x7 y los acuerdos a nivel de servicio”. En cuanto a la oferta, Office 365, Windows Azure y Microsoft Dynamics CRM Online, es la gran propuesta de Microsoft para este mercado. “Queremos asegurarnos de que hablamos el mismo lenguaje que la PYME”, finalizó María Garaña. Noticias relacionadas