jueves, 14 de noviembre de 2013

MAS DEL 50% DE LOS ARGENTINOS TIENEN BANDA ANCHA
Así lo indica el “Barómetro Cisco de Banda Ancha 2.0″ que ofrece datos del primer semestre del año. Destaca la importancia de estas infraestructuras en el desarrollo de los países.


Con el aval de la consultora IDC, Cisco acaba de hacer público el Barómetro Cisco de Banda Ancha 2.0, cuyos resultados se corresponden con los primeros seis meses de 2013. La firma indica que el ánimo del informe es “posicionar la importancia de banda ancha para el desarrollo de los países de la región y debatir la necesidad de una infraestructura de información adecuada”.

Según se indica, las conexiones de banda ancha fija alcanzaron una penetración en la Argentina del 14,7 por ciento de la población, cifra que se traduce en un 50,05 por ciento de los hogares. Además, en junio se registraron 7,3 millones de conexiones de banda ancha (fijas y móviles incluidas en la ecuación), representando un crecimiento de casi dos puntos porcentuales respecto al semestre anterior. De aquellas, la denominada banda ancha 2.0 alcanzó los 3,4 millones de conexiones, un crecimiento que roza el 10 por ciento. Además se precisa que las suscripciones móviles alcanzaron los 1,2 millones: cada 100 fijas, 16 son móviles.

“Las expectativas para el crecimiento de la velocidad es una cuenta pendiente tanto por la demanda de los usuarios como para el desarrollo del país”, indica Cisco. Al respecto, Juan Pablo Estévez, Director Regional de Cisco MCO, añade: “Su desarrollo contribuirá a mejorar la productividad y la competitividad de nuestras economías con un único objetivo: hacer más fácil la vida de las personas para satisfacer sus necesidades más básicas, que hoy están relacionadas con la tecnología. Este es nuestro reto”. No obstante, en lo que refiere a velocidad de conexión se ha crecido 111 Kpbs en los últimos seis meses y 225 Kpbs en el último año, aumentos explicado por “una acción promocional llevada a cabo por los ISP, que ofrecieron mayores velocidades por el mismo precio”, advierte el informe.

Cisco estima que hacia el año 2017 las conexiones de banda ancha 2.0 crezcan en forma exponencial, gracias a una mayor disponibilidad de dispositivos: se espera que en cuatro años se experimente en la Argentina un crecimiento de 3,5 millones de equipos conectados. En aquel año, se establece que las conexiones fijas y móviles sumen en conjunto cerca de 9,2 millones; de las cuales el 80 por ciento serán de segunda generación (2.0).

“Una banda ancha desarrollada es vital para la “Internet de Todo”, un concepto que venimos trabajando en Cisco, a través del cual personas, cosas, datos y procesos se conectarán cada vez más entre sí y generarán nuevas soluciones para mejorar la calidad de vida, la atención ciudadana, la seguridad, la salud o el comportamiento de las empresas”, concluyó Gabriel Sakata (en la imagen), Country Manager de Cisco Argentina, Paraguay y Uruguay.

Fuente: Comunicado de prensa

TAGS Banda ancha, Banda ancha movil, Cisco

domingo, 10 de noviembre de 2013

Amenazas principales Trojan.Clampi Trojan.Clampi es un troyano que intenta robar las credenciales de inicio de sesión relacionadas con sitios web de operaciones bancarias y otros sitios web financieros. Esta amenaza suele instalarse por medio de descargas no autorizadas y, una vez atacado el equipo, descarga varios módulos. Uno de estos módulos se utiliza para esparcir el virus Clampi a través de los recursos compartidos de red. Trojan.Clampi es capaz de eludir firewalls, lo que le permite transmitir la información robada a un atacante remoto y también utiliza un proxy SOCKS para permitir que el atacante remoto inicie sesión en sitios de operaciones bancarias y financieros de forma anónima con las credenciales robadas.
EEUU fue el país más afectado El cibercrimen causó en un año pérdidas por u$s 120 mil M El cibercrimen generó unas pérdidas de u$s 117.440 millones en todo el mundo en los últimos doce meses, convirtiéndose en "uno de los negocios más lucrativos que no ha sufrido la crisis". Así lo explicó el director de márquetin de la compañía de antivirus Norton by Symantec, Roberto Testa, que ha hecho público su informe anual sobre cibercrimen. Este revela que los ataques informáticos han afectado a 378 millones de víctimas y han supuesto un coste medio de 309 dólares a cada una. Las víctimas del cibercrimen suelen ser hombres (64 %) y los países más afectados por los ataques son Rusia, China y Sudáfrica. EEUU lidera el coste a escala mundial del cibercrimen con u$s 39.146 millones, seguido de China, con 37.796 millones y Europa, con 12-149 millones. La compañía destacó que casi una de cada dos personas no toma las precauciones básicas en tabletas y "smartphones" como son la protección con contraseñas, el software antivirus o la copia de seguridad de sus archivos. El informe también sostiene que el 38 % de los usuarios ha sufrido un ataque en su dispositivo móvil en los últimos doce meses. "Los usuarios móviles se han olvidado de la seguridad en favor de la comodidad. Se juega con estos dispositivos, se compra con ellos y hasta se consultan datos financieros pero se olvidan de protegerlos", manifestó Testa. El portavoz insistió en que el perfil del atacante ha cambiado: "Es silencioso, móvil y social. Quiere pasar inadvertido para recabar más información y poder lucrarse. Sabe del incremento de los dispositivos móviles y quiere aprovechar la confianza emocional que ofrecen las redes sociales para suplantar la identidad y poder engañar más fácilmente". El 62 % de los encuestados está de acuerdo en que a día de hoy no existe privacidad en línea y el 40 % desearía poder eliminar permanentemente algún contenido personal presente en la red. Las redes sociales siguen siendo uno de los canales para realizar ataques: el 12 % de sus usuarios afirma que ha sufrido el "hackeo" de alguna de sus cuentas y una de cada diez personas accede a las cuentas de su pareja o amigos sin permiso. Casi cuatro de cada diez usuarios de las redes sociales no desconecta su sesión cuando terminan de utilizarlas. Por otra parte, el informe indica que el 49 % de lo internautas utilizan sus dispositivos tanto para el trabajo como para el uso personal. "Se están utilizando datos laborales y personales en el mismo terminal, con lo que se está construyendo una carretera vulnerable para acceder a ambos", concluyó el director de márquetin de Norton by Symantec. El estudio se basa en una encuesta "online" a 13.022 usuarios de 24 países con edades comprendidas entre los 18 y los 64 años.

lunes, 7 de octubre de 2013

Sopa de Letras ¿Ha oído de ITIL, COBIT, COSO, ISO27000 y demás juegos de caracteres? Todos son elementos que encajan en un marco de referencia que se está tratando de implementar para lograr que este gobierno de tecnología informática cumpla su propósito. El gobierno de la tecnología informática no es más que una continuación del gobierno corporativo, pero enfocado en la tecnología informática, su desempeño, y el manejo del riesgo que el no tenerla puede ocasionar. Desde múltiples hechos económicos, en especial casos de defraudación en información financiera y contable de empresas muy grandes, que generaron perdidas enormes en sus accionistas, se ha hecho conciencia que la tecnología informática en las empresas no puede seguir siendo una caja negra. El gobierno de tecnología informática entonces implica la implementación de un sistema de administración en donde todos los "jugadores" de la empresa, incluyendo la Junta Directiva, participan en el proceso de decisión sobre el uso y aplicación de la tecnología informática y comunicaciones (TIC). ¿Ha oído de ITIL, COBIT, COSO, ISO27000, y demás juegos de caracteres? Todos son elementos que encajan en un marco de referencia que se está tratando de implementar para lograr que este gobierno de tecnología informática cumpla su propósito. El simple hecho de cuestionarse la administración de las TIC, pareciera acusar que hasta entonces no se tiene una administración apropiada. Sin embargo es imperante hacer claridad que la administración de las TIC en su aspecto técnico y de aplicación es apropiada, y lo que falta es la responsabilidad de la alta gerencia sobre los resultados de la aplicación de estas tecnologías. Ya los gerentes no pueden decir que los procesos informáticos transcurren a sus espaldas, sino que deben ser parte de ellos. Los marcos de referencia para la administración de las TIC han existido siempre, sin embargo la ausencia de ellos en la práctica en las empresas ahora tienen mayores repercusiones en cuanto al nivel de riesgo que se maneja al no tener disponibilidad de las mismas, o mediante una generación de información no confiable. A partir de legislación en Estados Unidos gestada principalmente por hechos fraudulentos en la información financiera de las empresas, se han generado una serie de lineamientos y directrices sobre las cuales se han construido algunos modelos de mejores prácticas en la administración de la información. COBIT, (Control Objectives for information and related technology, o los Objetivos de Control para la Informática y sus tecnologías relacionadas) es un conjunto de buenas prácticas o un marco de referencia creado por el Information Systems audit. And Control Association (ISACA) y el ITGovernance Institute (ITGI) en 1992, que entrega una serie de medidas, indicadores, procesos y mejores prácticas comúnmente aceptadas, que le permiten a los administradores, auditores y usuarios de TI, maximizar el beneficio derivado del uso de las TIC y el desarrollo apropiado del gobierno de TIC. Posteriormente han anunciado ValIT para Obtener valor de las TIC, y RiskIT para evaluar y mitigar riesgo. Está anunciado recoger todo esto, y otras cosas más en la version 5 de CobiT. Este marco de referencia define claramente siete características que deben estar presentes en el manejo de la información: •Efectividad •Eficiencia •Confidencialidad •Integridad •Disponibilidad •Adhesión a la norma (Compliance) •Confiabilidad Y genera el ciclo de calidad (planear, hacer, verificar, y actuar) sobre los recursos de tecnología incluyendo las aplicaciones, la información, la infraestructura y las personas. Se ha dividido en seis grandes grupos los procesos a generar dentro del área de tecnología informática, encima de las operaciones mismas, para ser controladas por este ciclo de calidad. Y es ahí donde empieza a jugar la "sopa de letras" de los diferentes estándares propuestos para administrar cada uno de ellos. •Administración del servicio: ITIL, Information Technology Library Infrastructure •Desarrollo de Software/Aplicaciones: CMMI, Capability Maturity Model for Integration •Administración de Proyectos: PPBok (Libro de conocimiento de administración de proyectos) y PRINCE2 •Seguridad TI: ISO 27000 (Antes ISO 17799/ BS 7799) •Planeación de Tecnología: AS8015 aporta algunos elementos •Sistema de Calidad: ISO 9000 / Six Sigma Se ve claramente un conjunto de caracteres y estándares, y la pregunta de fondo es ¿y qué se debe hacer con todo esto? Consideramos que estos marcos de referencia en su mayoría, como CobiT e ITIL siguen en franco desarrollo, y que sería bueno esperar por lo menos seis meses para identificar posibles inconvenientes en aplicaciones ya en curso, para tener algo de la curva de aprendizaje recorrida. De la misma manera, es necesario empezar un estudio de estos estándares para identificar oportunidades puntuales de implementación, en especial en el área de la administración del servicio de la tecnología informática, a través de los dos procesos centrales que ofrece ITIL.

lunes, 30 de septiembre de 2013

Los próximos 5.000 millones internet_para_todos Los líderes del Mundo tecnológico, como Facebook y Google, están dirigiendo su atención hacia los dos tercios de la humanidad que aún no está conectada a Internet. “Internet para Todos” se llamó mi primer libro, publicado en 1996. Fue un éxito, porque explicaba desde cero qué era y cómo usar la “red de redes”, como la llamábamos en ese momento. Pero el título correcto del libro debería haber sido “Internet para todos los que tengan acceso en su región, puedan comprar el hardware necesario, pagar la conexión mensual y comprar este libro“, ya que sólo daba los conocimientos necesarios, no resolvía otro problema más básico: el económico. Hoy ese libro ya no tiene sentido, el uso (básico) de Internet es tan sencillo que no necesita un libro. Pero el segundo problema sigue vigente. Somos 7.000 millones de habitantes en este Planeta, de los cuales solamente un tercio, algo más de 2.000 millones, estamos conectados. En los últimos meses los líderes mundiales de la tecnología como Google y Facebook están poniendo este problema en primer plano . Recientemente Mark Zuckerberg anunció la creación de Internet.org, una asociación mundial de empresas de tecnología, entre las que están Facebook, Ericsson, Samsung, Nokia y Qualcomm. El objetivo: darle acceso a Internet a los dos tercios de la humanidad que aún no lo tienen. Los esfuerzos estarán focalizados en los dispositivos móviles, que son ya el canal de acceso más utilizado para estar online. La iniciativa alienta el desarrollo de métodos que reduzcan el costo de acceso, como la compresión de datos, y la instalación de infraestructura donde fuera necesaria. Hace unos días tuve la oportunidad de reunirme con la española Laura Estefani, Growth Manager LATAM de Facebook, que me dio algunas cifras locales muy significativas: Argentina es uno de los países con más tasa de penetración de la red social, cada día se conectan a Facebook 14 millones de argentinos, la mitad lo hace desde dispositivos móviles. Por otro lado, hoy hay en el país unos 30 millones de líneas activas de celulares, de los cuales sólo 7 millones son smartphones. Uniendo los dos datos, se puede entender que la empresa esté poniendo foco en los “feature phones“, teléfonos básicos que pueden correr la versión Java o móvil de Facebook, incluso actualizaciones de estado por SMS, para los que tienen los equipos más elementales. También están trabajando en acuerdos con operadores para que den acceso gratuito a Facebook con el abono básico. Google, por su lado, fiel a su estilo grandilocuente, presentó el proyecto Loon, para llenar el cielo de globos aerostáticos movidos por el viento estratosférico, que darian acceso gratuito a Internet. Es bueno ver que las grandes empresas, obviamente sin dejar de lado su objetivo primario, que es ganar dinero, están mostrando interés en mejorar las condiciones de los que tienen menos posibilidades económicas.

miércoles, 25 de septiembre de 2013

La nueva realidad en la industria tecnológica Las marcas Japonesas de alta tecnológica se encuentran en un punto de inflexión, que por los que aparenta es de en caída libre, Panasonic, Sony, Sharp, Toshiba, otrora líderes globales de electrónica de consumo buscan tablas de salvación basadas en estrategias de supervivencia, en solo 20 años la industria electrónica se transformó de forma radical, paso de la era industrial a la era digital. Pasamos de componentes, parte electrónicos, parte mecánicos, a componentes gobernados por un software, cerebro de todos los componentes de electrónica de consumo, la era digital catapulto al software de vasallo a rey, este cambio sin precedente, está rindiendo grandes beneficios corporativos, generando la construcción de marcas poderosas, Apple con un valor de marca de $185,071 millones de dólares y Google $113,669 millones de dólares. El frente de batalla de industria tecnológica se encuentra e encarnizada en dos flancos, las tabletas y los teléfonos inteligentes, la participación de mercado de teléfonos inteligentes en el primer trimestre del 2013 según Wall Street Journal, Samsung 31.7%, Apple 17.3%, LG 4.8% Huawei 4.3%, ZTE 3.8%.

lunes, 23 de septiembre de 2013

Se consideran 10 principios básicos de ésta nueva economía, basada en información, comunicaciones e intangibles. En entregas recientes hemos analizado los diferentes modelos de negocios que provee la Internet. De la misma manera hemos definido el modelo de negocio como aquello que describe y detalla de donde se obtiene el valor en la empresa. En términos generales, es la forma como se obtiene una utilidad entregando a cambio un producto o servicio. La Internet abre nuevos espacios en el modelo de cada uno de los negocios ya que presenta oportunidades para bajar los costos, permite nuevas formas de atender clientes y manejar proveedores, adopta nuevos sistemas de mercadeo y mejor aún, presenta la oportunidad para crear nuevos productos y/o servicios. Kevin Kelly, según lo expuso Roberto Pardo durante el reciente evento de Comercio Electrónico en Cali, habla de 10 principios básicos de ésta nueva economía, basada en información, comunicaciones e intangibles. Describiremos brevemente cada uno de estos principios a continuación. 1. MATERIA En la revolución industrial era importante la materia, la ubicación del recurso físico, la fabricación y venta de productos más que de servicios. Ahora es importante la información. Se piensa más en el bit y no en el átomo. 2. ESPACIO En los modelos anteriores la ubicación geográfica formaba parte importante de la decisión de establecimiento de un negocio. En el mundo de Internet y en la nueva economía, la distancia prácticamente no existe. Hay todavía dependencia del espacio en algunos aspectos del negocio, como la entrega de productos físicos, sin embargo con la migración a productos basados en bits, la distancia se hace despreciable. 3. TIEMPO La Internet ha vuelto todo casi instantáneo, no hay demoras. 4. GENTE Es el activo más importante en la nueva economía: más que el dinero, de fácil adquisición para las empresas embarcándose en proyectos de Internet, más que el recurso físico el cual forma parte menos importante ahora en esta nueva economía. 5. CRECIMIENTO Las redes generan crecimientos exponenciales ya que cada nuevo miembro de la red genera un punto nuevo de destino o fuente para los millones de puntos ya existentes. Si se hace un ejemplo con las cuentas de correo electrónico, en la medida en que cada una de las personas con las que uno tiene contacto tiene su propia cuenta, se potencializa la posibilidad de comunicación por el medio con los demás miembros del grupo. 6. VALOR El valor es uno de los principios estrechamente ligados al crecimiento. A mayor participación en el mercado, el valor también crece exponencialmente. 7. EFICIENCIA Los intermediarios forman parte de la vieja economía y forma de hacer negocios y son reemplazados por infomediarios, quienes median en la proveeduría de la información. 8. MERCADOS Al comprador se le da mucho más poder porque tiene mucho más de donde escoger y estará siendo objeto de muchos proveedores. Por el otro lado, al vendedor se le presentan muchas más oportunidades de venta con la globalización de la demanda. 9. TRANSACCIONES Las economías de escala, necesarias para competir con efectividad en la economía anterior, en la nueva economía dejan de tener tanta relevancia ya que la Internet permite que las transacciones sean atendidas masivamente pero con alto nivel de personalización que genere transacciones uno a uno sin encarecer el proceso. 10. IMPULSO Uno de los mayores cambios en la nueva economía es que no se presenta el espacio de tiempo normal entre la intención de compra y la acción. La Internet permite eliminar este espacio dado que quien encuentra lo que busca por lo general lo termina comprando. Es importante entonces tener en cuenta estos 10 principios de la nueva economía para amoldar el negocio actual en el cual la empresa se desempeña a estas nuevas reglas. Ya no se trata de si el comercio electrónico se impondrá o no, sino qué tan rápido puede uno entrar sin que la competencia lo arrolle. Se ha llegado inclusive a considerar que el nuevo modelo económico será benévolo con los adoptadores tempranos pero fustigará a quienes se decidan tardíamente ingresar a él.

viernes, 20 de septiembre de 2013

AMD A10 6800K “Richland” AMD continúa apostando fuerte a los procesadores altamente integrados que ha llamado APU (Accelerated Processing Unit). La más reciente novedad es el lanzamiento de los chips serie A que utilizan el núcleo “Richland” y a los que también se les aplica la nueva marca “Elite”. Los nuevos chips Elite A funcionan sobre el socket FM2, que ya había sido introducido con los procesadores “Trinity”. De hecho, Richland viene a ser una evolución de Trinity, en la que se ha mejorado el consumo de energía, la interfaz de memoria y la frecuencia de reloj. Según AMD, lo interesante de esto es que se produce un incremento positivo en la performance mientras que el consumo de energía se mantiene igual que en Trinity. El nuevo 6800K El A10 6800K es el chip más rápido de los nuevos Richland para Socket FM2. Se destaca por ser el único modelo de la nueva serie que soporta memoria DDR3 de 2133 MHZ. El A10 6800K es el chip más rápido de los nuevos Richland para Socket FM2. Se destaca por ser el único modelo de la nueva serie que soporta memoria DDR3 de 2133 MHZ. El procesador más rápido de la nueva línea Elite es el A10 6800K. Se trata de un chip de cuatro núcleos físicos que viene equipado con la GPU Radeon HD 8670D. Para darnos una idea del avance que supone el nuevo buque insignia del socket FM2, vamos a comparar sus características con las del microprocesador Trinity más rápido, el A10 5800K. Para empezar, el 6800K tiene una frecuencia base muy alta, de 4,1 GHz, mientas que con Turbo es capaz de alcanzar los 4,4 GHz. En cambio, el 5800K tiene una base de 3,8 GHz y una máxima de 4,2 GHz. El TDP de ambos chip es el mismo, que se mantiene en 100 Watts. En cuando a los núcleos CPU, corresponden a la arquitectura Piledriver, que es la misma que se utiliza en los procesadores FX de AMD. Los 4 núcleos vienen acompañados por una caché L2 de 4 MB, tanto en los modelos A10 como A8. En el A6 6400K, que es un chip de sólo 2 núcleos, tenemos una reducción drástica de la caché, que baja a 1 MB. Otra novedad del 6800K es la GPU Radeon HD 8670D. Es una solución gráfica con 384 núcleos (procesadores stream) y una frecuencia de 844 MHz. Por su parte, el Trinity 5800K tenía una GPU Radeon HD7660D que también incluía 384 núcleos, pero a una frecuencia de 800 MHz. ¿Son 44 MHz suficientes para justificar un salto de nomenclatura tan grande? En nuestra opinión, no. Sin embargo, el A10 6800K es capaz de brindar un gran rendimiento de GPU gracias a que integra soporte oficial para memoria DDR3 de 2133 MHz, a diferencia de Trinity, que estaba limitado a módulos de 1866 MHz. Como sabemos, la velocidad de la memoria RAM puede tener un gran impacto en el rendimiento de los gráficos integrados. Así las cosas, en el 6800K puede justificarse un nuevo nombre para una misma GPU con 44 MHz adicionales, porque aquí también se ha incrementado notablemente el ancho de banda de memoria. Sin embargo, nos sorprende saber que los demás modelos de la serie Richland siguen teniendo un controlador de memoria limitado a la velocidad de 1866 MHz. El A10 6800K regula su frecuencia de manera dinámica para mantener bajos el consumo energético y la generación de calor. El A10 6800K regula su frecuencia de manera dinámica para mantener bajos el consumo energético y la generación de calor. Influencia de la memoria Muchas veces hemos dicho que la velocidad de la memoria juega un papel clave en el desempeño de los gráficos integrados. Aquí pondremos a prueba esa idea al utilizar el A10 6800K con módulos de distinta frecuencia. Hay que notar que al aumentar la frecuencia de la RAM, también aumentan las latencias. Para nuestras pruebas no tuvimos a mano módulos de 2133 MHz, sin embargo se puede ver un muy buen incremento del rendimiento. En primer lugar debemos considerar que de 1333 MHz (que son las RAMs DDR3 más baratas de la actualidad) a 1866 MHz hay un incremento de frecuencia del 39 %. Esto se traduce en una mejora del 21 % en la prueba predeterminada de 3DMark 06. En Dirt 2 (DirectX 11, preset de calidad “bajo”) a resolución de 1366 x 768 píxeles logramos una mejora impresionante, del 35 %. Finalmente, Resident Evil 5 nos ofreció una mejora del 26 %, al saltar de 51,9 fps a 65,41. Hay que notar que el cambio de memoria no afecta tanto a las funciones de CPU puras como afecta a los gráficos. Por ejemplo, el benchmark de Cinebench R11.5 no demostró cambios significativos, mientras que 3DMark 06 en su apartado CPU sólo demostró una mejora leve, del 1,6 %. ficha3 Otros benchmarks gráficos Aquí comentaremos algunos otros resultados que conseguimos al utilizar el 6800K. Haremos énfasis en la parte de los gráficos integrados, dado que ese es el fuerte de Richland. A modo de comparación incluiremos los resultados que obtuvimos con la GPU Intel HD 4600, integrada en los nuevos chips Haswell. En primer lugar podemos hablar del benchmark del juego Lost Planet 2, basado en DirectX 11. Aquí, en una resolución de 1920×1080, el Intel Core i7 4770K puede ofrecernos 33,8 fps, mientras que el A10 6800K se luce con 43,2 fps. En Resident Evil 5, también a 1920×1080, el A10 6800K nos da un resultado de 65,4 fps. En tanto, el i7 4770K llega a los 55,2 fps. Ambos gráficos integrados ofrecen una experiencia de juego aceptable en este caso, aunque hay un margen de diferencia a favor del A10. Para completar la comparativa gráfica podemos ver la tabla con los resultados de Grid 2. El A10 se mantiene en la cima gracias a su valioso poderío gráfico integrado. No obstante, hay que considerar un par de cuestiones al tomar en cuenta los resultados del A10. El primero es que se trata de un chip con una sección de CPU que no puede competir con los modelos más caros de Intel: 3,60 puntos en Cinebench R11.5 contra los 8,5 de un i7 4770K y los 6,51 de un i5 4670K (o los 6,85 de un FX 8350). Pero el nuevo A10 sí puede competir favorablemente con chips Core i3 de precio similar. Por ejemplo, el Core i3 3225 (U$S 140 en los EE.UU.), equipado con la GPU HD 4000, que logra 3,32 puntos en Cinebench. ficha2 Overclock El procesador que tuvimos la oportunidad de probar incorpora el sufijo “K” al final de su nombre (A10 6800K). La letra K indica se trata de un chip con el multiplicador desbloqueado. Gracias a esto se facilita notablemente el overclocking. Los límites de este chip con refrigeración convencional parecen estar entre los 4600 y 4800 MHz. Conclusiones El refresco de AMD a su línea de chips serie A llega en un momento justo. Los nuevos procesadores Intel Haswell llegan con poderío gráfico renovado, pero AMD tiene lo necesario, al menos en sus APU, para mantenerse como una gran opción. Con chips como el A10 6800K resulta ser cierto que podemos disfrutar de juegos modernos si necesidad de agregar una placa de video de gama baja. La inclusión de compatibilidad con memorias de 2133 MHz sólo en el modelo 6800K nos deja perplejos. Resulta ser algo favorable para este único modelo y algo desfavorable para todos los demás… Renombrar la GPU de HD 7660D a 8670D sólo por 44 MHz adicionales parece algo un poco exagerado, aunque no lo sería tanto si todos los chips gozaran del ancho de banda agregado de DDR3 2133. En todo caso, más allá de las críticas que se puedan hacer sobre el nombre de los chips y sus componentes, lo cierto es que el A10 6800K es un procesador razonablemente rápido para las tareas de CPU y sorprendentemente eficaz en su área de gráficos. ficha Pros & Contras Gran rendimiento gráfico Aceptable potencia CPU DDR3 2133 sólo en un modelo Fabricante: AMD Precio: U$S 149 (EE.UU.)

jueves, 12 de septiembre de 2013

Drástica transformación en el ámbito empresarial Diez tendencias de negocios inspiradas por la tecnología El fenomenal avance de dos tendencias –big data y advanced analytics– logró transformar los negocios del siglo 21. Hoy son una serie de capacidades que deben ser incorporadas en todas las funciones y operaciones para que los gerentes entiendan mejor los mercados y tomen mejores decisiones. lun 2 de septiembre de 2013 Comentarios: (0) Share on facebook Share on twitter Share on email Share on print More Sharing Services Edición: Julio 2013 Edición julio 2013 Nº1145 Ver edición © violetkaipa - Fotolia.com El informe que la consultora McKinsey publicó hace tres años describía las 10 tendencias empresariales habilitadas por la tecnología que estaban alterando –en aquel momento– de manera profunda el paisaje empresarial. Desde entonces, la cantidad de datos almacenados se duplica cada 20 meses, el número de dispositivos conectados a Internet llegó a 12.000 millones y los pagos por teléfonos móviles se aproximan a la marca de US$ 1 billón (millón de millones). El nuevo informe que publica la consultora este año, además de describir cómo varias tendencias han aumentado en importancia, añade otras que ganan en importancia y quita las que ya han entrado en el mundo de lo aceptado. Las tecnologías sociales se están convirtiendo en una poderosa matriz social, que es pieza clave de la infraestructura organizacional que liga a empleados, clientes y proveedores como nunca antes había ocurrido. Implícito en aquel trabajo y explícito en este, hay un foco en las tecnologías de información y comunicación. Cuatro de las tendencias que se describen aquí reflejan profundas alteraciones en IT en campos que van desde la genómica hasta la energía y ciencia de materiales. El crecimiento de la implementación de la Internet de todas las cosas, o sea el incrustamiento de sensores en objetos físicos, está creando enormes efectos y oportunidades. "La nube," con su capacidad para ofrecer poder digital a bajo costo, no solo está cambiando el perfil de los departamentos de IT sino ayudando al surgimiento de una cantidad de modelos de negocios nuevos. El resultado es una aceleración de una tendencia que McKinsey identificó en 2010 como "la entrega de cualquier cosa como servicio". La creciente automatización del trabajo del conocimiento, que afecta el empleo en todo el mundo, promete una nueva fase en productividad empresarial. Finalmente, hasta 3.000 millones de consumidores nuevos, la mayoría en mercados emergentes, podrían muy pronto convertirse en jugadores totalmente digitales gracias principalmente a las tecnologías móviles. McKinsey sugiere que el impacto económico colectivo de las tecnologías de información que sostienen estas cuatro tendencias podría oscilar entre los US $10 billones y US$ 20 billones anuales en 2025. Las tres tendencias siguientes son más relevantes a los anunciantes digitales, pero su importancia se está expandiendo a toda la empresa. Son la integración de experiencias digitales y físicas, que está creando nuevas formas de integración entre la empresa y sus clientes. Está aumentando la demanda del consumidor por productos que son gratuitos, intuitivos y totalmente orientados al usuario. Y la rápida evolución del comercio que permite IT está reduciendo las barreras de entrada y abriendo nuevas corrientes a una cantidad de individuos y compañías. Finalmente, hay que pensar en cómo, al igual que la industria, también podrían beneficiarse el gobierno, la educación y la salud con la adopción de tecnologías digitales. 1. Entrar a la matriz social Las tecnologías sociales son mucho más que un fenómeno en el plano de los consumidores: conectan muchas organizaciones internamente y se expanden más allá de sus fronteras. Ahora se han convertido en el entorno donde se conducen cada vez más empresas. Muchas organizaciones las usan para resolución de problemas aprovechando ideas de clientes y expertos de adentro y afuera de la compañía. Hoy los rasgos sociales pueden formar parte de cualquier transacción digital. Los usuarios pueden poner "me gusta" alguna cosa y luego registrar "lo que quieren", facilitando así nuevos niveles de relacionamiento comercial. 2. Competir usando "big data" y analytics avanzada Hoy big data y analytics ya se han convertido en un nuevo instrumento para competir. Los volúmenes de datos, que surgen de la Web, sensores, teléfonos y mucho más, se duplican cada dos años. El poder de analytics crece mientras los costos bajan. Con tanta información de los puntos de contacto y con herramientas para analytics, las empresas pueden customizar sus productos cada vez más mediante la creación de microsegmentos de consumidores cada vez más sutiles. El software de analytics avanzada permite a las máquinas identificar patrones escondidos en montañas de documentos. Esta "inteligencia" de la máquina significa que se pueden automatizar a menos costo muchas más tareas de conocimiento. 3. El despliegue de la "Internet de todas las cosas" La proliferación descontrolada de diminutos sensores va a explotar en la próxima década y motivará la conexión de más de 50.000 millones de objetos físicos mientras los costos se desploman y las redes se multiplican. Lo que hace tres años apenas nacía, hoy se está volviendo ubicuo. Eso da a los empresarios posibilidades impensadas para afinar sus procesos y manejar operaciones. Las empresas están comenzando a usar esas tecnologías para manejar –no solo vigilar– complejas operaciones, para que los sistemas tomen decisiones autónomas basándose en datos que aportan los sensores. Las redes inteligentes ya usan sensores para monitorear los flujos de vehículos y reprogramar señales de tránsito de acuerdo con esa información. 4. Ofrecer cualquier cosa como servicio La compra y venta de servicios derivados de productos físicos es un modelo de negocios que está cobrando impulso. Una atracción para los compradores es la posibilidad de reemplazar una gran inversión de capital con un gasto operativo mucho más flexible y granular. Todo tipo de empresas, no solo las tecnológicas, lo están adoptando para monetizar activos subutilizados transformándoles en servicios. Las empresas con flotas de camiones, por ejemplo, crean negocios B2B alquilando las unidades que no usan por día o por hora. 5. Automatizar el trabajo de conocimiento Las labores físicas y las tareas transaccionales han sido profundamente automatizadas en los últimos 30 años. Nuevos avances en data analytics, el abaratamiento del poder computacional, el aprendizaje con máquinas e interfaces que "entienden" a los humanos están corriendo la frontera de la automatización hacia los más de 200 millones de trabajadores del conocimiento. Al mismo tiempo, empresarios y políticos serán responsables conjuntamente de mitigar la desestabilización causada por el desplazamiento de trabajadores del conocimiento y de su reubicación en nuevos roles. La recapacitación de trabajadores, el rediseño de la educación y la redefinición de la naturaleza del trabajo serán importantes elementos de este esfuerzo. 6. Los próximos 3.000 millones de ciudadanos digitales A medida que suben los ingresos en las naciones en desarrollo, cada vez más ciudadanos se conectan a la red con dispositivos móviles, especialmente teléfonos inteligentes cada vez con más poder y versatilidad. Aunque varios mercados emergentes han experimentado un crecimiento de dos dígitos en adopción de Internet, sigue habiendo un enorme margen de crecimiento. En India la penetración digital es de solo 10% y en China, de alrededor de 40%. La conectividad estimulará la inclusión financiera, los emprendimientos locales y las oportunidades de negocios. A medida que los teléfonos conectados a Internet y otros dispositivos bajan la curva de los costos, permitirán una increíble cantidad de nuevas aplicaciones nuevas y fuentes de valor. 7. Experiencias que mezclan lo físico con lo digital Las fronteras de los mundos físico y digital se vienen desdibujando desde hace años, cuando los consumidores aprendieron a comprar en negocios virtuales y a encontrarse en espacios virtuales. En esos casos, el mundo online refleja experiencias del mundo físico. Pero ahora estamos viendo una inversión, cuando las actividades de la vida real se enriquecen con información digital o la Internet móvil da al mundo físico características digitales. Hoy hay aplicaciones inteligentes que usan tecnología de teléfonos para entender dónde estamos, o dónde están nuestros amigos o para permitirnos traducir señales de calles en el extranjero. La realidad aumentada irá más allá con dispositivos que se llevan puestos, como Google Glass, que usa cámaras y conexiones inalámbricas para proyectar la información que le pedimos a través de los anteojos. 8. Modelos de negocios que se derivan de la gratuidad de otros Después de casi 20 años de comprar y hacer muchas cosas en Internet, la gente espera resultados instantáneos, excelente y transparente servicio al cliente en todas las interacciones, tanto en la Web como en el mundo físico. Quien no brinde eso, verá que sus competidores lo hacen con una simple aplicación descargable. Es probable que los usuarios nunca paguen muchos servicios valiosos. Los proveedores de servicios "gratuitos" tendrán que inventar otros modelos de negocios, por ejemplo aprovechando la información que reúnen con la actividad gratuita que es comercialmente relevante. 9. Avance notable del comercio digital El crecimiento de la Internet móvil y la evolución de las tecnologías centrales que reducen costos y simplifican enormemente el proceso de completar transacciones online están reduciendo las barreras de entrada a una gran cantidad de actividades económicas. Ya hay plataformas tecnológicas que permiten el comercio punto a punto para reemplazar actividades tradicionalmente realizadas por empresas y dando origen a nuevos tipos de sistemas de pagos y modelos de monetización. Las redes de pagos móviles, a veces aumentadas con servicios que van más allá de la transacción pura, son una segunda área de evolución para el e-commerce. 10. Transformación de gobierno, salud y educación El sector privado tiene un gran papel en el logro de la transformación del gobierno, la salud y la educación, que juntos representan la tercera parte del PBI global. Esos sectores van a la zaga del crecimiento en productividad en parte al menos porque han sido lentos en adoptar plataformas basadas en la Web, big data, anayitics o innovación en IT. El crecimiento de la productividad habilitado por la tecnología podría ayudar a reducir el costo mientras mejora la calidad de los servicios y de los resultados, además de aumentar las perspectivas de crecimiento global a largo plazo. Ideas que transformarán el mundo No todas las tecnologías que se anuncian como revolucionarias lo van a ser, pero sí hay algunas con posibilidades de alterar el statu quo. Disruptive technologies: Advances that will transform life, business, and the global economy, el último informe del McKinsey Global Institute sobre el tema, identifica 12 tecnologías con posibilidad de inmensas transformaciones económicas para los últimos años, especula sobre cómo podrían cambiar el mundo y cómo deberían prepararse las empresas. Según el informe, esas 12 tecnologías podrían tener un impacto económico entre US$ 14 billones (millones de millones) y US$ 33 billones para el año 2025. Algunas de esas 12 tecnologías incluyen: Robótica avanzada, o sea robots o herramientas robóticas con más habilidad e inteligencia, capaces de realizar tareas que antes eran o demasiado delicadas o antieconómicas para automatizar. Genómica de próxima generación que permitirá no solo mejorar los diagnósticos y tratamientos para la salud humana sino también mayor comprensión de plantas y animales para mejorar el desempeño de la agricultura. Sistemas de almacenamiento de la energía para uso posterior. En la próxima década, esa posibilidad podría hacer competitivo el costo de los autos eléctricos, llevar la electricidad a zonas remotas y mejorar la eficiencia de la red energética. Las ventajas que prometen estas y otras tecnologías son tremendas, pero también lo son los desafíos de prepararse para ese impacto. Si Gobiernos y empresas esperan a que lleguen, será tarde para aprovechar sus ventajas o reaccionar a las consecuencias. Deben prepararse. Los empresarios deben mantener sus estrategias organizacionales actualizadas frente a la evolución continua de las tecnologías y usar tecnologías para mejorar el desempeño interno. Las tecnologías disruptivas pueden cambiar el escenario creando productos totalmente nuevos y servicios y cambiando las fuentes de valor. Los líderes deben planificar diferentes escenarios. Los políticos pueden usar tecnología avanzada para hacer frente a sus propios desafíos operativos, por ejemplo, desplegando la "Internet de las cosas" para mejorar la administración de la infraestructura.
Quién es dueño del futuro en el universo digital? En su último libro, el pionero digital Jaron Lanier plantea que los servicios online más grandes del mundo, como Google y Facebook, no son “gratuitos” dada la información que les entregamos, que usan para ganar mucho dinero. Lanier aboga por una economía digital humanista, donde la gente gana dinero simplemente siendo ella misma. lun 9 de septiembre de 2013 Comentarios: (0) Share on facebook Share on twitter Share on email Share on print More Sharing Services Galeria de imagenes Anterior Ampliar Siguiente Las revoluciones suelen desencantar a sus creadores y la digital no es la excepción. Jaron Lanier, uno de los creadores de la realidad virtual en los 80, dice en su último libro Who Owns the future que Internet, después de prometer descentralizarlo todo, permitió la mayor consolidación de riqueza, poder y territorio desde el Imperio de los mongoles. Apple, Amazon, Facebook y Google – los servidores sirena, como llama a esos cuatro gigantes -- se están repartiendo el mundo entre ellas, dejando al resto solo las migajas. Apple, después de exhortarnos a “pensar diferente” está creando un futuro donde todos debemos pensar igual. Amazon no es solo el centro de compras que va a acabar con todos los centros de compras, es el almacén de la esquina que va a acabar con todos los almacenes de la esquina. Facebook está monetizando la gráfica social. Google va tras cada uno de nuestros movimientos para luego venderlos. Esto suena deprimente y se pone peor, opina George Dyson, autor de “The origins of the digital universe”. Lanier dice que la economía digital está en peligro de matar la gallina de los huevos de oro: nosotros. La computadora personal, que al principio se la definía como la máquina para las masas, ha comenzado por intermaciadión de Internet, a eviscerar a la clase media. A las empresas les da un consejo: además de recolectar tributos (en datos monetizables y creatividad individual) de los esclavos que trabajan en la base de la economía digital, les deberían pagar algo a cambio. Lanier no se refiere simplemente a pagar los impuestos empresariales; se refiere a aplicar la misma habilidad para los algoritmos que permite a Google vender palabras con objetivos publicitarios, a premiar a los autores por escribirlos. ¿Quién es el dueño del futuro? En ¿Quién es dueño del futuro? Lanier cuestiona la trayectoria del valor económico en la era de la información y argumenta que, cuando el capitalismo se volvió digital dio un paso en falso fundamental. El capitalismo, dice, no solo está gastado sino que es humillante para la persona común: en el mundo automatizado la información es más importante para la economía que los trabajadores manuales y sin embargo se espera que nosotros, la gente común, demos de manera gratuita información generada por nosotros mismos, que ahora se considera un recurso valioso. ¿Debería Google compensarnos por nuestras búsquedas? Debería Amazon pagarnos por los libros que compramos? Claro que sí, porque nos están usando para expandir sus bases de datos y afinar sus algoritmos y…..en última instancia, robar nuestros empleos. ¿Cómo funcionaría el plan de Lanier? Cada vez que Amazon usa nuestro historial como clientes para hacer una venta o cada vez que OkCupid arma una pareja basándose en nuestros antecedentes personales, deberíamos recibir un “nanopago”. En su utopia, los datos que divulgamos a los sitios que él llama “los servidores sirena” (Apple, Amazon, Facebook y Google) deberían pagarnos “regalías basadas en contribuciones creativas de toda una vida”. Debemos echar mano de la iniciativa para hacerla realidad o prepararnos para una eventual “reacción socialista”. En ese futuro, todos estaríamos diciendo “me gusta” por la mañana, enviando mensajes de texto por la tarde y tuiteando en la noche. Los robots y las impresoras en 3D harían todo el trabajo difícil y nosotros podríamos hacernos ricos simplemente siendo nosotros mismos. “En una economía digital humanista,” dice, “los diseñadores igualmente se van a ganar la vida, incluso cuando el vestido es cosido y terminado en una casa por un robot”. Y hay más buenas noticias: “Alguien que use el vestido podría también ganar algo de dinero al popularizarlo” Y así, uno puede comprarse otro vestido y ganar todavía más plata. Para explicar este lucrativo guardarropas, Lanier propone un sistema de vigilancia ubicua, con cámaras, bases de datos y todo lo demás. Ya que no podemos tener privacidad, que al menos nos paguen algo. “Los derechos comerciales se adecuan más a una multitud de pequeñas situaciones que ocurren en la vida real que los nuevos tipos de derechos civiles según los lineamientos de la privacidad digital”. Siguiendo su lógica, cualquier corrección en el sistema de mercado, como ajustes de precios basados en cambios en la demanda, exigirían que las ganancias adicionales sean transferidas a los consumidores. Pero ¿alguien esperaría que un supermercado le envíe un cheque sólo porque eligió comprar una marca de leghe y no otra? Probablemente no. ¿Por qué tratar a Amazon diferente? Para Goerge Dyson, autor de The origins of the digital universe, la sola idea de que cada una de nuestras decisiones es un dato a ser monetizado parecerá espantosa, y lo es. ¿Qué hay de “humanista” en la visión de Lanier? se pregunta. Veamos algunas de las cosas que dice Lanier en su libro: “Yo no estoy a favor de inventar empleos para crear la ilusión de que las personas trabajan. Eso sería humillarlas y un imán para el fraude y la corrupción. Pero las empresas con orientación a la red generalmente juntan enormes cantidades de dinero justamente sobre la base de dar valor a lo que hace la gente común. No es que el mercado esté diciendo que la gente común no es valiosa online; es que la mayoría de la gente ha sido reposicionada en el círculo de su propio valor comercial. Una sonrisa sobradora suele recibir las propuestas de una economía de información humanística. ¿Cómo podrían los que no son genios, la gente común, tener algo valioso que ofrecer en un mundo dominado por la élite de personas técnicas y máquinas avanzadas? Esta reacción es comprensible, porque nos hemos acostumbrado a ver languidecer a los subempleados. Pero hay ocasiones cuando este tipo de duda sobre el valor de otros traiciona gruesos prejuicios. Un ejemplo es cuando los inversores se sienten totalmente confiados al valuar en miles de millones de dólares a alguno de los cuatro gigantes que acumulan datos sobre la gente; no importa cuán remota sea la posibilidad de que un verdadero plan de negocios logre una determinada cantidad de ganancias. Y sin embargo, al mismo tiempo, esos mismos inversores no pueden imaginar que la gente, que es la única fuente de eso que es tan valioso, pueda tener algún valor. ¿Por qué es que desde la perspectiva de un “sirena servidor”, saber lo que hace la gente común es algo tan increíblemente valioso, mientras que desde una perspectiva personal, esos mismos datos por lo general le significan migajas efímeras en la forma de facilidad para encontrar un sillón o el mejor precio para una heladera? O dicho de otra forma, una vez que el transporte, o la energía o la salud sean mediados por el software, ¿no deberían las comunicaciones y el entretenimiento adquirir más importancia relativa para la economía? Y sin embargo esos son justamente los negocios que hasta ahora el software ha debilitado”. Evgeny Morozov, autor de “To Save Everything, Click Here: The Folly of Technological Solutionism”, opina que la propuesta de Lanier plantea dos temas que en realidad nunca confronta. El primero es si este plan realmente ayudará a la clase media a tener un sueldo digno una vez que la computadora Watson de IBM comience a atender pacientes y corregir ensayos universitarios. El segundo es cuántos servicios online sobrevivirían a las reformas que propone. Si sirve como guía el destino de los músicos, la clase media está frita, dice Morozov. El sitio web Spotify está pagando a los músicos sobre la base del número de veces que sus canciones son escuchadas. Lo mismo hace You Tube. Este método funciona bien para los grandes nombres famosos, pero a los artistas desconocidos les tocan monedas. Además, los tipos de automatización que preocupan a Lanier, como el reemplazo de taxistas por autos que no necesitan conductores – no necesitan expertos humanos que aporten ningún dato personal. A menos que los taxistas hayan contribuido directamente a hacer los mapas que usan los autos sin conductor, es difícil ver cómo se puede justificar un sistema similar al de las regalías. La cuestión de cuántos servicios sobrevivirían a las reformas propuestas debilita aun más su argumento, dice el crítico. Y cita como ejemplo a Wikipedia. ¿Por qué no compensar a sus autores por cada coma que aportan? Fundamentalmente porque la introducción de incentivos monetarios probablemente afectaría la motivación de los autores. El propósito no monetario de Wikipedia atrae mucho más que lo que atraería la start-up Wikipedia.

viernes, 9 de agosto de 2013

Título: IMPACTO DEL GOBIERNO ELECTRÓNICO EN LA REGION CENTRO AUTORES: CPN ORLANDO D. RODRÍGUEZ CPN ENRIQUE CAROT LIC. SILVIA M. ARANGUREN AP ROBERTO ALBARENQUE LIC. SILVIA L. MUZACHIODI ESTUDIANTE BRUNO UGALDE E-mail: rodriin@fceco.uner.edu.ar Institución: Facultad de Ciencias Económicas, Universidad Nacional de Entre Ríos Categoría: Investigación Modalidad: Publicación y exposición Palabras claves: Gobierno Electrónico, Administración Pública, Tecnología de los Sistemas de Información, Informática. 1. PROBLEMÁTICA Y MARCO TEÓRICO El presente documento es una síntesis de un Proyecto de Investigación desarrollado durante tres años, y cuyo informe final completo se puede observar en el sitio de Internet http://silviamuza.wix.com/primera, por cuyo motivo solo se extrajeron algunas gráficas resultantes del proceso de la encuesta y sólo algunos temas que se consideran relevantes para su difusión. Haciendo una retrospectiva histórica se ve que las formas de gobierno fueron transformándose con el tiempo, desde el gobierno de los sabios, el consejo de ancianos, las monarquías, plutocracias, aristocracias, comunas, asambleas, hasta llegar a la democracia; cada época con su paradigma particular. El paradigma del Progreso, vigente hasta fines del siglo XX, herencia directa de la Revolución Industrial y Francesa del siglo XVIII; y el paradigma de la Comunicación, iniciado en el siglo XXI, con las Tecnologías de la Información y Comunicación (TICs), donde una nueva forma de gobierno es esbozada, el “Gobierno Digital”. 2. RESEÑA DE LA SITUACIÓN EN ARGENTINA 2.1. Agenda digital es el Plan nacional se ha delineado con la siguiente estrategia : 1. Fomentar proyectos que aumenten la competitividad y la productividad del país mediante la mejora de la eficiencia y eficacia en la prestación de los servicios basados en TIC, mejoras en la infraestructura de telecomunicaciones, mecanismos de apoyo a la innovación tecnológica en el sector privado, apoyo a la pequeña y mediana empresa, etc.; 2. Apoyar acciones que promuevan, a través de la aplicación de las TIC, la reducción de las desigualdades sociales y regionales y que mejoren la calidad de vida de las personas; 3. Apoyar los mecanismos que conlleven a un aumento de la participación ciudadana en el proceso de desarrollo mediante el fortalecimiento de los vínculos del Estado con la sociedad civil y con el sector privado, así como a sostener el proceso de modernización del Estado y la introducción de mejoras en la gobernabilidad, con énfasis en los procesos de descentralización y coordinación para brindar servicios públicos; 4. Establecer los mecanismos que aseguren la sostenibilidad de la Agenda Digital Argentina, recomendando y facilitando el desarrollo de las capacidades necesarias que respondan a los desafíos que plantea la nueva economía del conocimiento; 5. Procurar el acceso universal con el fin de que todos los habitantes puedan ser incluidos en la Sociedad de la Información y del Conocimiento; 6. Favorecer la integración de las TICs en la educación como herramienta para mejorar la equidad en el acceso y calidad del aprendizaje, tanto en procesos de alfabetización e inclusión de TICs en la currícula educativa, como de circulación y producción del conocimiento; 7. Propiciar la innovación; 8. Incrementar el uso de las TICs en el proceso productivo; 9. Difundir de manera extendida programas y mecanismos de financiamiento de las iniciativas de la Agenda Digital; 10. Salvaguardar el acervo cultural nacional y regional, particularmente de los pueblos originarios; 11. Priorizar la producción de contenidos nacionales y locales; 12. Posicionar al país como un referente en políticas de la Sociedad de la Información en América Latina y el Caribe. 3. Conclusiones • Es clave que la dirigencia política entienda las potencialidades que el GE tienen para lograr los Objetivos de la Política de Gobierno. • Las mayores expectativas del GE deberían estar puestas en la transparencia que puede aportar a la Gestión Pública, con lo cual podría disminuir el grado de corrupción en el Estado. El GE resulta una herramienta clave para contribuir a alcanzar objetivos de inclusión social y reducción de la brecha digital, sin embargo poco se la utiliza en ese sentido a nivel de Municipio y Provincia. • La participación de todos los integrantes del proyecto de GE, es el principal requisito para lograrlo. • Hay que comprender que el componente electrónico del GE, es solo una parte de un profundo y complejo proceso de cambio organizacional, la mayor parte del trabajo lo requiere el profundizar un cambio cultural de la administración pública. La mayoría de los municipios se encuentran aferrados al Modelo puramente tecnológico. • El aspecto seguridad en general y en particular respecto de la confidencialidad de la información contenida en las bases de datos, ha de adquirir relevancia al momento de hacer operativa cada directriz del GE. • Existe una idea generalizada desde los sectores de gobierno, quienes consideran que se encuentran con un grado de avanzado de implementación del GE, pero si a las estadísticas producidas por nuestras encuestas las confrontamos con la metodología descripta, podemos ver que en su mayoría se encuentran en el inicio de las tareas de implantación de los servicios. • Los gobiernos debieran transitar la etapa del traspaso de los datos de los ciudadanos a manejar información sobre los ciudadanos. • Es imprescindible avanzar en la socialización de herramientas y propuestas de GE, entre los estados municipales, provinciales y nacionales; pareciera que cada uno no quisiera compartir logros en este sentido. En este aspecto un aporte significativo lo aporta el software libre. • Muchos estados han iniciado la implantación de servicios, habiendo obviado los pasos previos previstos en la metodología, los cual no nos asegura proyectos exitosos. • Existe una gran diferencia entre el avance de la implementación del GE, existente en los estados Provinciales y los Municipio salvo alguna excepción como el caso de la ciudad de Rafaela (Santa Fe), donde desde hace más de cinco años han avanzado en la implementación de servicios concretos. • El mayor grado de avance esta puesto en los organismos de recaudación, evidenciando que el mayor interés del Gobierno en el uso de TICs es cuando la aplican para mejorar la recaudación. • Ningún organismo ha llegado a las etapas finales dentro de las diferentes fases de la metodología de implantación. • La financiación del proyecto de GE en la mayoría de los casos es del propio Organismo. • En general los organismos no cuentan, con un esquema de indicadores que permitan medir el avance le la implantación del GE. • Es necesario no perder de vista que se está inmerso en un proyecto dinámico que requiere una constante actualización, por la diversidad de necesidades sociales a satisfacer y la evolución de las herramientas tecnológicas que utiliza. • La débil difusión de los servicios, la poca de capacitación de los ciudadanos para aprovecharlos y sitios con acceso y navegabilidad complejos parecen ser causales del estancamiento de la evolución del GE en muchos municipios. • Los impedimentos que dificultan un buen desarrollo del GE, son más bien culturales y políticos que tecnológicos. • Hay que pensar en nuevas formas de hacer política, nuevas formas de intervención pública, en nuevos contenidos. La generación de contenidos de interés de la ciudadanía parece ser una de las principales deficiencias de los sitios oficiales

martes, 25 de junio de 2013

Los grandes cambios en los requerimientos sobre la tecnología informática ejercen grandes cambios en las personas que rigen los destinos de la tecnología al interior de las empresas. Las estructuras organizacionales en los Estados Unidos utilizan la figura de "Chief X Officer" que podríamos traducir en "Oficial en Jefe de X", y así denotan al Gerente o director ejecutivo como CEO como Jefe Ejecutivo y al Jefe Financiero como CFO. El CIO entonces es el Jefe de Información, un cargo que en nuestro medio conocemos como Jefe de Sistemas o Gerente de Tecnología. Los principios de la tecnología informática incorporaron este departamento a depender del área contable, por razones lógicas: era la contabilidad lo que primero se automatizaba, donde la justificación era muy sencilla. Se reducía el costo de personal y se ganaba mucho en la oportunidad de la información. Luego "ascendió" a reportar directamente a la Gerencia Financiera, por ninguna razón adicional a que la inversión en tecnología era un rubro bastante importante dentro del estado de resultados de la compañía. En las empresas donde se contempla el uso de la tecnología informática como un recurso estratégico, ya se ve el director del área de tecnología reportando directamente a la gerencia general o presidencia de la empresa. Estos cambios en los requerimientos de la tecnología informática y su línea de responsabilidad, también exigen grandes cambios en las personas que rigen los destinos de la tecnología al interior de las empresas. Para determinar entonces cuál sería el perfil del CIO, es necesario definir primero qué se espera de un CIO, qué implicaciones tienen las nuevas tecnologías de información, de comunicaciones, y tendencias económicas como la globalización y el TLC en la definición de las funciones de este cargo. A un Gerente de TI en general se le mide por tres conceptos básicos: Orientación de la tecnología para habilitar negocios y las estrategias del negocio para obtener y/o mantener una ventaja competitiva con estándares globales (eficacia) Administración exhaustiva de los recursos (tecnologías, programas, equipos, tiempo, y el más importante: recurso humano) para obtener el mayor rendimiento de los mismos (eficiencia) Excelente manejo administrativo, dentro de la gestión de calidad, orientado al manejo por proyectos para la obtención de resultados esperados Las funciones básicas de un gerente de TI son entonces las de orientar su grupo de recursos (personas, equipos, telecomunicaciones, etc.) para el mantenimiento, desarrollo, implementación de proyectos que permitan obtener/mantener una ventaja competitiva. La priorización de los proyectos se establece contra los objetivos estratégicos del negocio, y orientados directamente a los procesos definidos. Para cumplir con estas funciones, se requieren en mayor o menor grado, las siguientes habilidades: Comunicación Efectiva Entendimiento de los negocios y del impacto en los negocios de las decisiones de tecnología. Planeación Estratégica, táctica y operativa. Conocimiento de opciones tecnológicas Negociación (con proveedores, con pares, y con subalternos) Reconocimiento y respeto de sus colegas y subalternos Habilidades técnicas Liderazgo Administración de Proyectos Gestión (fijación de objetivos, seguimiento, evaluación) Buena parte de la labor de un Gerente de TI es la interpretación de las tecnologías emergentes y su aplicación, y su traducción a beneficios del negocio para ser "vendidas" las ideas a nivel corporativo, y coadyuvar en la implementación de las mismas. Las habilidades descritas arriba son necesarias para el cumplimento de la labor. Se exige un alto nivel de actualización en las tendencias tecnológicas, para absorber, asimilar y adoptar la avalancha de desarrollos de tecnología a la que estamos abocados en forma permanente. El mercado cambió, por lo que también cambiaron las funciones de los Gerentes de Tecnología. La obligación de abordar temas distintos a la tecnología en sí, exigen que el grupo de colaboradores bajo el CIO también modifique su perfil, y se concentre en algunas tecnologías. El Ingeniero "todero" tiende a desaparecer, no porque no pueda abordar todos los temas, sino porque se requieren cada vez mayores niveles de profundización para una exitosa aplicación de las tecnologías. Lo que si debe quedar claro en esta época, es que ningún gerente de tecnología podrá indicar en la empresa que los cambios estratégicos que se pretenden dar "no se pueden, porque el sistema no lo permite". Hay que tener en pié la tecnología informática que permita hacer lo que se requiere en el negocio para mantenerse competitivos.

martes, 28 de mayo de 2013

En la Argentina hay 7,17 millones de conexiones de banda ancha Según el Barómetro Cisco, el total de suscripciones creció 2,72 por ciento entre julio y diciembre pasados, comparado con el semestre anterior. La velocidad promedio fue de 2,29 mbps. Lunes, 27 de Mayo de 2013 Las conexiones móviles (verde) se mantuvieron en 1,2 millones de suscripciones. Las conexiones móviles (verde) se mantuvieron en 1,2 millones de suscripciones. Share on email e-mail Como todos los semestres, Cisco presentó su Barómetro donde muestra la radiografía de conectividad de la Argentina. En esta oportunidad, entre julio y diciembre de 2012 de registraron 7,17 millones de conexiones de banda ancha (fija y móvil), lo cual supone un crecimiento de 2,72 por ciento con respecto a la cifra recopilada en los seis meses anteriores. La banda ancha fija total mostró una penetración del 14,3% de la población o un 49,3% de los hogares. Además, la banda ancha 2.0 (velocidad de 2 mbps o superior) alcanzó entre junio y diciembre los 3,1 millones de conexiones, significando una penetración del 7,5 por ciento. Con respecto al tipo de conexión hogareña, el DSL sigue dominando el mercado, creciendo 3,5% durante el último semestre, aunque los accesos por cable superaron el 38 por ciento de las conexiones fijas, con una suba de 5,9 por ciento. De esta forma, el cable incorporó 135 mil nuevos abonos, contra los 119 mil del DSL. Las conexiones móviles, por su parte, llegaron a las 1,2 millones de suscripciones. En lo referente a la velocidad de conexión, el promedio se ubicó en 2,29 mbps, creciendo 113 kbps durante los últimos seis meses y 213 kbps en los últimos 12, . Para 2017, se espera que las conexiones por 3G lleguen al 16,5 por ciento, mientras que las de “Banda Ancha 2.0″ llegarán al 74,6 por ciento del total de suscripciones fijas. Para ese año, el total de conexiones será de 9,8 millones. “Apostar al crecimiento de la Banda Ancha en la Argentina debe ser uno de nuestros faros tecnológicos. Porque una mejora de esta herramienta vital contribuirá, de esta forma, a aumentar la productividad y la competitividad de nuestras economías en todos los niveles y segmentos para continuar mejorando la calidad de vida de sus habitantes”, señaló Juan Pablo Estévez, Director Regional de Cisco MCO (Argentina, Chile, Colombia, Paraguay y Uruguay). Fuente: Comunicado de Cisco Más info: Barómetro Cisco (PDF 4MB)

martes, 14 de mayo de 2013

Samsung prueba con éxito una red 5G que estaría lista en 2020
La tecnología desarrollada permitiría la transmisión de datos a una velocidad cientos de veces superior a la conseguida con las actuales 4G LTE. Lunes, 13 de Mayo de 2013 Los ingenieros y desarrolladores de Samsung han disparado los planes de una red 5G para 2020. Share on email e-mail Samsung ha anunciado que su equipo de desarrolladores ha conseguido un gran avance rumbo a lo que sería la próxima generación en redes inalámbricas. La nueva tecnología permitiría la transmisión de datos a una velocidad varios cientos de veces superior a la que se consigue con la actual 4G. Superará incluso a las actuales 4G LTE. Para la implementación de esta tecnología se necesita una amplia banda de frecuencias. Por mucho tiempo se pensó que la transmisión por ondas milimétricas tenían serias limitaciones al enfrentar largas distancias. El problema era la alta tasa de pérdida que tiene este sistema. Sin embargo, Samsung ha desarrollado un nuevo nuevo dispositivo adaptador que ha solucionado los inconvenientes. Con él la compañía ha logrado enviar datos a una frecuencia de 28 GHz y una velocidad de 1.056 Gbps a una distancia de 2 kilómetros. Por supuesto, 2 kilómetros no es mucho, pero sin duda se trata de un buen comienzo. La empresa espera poder lanzar el servicio 5G para el año 2020. Chang Yeong Kim, encargado de investigación y desarrollo en medios digitales y comunicación, señaló: “La banda de onda milimétrica es la solución más efectiva para las actuales necesidades en el uso de Internet por redes inalámbricas. El éxito reciente de Samsung en el desarrollo de la matriz transmisora y receptora la ha llevado un paso más cerca de la comercialización de una red 5G”. La competencia alrededor del desarrollo de la tecnología de redes inalámbricas es muy reñida. Un buen ejemplo del peso estratégico de esta tecnología es el programa que ha establecido China en 2012 para incentivar las investigaciones. Por su parte, la Comisión Europea planea invertir € 50 millones en las redes 5G. El impacto de una mayor velocidad de transmisión en el usuario se verá en el acceso a una mayor variedad de servicios. Actualmente las redes 4G se encuentran en expansión en una gran cantidad de países. El cambio se dio en 2008, sin embargo los servicios 3G todavía están presentes en muchas regiones. Fuentes: Techcrunch, Samsungtomorrow, Thetelegraph

jueves, 2 de mayo de 2013

INVERSIÓN O GASTO EN TECNOLOGÍA

Es indispensable que cada peso que se invierta en la tecnología informática sea justificado en el impacto que tiene en el último renglón de los estados financieros, el renglón de las utilidades. Las situaciones económicas de buena parte de las empresas hace que todos los temas de inversión sean manejados con mucha cautela. La época de la presentación de presupuestos a finales del año para el año siguiente, y luego simplemente ejecutar el mismo se ha quedado en el recuerdo. El manejo de los presupuestos de tecnología informática también ha sufrido la misma suerte. Hace unos años, el crecimiento de los sistemas de información y la renovación tecnológica formaban parte de los rubros estables en los ejercicios de presupuesto. Hoy es indispensable que cada peso que se invierta en la tecnología informática sea justificado, no en términos de obsolescencia tecnológica sino en el impacto que tiene en el último renglón de los estados financieros, el renglón de las utilidades. Justificar proyectos de tecnología cada vez se hace más difícil precisamente por la dificultad de relacionar los desembolsos al impacto que tienen en el desempeño de la empresa. Existe, sin embargo, un concepto administrativo bajo el nombre de alineamiento estratégico de la tecnología que permite de alguna manera solventar esta dificultad. El alineamiento estratégico parte de las estrategias ya establecidas en una empresa. Por más pequeña que sea una empresa, por lo menos se tienen unos cursos de acción y unas metas a cumplir, puede que no formalmente, pero se tienen. En empresas de mayor tamaño ya se encuentran procesos de planeamiento estratégico que permiten identificar formalmente las estrategias de la compañía. Si está bien hecho el proceso, se obtienen los objetivos estratégicos, estos sí con sus respectivas métricas. Por otra parte, se necesita una adecuada ejecución de los procesos que impactan mayormente el resultado de la estrategia. Si el objetivo es el aumento de la venta mediante venta agregada con base en la historia de compra del cliente, el proceso de manejo histórico de las compras del cliente, además del de proyectar las ventas se vuelve crucial. Como dirían los profesores de ciencias y matemáticas, "por definición" los sistemas de información y por ende la tecnología informática debe brindar soporte a los procesos de la compañía, ya que son el componente más durable de la empresa. Por más que una compañía ajuste, mejore, divida o reduzca sus procesos, a menos que cambie de objeto, una empresa pagará a sus empleados, producirá y/o comercializará productos, comprará insumos y materias primas, y tendrá relaciones con entidades de control. La implementación de tecnología para apoyar procesos hace más duradera la efectividad de la misma. Por último, viene el alineamiento estratégico con el que iniciamos. La aplicación de la tecnología debe hacerse en los procesos que mayor impacto tienen sobre el éxito de la estrategia. Si una estrategia depende del conocimiento de la información de los clientes, un adecuado manejo de la misma a través de soluciones de CRM permitirían una alineación de la tecnología con las estrategias. Sin embargo, si por el contrario, el énfasis está en la optimización del proceso productivo a través de mejoramiento de las relaciones con los proveedores, una aplicación de CRM no tendría oficio, por más que se sustente y esté de "moda" su implementación. Los Planes Estratégicos de Tecnología Informática persiguen este alineamiento, y en la medida en que efectivamente haya una implementación y administración de la tecnología alineada con el logro de los objetivos del negocio, habrá siempre disposición para seguir invirtiendo en tecnología. De lo contrario, siempre se mirará el Departamento de TI como un Gasto!

miércoles, 24 de abril de 2013

TACTICA Y ESTRATEGIA

No se deje tentar por la amplia disponibilidad de recursos y su bajo costo. Primero la estrategia y luego la táctica. Los términos de "táctica" y "estrategia" son de aquellos que alguna vez estuvieron de "moda" durante los años 80 donde la Planeación Estratégica tuvo su auge, pero que su uso común ha tergiversado el significado de los mismos. Una estrategia es un curso de acción determinado, un camino definido para obtener los resultados esperados (llamados por lo general objetivos estratégicos). La táctica consiste en allegar recursos y administrarlos de tal manera que el plan de acción se pueda ejecutar. Hace unos años, eran pocos los recursos con los que se contaba, y por lo tanto las tácticas también eran limitadas. Los objetivos tácticos implicaban obtener el mayor provecho posible de las tecnologías implementadas. Al fin y al cabo, el costo de implementar estas tecnologías era bastante alto y por lo tanto era imperante prolongar la vida útil de los mismos para que el costo periódico fuera menor. Adicionalmente, el cambio tecnológico era muy lento, podían pasar entre 18 y 24 meses para que un proveedor hiciera un cambio substancial de tecnología. Hoy aparecen recursos por doquier. Se generan nuevas tecnologías (no solo productos sino tecnologías enteras) con una rapidez impresionante, a muy bajos costos y disponibles globalmente. La implementación de las nuevas tecnologías también se hace en forma óptima y acelerada, por lo que deja de ser también una ventaja competitiva el acceso a la nueva tecnología, algo que otrora era reservado para las grandes empresas con grandes capitales. Hay de todos los "colores y sabores". Se chocan dos mundos actualmente en la oferta de tecnología: las aplicaciones gratuitas (incluidos sistemas operativos, bases de datos y programas como ERP o CRM) y las aplicaciones con costo. No se trata de discernir cual es mejor ni definir una política para manejar las alternativas, sino de establecer que el costo de acceso a la tecnología dejó de ser obstáculo para su utilización. De ahí el pecado capital. Ha hecho carrera en las implementaciones recientes que lo importante es tener la tecnología, y se hace caso omiso a la estrategia para utilizarla. Es muy fácil incluir una sala de conversación (chat) o foro en un sitio Web, sin embargo la simple inclusión no constituye garantía para que se utilice adecuadamente ni que surta el efecto. La tecnología en si misma no brinda ninguna ventaja competitiva, sino la estrategia que se implemente a través de la tecnología. Cuando se trata de diseño de sitios Web para negocios, si que se tienen sorpresas de grandes sumas de dinero invertidas en tecnologías que poco uso estratégico tiene por falta de visión al implementarlas. Una base de datos de clientes que no incorpora estrategias de actualización y verificación permanentes ó una página de noticias que se envejece sin renovación. Las aplicaciones mayores como las de CRM y SCM presentan todavía problemas de uso estratégico más notorio. Si examinamos la primera, la intención es acercarnos a nuestros clientes a través de un sistema de información que nos permita atenderle mejor, y ojalá venderle más. Sin embargo, se nos olvida que en el establecimiento de esta relación interviene no solo nuestro cliente, sino el cliente de nuestro cliente, quien en muchas ocasiones es el consumidor final. Se nos olvida establecer una estrategia para incorporar las relaciones en esta segunda escala, pero sin ellas, nuestro sistema de CRM no tiene mucha utilización. No se deje tentar por la amplia disponibilidad de recursos y su bajo costo. Es imperante que la táctica se efectúe posterior a la estrategia, y que las selecciones de recursos estén alineadas con los objetivos estratégicos.

viernes, 12 de abril de 2013

Comprando Nubes Artículos - Tecnología Escrito por Jose Camilo Daccach T. El cómputo en la nube se ha convertido en una excelente alternativa para que las pequeñas empresas puedan acceder a servicios sofisticados que hasta ahora solo habían estado disponibles para la gran empresa. Mucho se ha hablado y direccionado sobre las bondades y ventajas del “cómputo en la nube”, ventajas que con cada instalación y migración se validan. No hay dudas que el ambiente virtualizado de una “nube” permite aumentos dramáticos en eficiencia. Esta eficiencia, en conjunto con economías de escala resultan en costos operativos más bajos que lo que la mayoría de las empresas pueden obtener. Las empresas que proveen los servicios de “computo en la nube” pasan parte de este beneficio a sus clientes, dando la posibilidad de que pequeñas empresas, al igual que las grandes compañías, pueden ahorrar dinero cuando tercerizan parte de su infraestructura. Adicional al ahorro en dinero, se obtienen también los siguientes beneficios para el negocio: 1. Pagar por lo que se usa Es el primer paso a convertir la infraestructura de cómputo en un estilo de “servicio publico” como tenemos hoy la energía, el agua y el teléfono. El esquema que se estructura, por lo general incluye un costo de “alistamiento” o de instalación, y unos valores unitarios por consumo que se acuerdan entre cliente y proveedor. Esto permite que se tenga un control muy claro sobre lo que se utiliza, quién lo utiliza y qué tan eficiente uso hace del recurso. 2. Fácil escalabilidad para largo plazo Al adquirir el servicio pierde relevancia la infraestructura en cuanto a dos temáticas complejas que por lo general no se desarrollan al interior de las empresas: análisis de uso, y planeación de capacidad. La escalabilidad a largo plazo implica la aplicación de tendencias de uso hacia la obtención de plataformas que soporten el crecimiento operacional de la compañía. Con el tiempo se procesarán mas facturas, se atenderán más clientes, se tendrán más referencias, y como mínimo, más archivos históricos. Esta escalabilidad en un tercero es mucho mas sencilla que si se hace internamente en la empresa, lo que implicaría comprar equipos cuyas características mínimas sobrepasen la necesidad de la empresa puntualmente. 3. Escalabilidad instantánea para responder a picos de demanda Por lo general la capacidad se planea en las empresas para atender todo tipo de demanda. Sin embargo, algunos procesos crecen de tal forma que en los momentos de ejecutarlos, si no se tiene capacidad de cómputo suficiente, implica que algunos usuarios no puedan trabajar, o que ese proceso corra en horario nocturno, por ejemplo. Al adquirir capacidad de cómputo en la nube, es factible contratar para crecimientos temporales en la capacidad de cómputo y/o almacenamiento para atender un pico, que se puede dar por una campaña de mercadeo masivo, por ejemplo, o por un hecho de mercado inesperado. Una vez surtido el pico en la demanda, se regresa al sistema con capacidad “normal” dentro de la contratada. La escalabilidad comprende obtener mayor poder de cómputo o velocidades de procesamiento por demanda. Si necesita mas, es muy fácil decirle a su proveedor que le de mas. Eventualmente esto será también como el servicio público, donde si usted requiere mas agua, basta con abrir el grifo. Esto supone que el proveedor tendría capacidad “ilimitada” lo cual todavía no es tan cierto en el manejo de capacidad de cómputo, pero se llegará a ese punto eventualmente. 4. Libertad de la Carga Administrativa La administración de una infraestructura, si bien es un trabajo silencioso y que por lo general pasa desapercibido, es ingrata y costosa. La administración incluye desde el manejo de las copias de respaldo hasta la instalación de nuevas versiones, afinamiento de las máquinas, y monitoreo del servicio. Estas tareas por lo general pasan a estar bajo responsabilidad de quien provee el servicio, liberando al personal técnico de la compañía para tareas que agreguen mayor valor. Estas bondades permiten que todo tamaño de empresas puedan aprovechar funciones que solo estarían disponibles para empresas muy grandes, como el manejo de redundancias, protección contra fallos, copias de respaldo, y herramientas administrativas. El aprovechamiento de estas ventajas parte de una buena selección del proveedor de su nube.

miércoles, 20 de marzo de 2013

“Reglas de comportamiento del Jefe de Proyecto”
INTERÉS Genera ideas nuevas y creativas. Fomenta un ambiente donde las preguntas e ideas son valoradas. Busca feedback, aprendizaje continuo y permanente desarrollo. Aprende tanto o más del fracaso que del éxito. ENTUSIASMO Demuestra entusiasmo en lo que hace. Dispuesto/a a arriesgarse Anima a otros a cuestionar el status quo. Genera entusiasmo e inspira el rendimiento de los demás. INGENIO Busca soluciones sencillas para problemas complejos. Estudia varias alternativas antes de decidir una solución. Utiliza la red interna / externa eficazmente. Consistente en cumplir tareas con los recursos disponibles. RESPONSABILIDAD Toma responsabilidad de las decisiones, acciones y resultados. Comprometido/a en generar valor a los accionistas. Hace lo que es mejor para el equipo y para el cliente. Antepone el éxito de la organización a su beneficio personal. TRABAJO EN EQUIPO Crea confianza respetando las ideas y contribución de todos. Trabaja bien con los demás. Enseña y anima a otros de manera habitual. Contribuye a mantener una moral y espíritu positivo entre el equipo. Asimila culturas diversas y globales. DEDICACIÓN Marca metas claras y alcanzables. Se mantiene enfocado/a en las prioridades del negocio. Dispuesto a tomar decisiones difíciles y vivir con las consecuencias. Muestra persistencia y tenacidad; no se desanima por los obstáculos que puedan aparecer. FRANQUEZA Atento/a y respetuoso/a a la hora de escuchar y responder a otros. Dispuesto a cambiar en base a la aportación de los demás. Se comunica de una manera abierta, sincera y consistente. Accesible y cercano/a. ENERGIA Manifiesta una actitud de compromiso, positiva y optimista. Hace que el trabajo sea divertido. Inspira a otros a conseguir más de lo que imaginaron. Reconoce y recompensa las contribuciones de otros.

martes, 19 de marzo de 2013

10 predicciones cloud para 2013
El tiempo de probar cloud computing se está acabando. Según los analistas, 2013 será el año en que las empresas necesitarán realmente diseñar estrategias cloud claras y contundentes, y decidir qué cargas de trabajo mantener en sus organizaciones y cuáles pasar a la nube. A continuación se ofrecen 10 predicciones sobre lo que sucederá en el entorno cloud el año próximo. 1. Las clouds híbridas despegarán. Los responsables TI llegarán rápidamente a la conclusión de que los enfoques cloud híbridos son los que tienen mayor sentido. “Estoy convencido de que 2013 será el año de las infraestructuras de nube híbrida”, asegura Tracy Corbo, analista investigador principal de Enterprise Management Associates. 2. Los competidores de Amazon comenzarán a fracasar. Los expertos aseguran que muchas compañías que han saltado al mercado de Infrastructure-as-a-Service (IaaS) en la nube pública no sobrevivirán en 2013. “Es muy duro competir con Amazon”, dice John Treadway, vicepresidente de Cloud Technology Partners. “Los márgenes son pequeños y si no ofreces un claro valor diferenciador, lo más probable es que fracases”. 3. La gestión de cloud híbridas será clave. Si las empresas se mueven a clouds híbridas, tendrán que ser capaces de gestionar tanto las áreas públicas como privadas de sus infraestructuras en la nube. Para ayudar en la tarea, hay compañías que, como RightScale, proporcionan gestión de la integración cloud desde 2006. Otros jugadores de este mercado son Cohuman, Okta, Scalr y Tier 3. 4. Fuerte crecimiento de los hubs de integración y de los brokerages cloud. IDC estima que en 2015 casi un dólar de cada seis gastados en aplicaciones será consumido á través del modelo Software-as-a-Service (SaaS). ¿Y quién trata la integración de todas estas apps? Los intermediarios de servicios cloud. ¿Y quien desarrolla la seguridad y la auditoria que requieren estas apps? ¿Quién crea enlaces B2B con partners utilizando estas apps? Los hubs de integración cloud. Startups de este nicho incluyen Cordys e Informatica. 5. Big Data en la nube. Big Data y la capacidad de computación ilimitada de cloud forman una pareja perfecta. Los principales suministradores se han subido al carro de Big Data como evidencia la compra de Vertica y Autonomy por HP, de Netezza por IBM y de Greenplum por EMC. Y en paralelo existe un buen número de startups de analítica Big Data como Metamarkets y Datameer. 6. Las redes definidas por software (SDN) se convertirán en una tendencia masiva. En julio, VMware se hizo con la startup en SDN Nicera por 1.000 millones de dólares y el mes pasado, Cisco pagó 1.200 millones de dólares por Meraki, firma que proporciona sistemas de networking susceptibles de ser gestionados desde la nube. ¿Qué significa todo esto? “Todos estos movimientos indican que las redes definidas por software darán lugar a un nuevo tipo de networking que irá evolucionando durante 2013”, afirma John Considine, CTO de Terremark. 7. Aumentarán las opciones de seguridad de las cloud híbridas. Los suministradores se verán obligados a seguir el ritmo de la adopción creciente de clouds híbridos ofreciendo seguridad en dos modalidades: productos de seguridad basados en appliances tradicionales y ‘seguridad como servicio’ para apuntalar la protección de los dispositivos móviles. IDC cree que los despliegues híbridos supondrán el 60% de los despliegues totales dentro de tres años, y que el mercado ascenderá a 3.300 millones de dólares en 2016. 8. Ampliación de las ofertas IaaS. Se ampliarán las actuales ofertas IaaS para incluir funcionalidades como ‘optimización WAN como servicio’ o ‘balanceo de cargas como servicio’. “Habrá oportunidad de conseguir estas prestaciones de una forma más barata y eficiente desde la nube”, asegura Tracy Corbo, de Enterprise Management Associates. 9. Se producirán fallos y caídas. A pesar de los esfuerzos de los proveedores cloud, hay que estar preparados para la aparición de fallos en los servicios cloud. Según Lydia Leong, de Gartner, “no hay modo de probar todas las posibles contingencias”. Y esto significa que las empresas deberán llevar la iniciativa a la hora de poner en marcha planes de backup. 10. La ‘gamificación’ impulsará las ventas y el servicio al cliente. Gartner prevé que en 2014 el 70% de las 2000 compañías Fortune tendrán al menos una aplicación basada en cloud que emplee la teoría de los juegos para influir en el comportamiento del empleado o del cliente. La gamificación supone llevar el diseño de los juegos a las aplicaciones para hacerlas más atractivas y adictivas. Se utiliza para incrementar las ventas, la colaboración y el intercambio de información entre empleados y partners, así como para aumentar la satisfacción de los clientes. Compañías líderes de este mercado son Badgeville, BunchBall, Crowdfactory, Gamify.it, Hoopla, Kudos, ObjectiveLogistics y Rypple (propiedad de salesforce.com).
Cloud y CRM, al frente de la demanda de software para empresas
El cloud computing y el software especializado que ayuda a incrementar rendimiento para empresas cobrará mayor importancia en 2014. Cada vez más empresas están apostando por el software como servicio (SaaS), lo que provocará un incremento en el gasto mundial de software durante el año que viene, según indica un estudio de Gartner. Los presupuestos de las empresas van a incrementar para adquirir soluciones: “Los resultados de la encuesta indican que el gasto de software incrementará modestamente por todo el mundo a lo largo del año presupuestario 2014, con nuevas ventas de software (propios) y SaaS impulsando este incremento de gastos”, dijo Hai Hong Swineheart, analista de Gartner. “Sin embargo, las importantes diferencias regionales en cuanto a sus prioridades y motivadores requerirán a los vendedores a perseguir estrategias específicas de mercado”, añade. Innovación por zonas Según indican los datos, las regiones con mayor madurez de IT (como es el caso de Norteamérica y el oeste de Europa), no esperan un incremento en sus presupuestos durante los próximos dos años, mientras que los países en vías de desarrollo con una infraestructura inmadura de IT (como el este de Europa, Latinoamérica y Asia/Pacífico) verán el crecimiento más grande en el gasto para conseguir software. Las nuevas licencias de software continúan siendo una prioridad para las empresas de regiones emergentes, con un 69% de los encuestados apostando por un incremento de presupuestos para licencias en 2014, en comparación con un 47% desde las regiones más maduras. Mientras incrementa la presión económica y otros factores entran en juego (como los recursos limitados y la falta de personas cualificadas para desempeñar el trabajo), las organizaciones se han volcado en cloud computing y otras opciones que externalizan IT. En Norteamérica, el interés por SaaS (Software as a Service) y la nube pública ha sido bastante mayor que en otras regiones: más del 60% de los encuestados diciendo que incrementarían su presupuesto de SaaS y nube pública en los próximos dos años. “Está claro que las regiones maduras están centrados en cloud computing público, mientras que las regiones emergentes se están centrando en cloud computing privado. Esto puede ser en parte por una infraestructura de telecomunicaciones inmadura en algunos de los países emergentes, mientras que la seguridad de datos es una preocupación persistente en relación a los servicios de cloud público entre los clientes en las organizaciones de las regiones desarrolladas”, apunta Swineheart. CRM frente a ERP Según nos presentan los datos de Gartner, los dos grandes apoyos de software para empresas seguirán siendo una prioridad en estos próximos años. Para los encuestados, las herramientas de CRM (Customer Relationship Management) han superado en importancia a los de ERP (Enterprise Resource Planning) como prioridad de inversión en software, apoyando una nueva visión de empresarios que creen en el peso que tiene la experiencia de los usuarios. La compra de software de seguridad superó a la inversión de infraestructuras, empujado por la evolución de nuevas amenazas además del cambio de la forma de trabajar en las empresas. Mientras que las compañías ven la movilidad de sus empleados como una estrategia ventajosa, cada vez más conocen los riesgos asociados a ello y las posibles filtraciones de datos que se puede producir.