Microsoft acaba de actualizar su Bing Bar. Como ya sabéis, la Barra Bing es una utilidad que nos ofrece el equipo de Bing para tener a mano herramientas como la lectura y notificación de feeds de noticias, información sobre el tiempo o una experiencia de búsqueda mejorada con la que sacar todo el partido al buscador.
Lo llamativo de esta actualización es que Microsoft se ha dado cuenta de que muchos de sus usuarios —y usuarios potenciales— utilizan servicios de correo de la competencia como por ejemplo Google o Yahoo, ya sea como cuenta principal o secundaria, y tal vez por eso han decidido incluir notificaciones para Gmail y Yahoo Mail.
Entre las novedades también esta el nuevo botón Facebook que ahora da un acceso rápido a las publicaciones de nuestro muro, notificaciones o bandeja de entrada de la red social.
La forma de funcionar de los nuevos módulos es la misma que la de las pestañas a diferencia de que nos proporciona directamente un entorno de trabajo para cada una y nos evita tener que abrir aparte las páginas de correo o de la citada red social.
Nunca he sido un gran fan de las famosas barras que como add-on se integran en nuestros buscadores ofreciendo una serie de supuestas ventajas para las que finalmente su única función es mostrarnos un banner o intentar hacernos realizar nuestras búsquedas desde el buscador sponsor de turno. En cambio la Bing Bar sí me parece una buena idea, principalmente porque nos permite obtener toda la funcionalidad de Bing, permitiendonos consultar en sus servicios de búsqueda de imágenes, video, noticias, canal de compras o incluso mapas.
Si utilizas Bing —y el navegador de Microsoft—, la Bing Bar es un must have, un complemento indispensable para sacar todo su partido.
Fuentes : http://bitelia.com/2011/02/bing-bar-updated
http://www.liveside.net/2009/12/03/the-bing-bar/
viernes, 18 de febrero de 2011
Bing se suma al día del IPv6
La hora de la verdad ha llegado. Ya no hay direcciones IP. En su versión 4, por supuesto. Vint Cerf, uno de los padres de Internet y diseñador del protocolo TCP/IP, comentaba que la conectividad de IPv6 no sería mejor que IPv4, y hace algún tiempo cómo algunas voces alarmistas clamaban que el cambio de versión podría romper Internet.
El próximo 8 de junio se celebra el día mundial del IPv6 o World IPv6 Day para los angloparlantes, que consiste en una prueba de campo durante la cual determinados servicios se ofrecerán mediante infraestructura IPv6. Algunas empresas como Google, Facebook o Yahoo ya se habían sumado a la iniciativa, y es ahora cuando Microsoft anuncia que Bing también participará en la prueba.
El World IPv6 Day supone un esfuerzo sincronizado por parte de compañías con gran peso en Internet de demostrar y a la vez comprobar que el mundo no se acaba con el final de las direcciones IPv4 disponibles. Aunque un gran número de estas empresas ya disponen de servicios soportados por y para IPv6, será durante el próximo día 18 de junio cuando los sitios principales también lo hagan. Por ejemplo podemos acceder a ipv6.google.com para tener acceso IPv6 a Google, pero el dominio principal también será accesible de esta forma durante esta importante prueba.
Para los usuarios que aún nos conectamos mediante la versión antigua esto no supondrá o no debería suponer ningún problema ya que seguiremos accediendo a sus versiones especificas
Fuentes: http://news.cnet.com/8301-30685_3-20030641-264.html?part=rss&subj=news&tag=2547-1_3-0-20
http://bitelia.com/2011/02/bing-se-suma-al-dia-del-ipv6
El próximo 8 de junio se celebra el día mundial del IPv6 o World IPv6 Day para los angloparlantes, que consiste en una prueba de campo durante la cual determinados servicios se ofrecerán mediante infraestructura IPv6. Algunas empresas como Google, Facebook o Yahoo ya se habían sumado a la iniciativa, y es ahora cuando Microsoft anuncia que Bing también participará en la prueba.
El World IPv6 Day supone un esfuerzo sincronizado por parte de compañías con gran peso en Internet de demostrar y a la vez comprobar que el mundo no se acaba con el final de las direcciones IPv4 disponibles. Aunque un gran número de estas empresas ya disponen de servicios soportados por y para IPv6, será durante el próximo día 18 de junio cuando los sitios principales también lo hagan. Por ejemplo podemos acceder a ipv6.google.com para tener acceso IPv6 a Google, pero el dominio principal también será accesible de esta forma durante esta importante prueba.
Para los usuarios que aún nos conectamos mediante la versión antigua esto no supondrá o no debería suponer ningún problema ya que seguiremos accediendo a sus versiones especificas
Fuentes: http://news.cnet.com/8301-30685_3-20030641-264.html?part=rss&subj=news&tag=2547-1_3-0-20
http://bitelia.com/2011/02/bing-se-suma-al-dia-del-ipv6
miércoles, 16 de febrero de 2011
El Service Pack 1 de Windows 7 estará disponible el 22 de febrero
Hace unos dias un Product Manager de Microsoft llamado Michael Kleef dio a conocer una de las informaciones que más esperaban muchos usuarios de Windows: la fecha del lanzamiento del Service Pack 1 de Windows 7. Kleef nos cuenta que este primer Service Pack estará disponible el 16 de Febrero para suscriptores de MSDN y TechNet, luego el 22 de Febrero para el resto de usuarios vía Microsoft Download Center o por Windows Update.
Tal como les habíamos contado hace unos meses, casi la totalidad de las novedades de este SP1 están enfocadas solamente en Windows Server 2008 R2 (recordemos que Windows 7 comparte kernel con su hermando para Servidores, por lo que el Service Pack aplica igual para ambos). Dentro de ellas encontramos funciones como Dynamic Memory y RemoteFX, que mejoran la virtualización en Windows Server. La única importancia de estas nuevas features en Windows 7 es permitir que los PCs sigan funcionando bien como clientes de Windows Server 2008 R2.
Se confirmó que la versión final será la 7601.17514.101119-1850
Tal como les habíamos contado hace unos meses, casi la totalidad de las novedades de este SP1 están enfocadas solamente en Windows Server 2008 R2 (recordemos que Windows 7 comparte kernel con su hermando para Servidores, por lo que el Service Pack aplica igual para ambos). Dentro de ellas encontramos funciones como Dynamic Memory y RemoteFX, que mejoran la virtualización en Windows Server. La única importancia de estas nuevas features en Windows 7 es permitir que los PCs sigan funcionando bien como clientes de Windows Server 2008 R2.
Se confirmó que la versión final será la 7601.17514.101119-1850
Snapdragon dual-core: cuatro veces más potente con un 75% menos de consumo
Qualcomm, uno de los principales fabricantes de componentes, ha anunciado algunas de las ventajas que traerá el nuevo modelo del chip Snapdragon de doble núcleo, como un importante ahorro de energía ligado a una potencia muy superior. El primer modelo de la compañía es uno de los chip más usados por la gran mayoría de los fabricantes de 'smarthphones'
El nuevo Snapdragon, modelo conocido como MSM8960, ha sido presentado por el presidente de Qualcomm, Steve Mollenkopf en un acto que ha tenido lugar durante el Analyst Day celebrado en Nueva York.
El presidente de la fabricante ha señalado que entre las principales ventajas de este nuevo chip se encuentra el que es capaz de reducir el coste energético de sus predecesores hasta en un 75 por ciento. Se trata de una novedad muy interesante, puesto que la duración de la batería está siendo una de las grandes pegas que los usuarios ponen a los terminales 'smarthphone', principales objetivos de este tipo de chips.
El nuevo modelo Snapdragon MSM8960 será un chip de doble núcleo basado en una CPU creada con una nueva micro-arquitectura. Además este chip integrará un modem multimodo capaz de soportar todas las tecnologías inalámbricas y de movilidad: 3G, conexiones WLAN, GPS y Bluetooh.
Sobre las posibilidades gráficas, en la presentación se ha señalado que este nuevo componente tendrá un rendimiento hasta cuatro veces mayor al Snapdragon original.
Qualcomm espera que su nuevo chip siga los pasos del primer modelo de Snapdragon. El antecesor del MSM8960 es un componente de referencia, sobre todo en el incipiente sector de los 'smarthphones'.
Más de 60 compañías de todo el mundo han usado chips Snapdragon, convirtiéndolos en el motor de más de 125 dispositivos distintos. Entre los fabricantes más destacados que han escogido Snapdragon se encuentran empresas como Acer, HP, HTC, LG o Sony Ericsson entre otras.
La compañía prevé que el nuevo Snapdragon se utilice no sólo en teléfonos inteligentes sino también en los nuevos dispositivos como 'tablets' y 'smartbooks', con arquitecturas y funciones parecidas
El nuevo Snapdragon, modelo conocido como MSM8960, ha sido presentado por el presidente de Qualcomm, Steve Mollenkopf en un acto que ha tenido lugar durante el Analyst Day celebrado en Nueva York.
El presidente de la fabricante ha señalado que entre las principales ventajas de este nuevo chip se encuentra el que es capaz de reducir el coste energético de sus predecesores hasta en un 75 por ciento. Se trata de una novedad muy interesante, puesto que la duración de la batería está siendo una de las grandes pegas que los usuarios ponen a los terminales 'smarthphone', principales objetivos de este tipo de chips.
El nuevo modelo Snapdragon MSM8960 será un chip de doble núcleo basado en una CPU creada con una nueva micro-arquitectura. Además este chip integrará un modem multimodo capaz de soportar todas las tecnologías inalámbricas y de movilidad: 3G, conexiones WLAN, GPS y Bluetooh.
Sobre las posibilidades gráficas, en la presentación se ha señalado que este nuevo componente tendrá un rendimiento hasta cuatro veces mayor al Snapdragon original.
Qualcomm espera que su nuevo chip siga los pasos del primer modelo de Snapdragon. El antecesor del MSM8960 es un componente de referencia, sobre todo en el incipiente sector de los 'smarthphones'.
Más de 60 compañías de todo el mundo han usado chips Snapdragon, convirtiéndolos en el motor de más de 125 dispositivos distintos. Entre los fabricantes más destacados que han escogido Snapdragon se encuentran empresas como Acer, HP, HTC, LG o Sony Ericsson entre otras.
La compañía prevé que el nuevo Snapdragon se utilice no sólo en teléfonos inteligentes sino también en los nuevos dispositivos como 'tablets' y 'smartbooks', con arquitecturas y funciones parecidas
Internet Explorer 9 es más rápido que Firefox y Chrome
Microsoft ha confirmado que su versión definitiva de Internet Explorer 9 será un 35 por ciento más rápida que la versión beta actual. La compañía está convencida de que este incremento de las prestaciones convierte a su navegador en el más rápido del mercado. Microsoft también ha destacado que las posibilidades de privacidad de Internet Explorer 9 harán que su sistema esté un paso por delante respecto a sus competidores.
Los usuarios han podido probar la versión beta de Internet Explorer durante algunos meses. En ese tiempo el navegador de Microsoft ha registrado más de 25 millones de descargas. Los consumidores han probado el sistema y han hecho más de 17.000 comentarios a Microsoft solo en los primeros días. La compañía ha tomado buena nota y anuncia que la versión oficial mejorará con creces a la de pruebas.
Los desarrolladores de la compañía americana han trabajado para optimizar la velocidad de la versión definitiva del navegador. La competencia es muy elevada, con Firefox y Chrome mejorando constantemente. Por este motivo el próximo Internet Explorer 9 verá incrementada su velocidad en un 35 por ciento. Este dato haría que se convirtiese en el navegador más rápido del sector.
El otro gran aspecto en el que han trabajado los diseñadores de Internet Explorer 9 es en mejorar las opciones de privacidad. Según Microsoft, el nuevo navegador permitirá a los usuarios navegar sin registrar datos de sus actividades. Se trata de un sistema que parece que están utilizando otros sistemas. En esta línea parece que Microsoft ha atendido a los comentarios de los usuarios y ha implementado una navegación sin controles para su nuevo producto.
El navegador de Microsoft tiene un reto difícil. Internet Explorer ha perdido en el último año parte de su hegemonía como líder entre los programas para acceder a la red. Según la BBC el navegador ha perdido más de seis puntos porcentuales en este sentido. Pese a mantenerse como líderes, desde Microsoft esperan que la versión definitiva de Internet Explorer 9 corte la tendencia negativa del navegador.
Los usuarios han podido probar la versión beta de Internet Explorer durante algunos meses. En ese tiempo el navegador de Microsoft ha registrado más de 25 millones de descargas. Los consumidores han probado el sistema y han hecho más de 17.000 comentarios a Microsoft solo en los primeros días. La compañía ha tomado buena nota y anuncia que la versión oficial mejorará con creces a la de pruebas.
Los desarrolladores de la compañía americana han trabajado para optimizar la velocidad de la versión definitiva del navegador. La competencia es muy elevada, con Firefox y Chrome mejorando constantemente. Por este motivo el próximo Internet Explorer 9 verá incrementada su velocidad en un 35 por ciento. Este dato haría que se convirtiese en el navegador más rápido del sector.
El otro gran aspecto en el que han trabajado los diseñadores de Internet Explorer 9 es en mejorar las opciones de privacidad. Según Microsoft, el nuevo navegador permitirá a los usuarios navegar sin registrar datos de sus actividades. Se trata de un sistema que parece que están utilizando otros sistemas. En esta línea parece que Microsoft ha atendido a los comentarios de los usuarios y ha implementado una navegación sin controles para su nuevo producto.
El navegador de Microsoft tiene un reto difícil. Internet Explorer ha perdido en el último año parte de su hegemonía como líder entre los programas para acceder a la red. Según la BBC el navegador ha perdido más de seis puntos porcentuales en este sentido. Pese a mantenerse como líderes, desde Microsoft esperan que la versión definitiva de Internet Explorer 9 corte la tendencia negativa del navegador.
El buscador Bing es más preciso en los resultados de búsqueda que Google
El acceso a páginas después de realizar búsquedas es un indicativo de la precisión de los buscadores. Los usuarios que realizan búsquedas con Bing acceden a las páginas en el 81 por ciento de las veces.
Las búsquedas con Google terminan con la visita de las páginas en el 65 por ciento de las ocasiones. Con estos datos, Bing se hace con los resultados de búsqueda más precisos entre los principales buscadores.
Un estudio de la compañía americana Experian Hitwise ha monitorizado las búsquedas de 10 millones de internautas en Estados Unidos. El estudio ha demostrado que los usuarios que realizan búsquedas con Bing acceden con más frecuencia a las informaciones de los resultados de búsqueda.
Según el estudio de Experian Hitwise, acceder a alguno de los resultados de una búsqueda es un indicativo de que el servicio ha presentado con precisión la información demandada por los consumidores.
Bing es un servicio independiente que integra páginas como Yahoo!. En el 81 por ciento de las búsquedas con Bing, los usuarios han accedido a alguno de los links que se han presentado. En este sentido, el servicio de Google ha conseguido un 65 por ciento de precisión en sus resultados según los datos del estudio.
Los datos sobre la precisión de estos dos servicios de búsqueda son un nuevo capítulo en su competencia. En las últimas semanas los dos buscadores se habían acusado mutuamente de copiar los resultados de búsqueda. Con los datos del estudio de Experian Hitwise, parece que sí que existe diferencia en los resultados de cada uno de los buscadores.
En el estudio presentado por la firma americana, se establece a Google como el navegador más usado para los más de 10 millones de usuarios analizados.
El navegador líder consigue una cuota superior al 67 por ciento. En este sentido Bing ocupa la tercera posición con una cuota del 27 por ciento y Yahoo! la tercera posición con un 14,6 por ciento.
Las búsquedas con Google terminan con la visita de las páginas en el 65 por ciento de las ocasiones. Con estos datos, Bing se hace con los resultados de búsqueda más precisos entre los principales buscadores.
Un estudio de la compañía americana Experian Hitwise ha monitorizado las búsquedas de 10 millones de internautas en Estados Unidos. El estudio ha demostrado que los usuarios que realizan búsquedas con Bing acceden con más frecuencia a las informaciones de los resultados de búsqueda.
Según el estudio de Experian Hitwise, acceder a alguno de los resultados de una búsqueda es un indicativo de que el servicio ha presentado con precisión la información demandada por los consumidores.
Bing es un servicio independiente que integra páginas como Yahoo!. En el 81 por ciento de las búsquedas con Bing, los usuarios han accedido a alguno de los links que se han presentado. En este sentido, el servicio de Google ha conseguido un 65 por ciento de precisión en sus resultados según los datos del estudio.
Los datos sobre la precisión de estos dos servicios de búsqueda son un nuevo capítulo en su competencia. En las últimas semanas los dos buscadores se habían acusado mutuamente de copiar los resultados de búsqueda. Con los datos del estudio de Experian Hitwise, parece que sí que existe diferencia en los resultados de cada uno de los buscadores.
En el estudio presentado por la firma americana, se establece a Google como el navegador más usado para los más de 10 millones de usuarios analizados.
El navegador líder consigue una cuota superior al 67 por ciento. En este sentido Bing ocupa la tercera posición con una cuota del 27 por ciento y Yahoo! la tercera posición con un 14,6 por ciento.
Obama anuncia un plan para extender Internet sin cables de alta velocidad en EE.UU
El presidente de Estados Unidos, Barack Obama, anunció este jueves un plan para conectar el 98% del territorio nacional a Internet sin cables de alta velocidad, un proyecto en el que el Gobierno va a invertir más de 13.000 millones de euros (18.000 millones de dólares)y que tiene un plazo de cinco años.
Obama confía en que el Estado se embolse unos más de 20.000 millones de euros (27.800 millones de dólares) con la subasta de ondas radioeléctricas, ahora en manos de emisoras de televisión y agencias gubernamentales. La Casa Blanca destaca que de esta forma el dinero no tendrá que salir de los bolsillos de los estadounidenses.
El Ejecutivo pretende impulsar con esas ganancias un sistema de comunicaciones para emergencias y una red que conecte áreas rurales a Internet. Los cerca de 10.000 millones restantes irán destinados a aliviar el déficit público en la próxima década.
Obama ya comentó en su discurso del Estado de la Unión su intención de impulsar un plan de esta naturaleza. El proyecto forma parte de la estrategia de mejora de las comunicaciones e infraestructuras, algo que considera esencial para competir en la economía global.
En el marco del proyecto precisado hoy por el presidente, se establecerá un programa de investigación que desarrollará métodos de uso de Internet en el móvil para aplicaciones sanitarias, tecnológicas, educativas y energéticas, informa 'The Washington Post'.
El presidente de la Asociación Nacional de Radiodifusión, Gordon Smith, no se ha mostrado en contra del plan, pero quiere garantizar que es "absolutamente voluntario" sumarse a él. "No queremos perjudicar a aquellos que no deseen participar", estimó.
Las televisiones y radios utilizan un espectro de ondas que es idóneo para las conexiones a Internet mediante dispositivos móviles, los cuales están experimentando una gran popularización en los últimos tiempos. Algunos parlamentarios, por su parte, han advertido del dudoso éxito que han tenido estrategias similares en el futuro.
Obama hizo sus comentarios del jueves desde la Universidad de Marquette, un pueblo de Michigan que ha conseguido atraer a socios comerciales como Intel para establecer una línea móvil de banda ancha basada en la tecnología WiMax. En este sentido apostó por que todos los estados puedan trabajar para impulsar sus economías.
Obama confía en que el Estado se embolse unos más de 20.000 millones de euros (27.800 millones de dólares) con la subasta de ondas radioeléctricas, ahora en manos de emisoras de televisión y agencias gubernamentales. La Casa Blanca destaca que de esta forma el dinero no tendrá que salir de los bolsillos de los estadounidenses.
El Ejecutivo pretende impulsar con esas ganancias un sistema de comunicaciones para emergencias y una red que conecte áreas rurales a Internet. Los cerca de 10.000 millones restantes irán destinados a aliviar el déficit público en la próxima década.
Obama ya comentó en su discurso del Estado de la Unión su intención de impulsar un plan de esta naturaleza. El proyecto forma parte de la estrategia de mejora de las comunicaciones e infraestructuras, algo que considera esencial para competir en la economía global.
En el marco del proyecto precisado hoy por el presidente, se establecerá un programa de investigación que desarrollará métodos de uso de Internet en el móvil para aplicaciones sanitarias, tecnológicas, educativas y energéticas, informa 'The Washington Post'.
El presidente de la Asociación Nacional de Radiodifusión, Gordon Smith, no se ha mostrado en contra del plan, pero quiere garantizar que es "absolutamente voluntario" sumarse a él. "No queremos perjudicar a aquellos que no deseen participar", estimó.
Las televisiones y radios utilizan un espectro de ondas que es idóneo para las conexiones a Internet mediante dispositivos móviles, los cuales están experimentando una gran popularización en los últimos tiempos. Algunos parlamentarios, por su parte, han advertido del dudoso éxito que han tenido estrategias similares en el futuro.
Obama hizo sus comentarios del jueves desde la Universidad de Marquette, un pueblo de Michigan que ha conseguido atraer a socios comerciales como Intel para establecer una línea móvil de banda ancha basada en la tecnología WiMax. En este sentido apostó por que todos los estados puedan trabajar para impulsar sus economías.
Anonymous crea una web con 70.000 correos de la empresa de seguridad informática HBGary
El grupo de activistas de Internet Anonymous ha creado un portal web en el que se han publicado 70.802 direcciones de correo extraídas de la compañía HBGary. El grupo de activistas responde de esta manera a las declaraciones y acusaciones realizadas por la compañía de seguridad informática HBGary sobre las actividades de Anonymous y WikiLeaks.
El origen del conflicto ha sido una supuesta infiltración de uno de los miembros de HBGary en las actividades de Anonymous. La intención del "espía" era desvelar el tipo de organización de los activistas y su vinculación con WikiLeaks. Los componentes de Anonymous descubrieron al infiltrado y sus intenciones de difamar a su organización y a WikiLeaks. Automáticamente informaron sobre las prácticas de la compañía HBGary y ahora han decidido crear 'Anonleaks' como respuesta a sus acciones.
Se trata de un portal en el que los usuarios pueden descargarse más de 27.000 direcciones de correo extraídas de HBGary. Los responsables de la página han organizado paquetes de datos que se pueden descargar por torrent. Entre los datos que se ponen a disposición de los usuarios están correos extraídos directamente del director de HBGary, Greg Hoglund.
La respuesta de Anonymous es un serio golpe sobre la mesa. HBGary es una compañía de seguridad de alto nivel, que mantiene algunos acuerdos con el Gobierno Federal de Estados Unidos. La vulneración de su seguridad da una idea del poder y los conocimientos que tienen los miembros de Anonymus.
Con la publicación de estos datos personales los miembros de Anonymous podrían tener problemas serios. La comunicación pública de este tipo de datos está penada, por la compañía podría emprender acciones legales contra la página y tratar de identificar a alguno de los responsables. Los usuarios que quieran pueden consultar el portal en http://hbgary.anonleaks.ru/.
El origen del conflicto ha sido una supuesta infiltración de uno de los miembros de HBGary en las actividades de Anonymous. La intención del "espía" era desvelar el tipo de organización de los activistas y su vinculación con WikiLeaks. Los componentes de Anonymous descubrieron al infiltrado y sus intenciones de difamar a su organización y a WikiLeaks. Automáticamente informaron sobre las prácticas de la compañía HBGary y ahora han decidido crear 'Anonleaks' como respuesta a sus acciones.
Se trata de un portal en el que los usuarios pueden descargarse más de 27.000 direcciones de correo extraídas de HBGary. Los responsables de la página han organizado paquetes de datos que se pueden descargar por torrent. Entre los datos que se ponen a disposición de los usuarios están correos extraídos directamente del director de HBGary, Greg Hoglund.
La respuesta de Anonymous es un serio golpe sobre la mesa. HBGary es una compañía de seguridad de alto nivel, que mantiene algunos acuerdos con el Gobierno Federal de Estados Unidos. La vulneración de su seguridad da una idea del poder y los conocimientos que tienen los miembros de Anonymus.
Con la publicación de estos datos personales los miembros de Anonymous podrían tener problemas serios. La comunicación pública de este tipo de datos está penada, por la compañía podría emprender acciones legales contra la página y tratar de identificar a alguno de los responsables. Los usuarios que quieran pueden consultar el portal en http://hbgary.anonleaks.ru/.
Twitter estará disponible en más de 10 idiomas este año
Además de los 7 idiomas en los que está disponible, Twitter añadió el indonesio, ruso y turco.
Hace unos dias, Twitter dio un buen paso en su estrategia de posicionamiento en Internet. La red de Microblogging –que ya supera los 200 millones de usuarios– presentó su nuevo Centro de Traducción (CT) a través del cual aspira a estar disponible en otros idiomas diferentes a los 7 en los que ya se posiciona. Desde octubre del 2009, según la compañía, ha contado con algunos usuarios que se han ofrecido voluntariamente como traductores para ayudar a posicionar Twitter.
El anuncio lo hizo el mismo día en que se dio inicio al Congreso Mundial de Móviles en Barcelona (España) y explicó que uno de los objetivos de este año es introducir Twitter en otros idiomas como el portugués en los próximos meses. Actualmente, el sitio más popular de microblogging está disponible en inglés, francés, alemán, italiano, japonés, coreano y español, pero anunció que de la mano del CT añadió idiomas como el indonesio, ruso y turco.
“Hoy estamos anunciando un producto que representa un gran paso hacia un Twitter más accesible para personas alrededor del mundo: el Centro de Traducción de Twitter. Este, nos permite traducir de forma colaborativa gracias a nuestros apasionados usuarios, y así poder lanzar Twitter en idiomas adicionales”, dijo la red social en su blog oficial.
Así funciona el CT.
Según Twitter, para el lanzamiento de su CT creó un sistema que se basa en los consejos y observaciones de los traductores (usuarios), para mejorar la experiencia de traducción. Los usuarios podrán seguir las noticias de esta nueva función del sitio a través de @translator. “Si vas a la página de Configuración en Twitter y cambias tu idioma, verás lo que queremos decir”, dijo la red social.
Para utilizar el CT, el usuario deberá iniciar sesión, luego elegir un idioma y comenzar a traducir. En el blog la compañía explicó que los traductores pueden ayudar a localizar Twitter.com, mobile.twitter.com, Twitter para iPhone y iPad, Twitter para Android, Ayuda de Twitter, y el centro de negocios de Twitter. “También hemos mejorado la funcionalidad de búsqueda del Centro, añadimos etiquetas para las frases, creamos perfiles especiales para traductores, permitimos comentar en las frases, y mucho más”, dijo.
Hace unos dias, Twitter dio un buen paso en su estrategia de posicionamiento en Internet. La red de Microblogging –que ya supera los 200 millones de usuarios– presentó su nuevo Centro de Traducción (CT) a través del cual aspira a estar disponible en otros idiomas diferentes a los 7 en los que ya se posiciona. Desde octubre del 2009, según la compañía, ha contado con algunos usuarios que se han ofrecido voluntariamente como traductores para ayudar a posicionar Twitter.
El anuncio lo hizo el mismo día en que se dio inicio al Congreso Mundial de Móviles en Barcelona (España) y explicó que uno de los objetivos de este año es introducir Twitter en otros idiomas como el portugués en los próximos meses. Actualmente, el sitio más popular de microblogging está disponible en inglés, francés, alemán, italiano, japonés, coreano y español, pero anunció que de la mano del CT añadió idiomas como el indonesio, ruso y turco.
“Hoy estamos anunciando un producto que representa un gran paso hacia un Twitter más accesible para personas alrededor del mundo: el Centro de Traducción de Twitter. Este, nos permite traducir de forma colaborativa gracias a nuestros apasionados usuarios, y así poder lanzar Twitter en idiomas adicionales”, dijo la red social en su blog oficial.
Así funciona el CT.
Según Twitter, para el lanzamiento de su CT creó un sistema que se basa en los consejos y observaciones de los traductores (usuarios), para mejorar la experiencia de traducción. Los usuarios podrán seguir las noticias de esta nueva función del sitio a través de @translator. “Si vas a la página de Configuración en Twitter y cambias tu idioma, verás lo que queremos decir”, dijo la red social.
Para utilizar el CT, el usuario deberá iniciar sesión, luego elegir un idioma y comenzar a traducir. En el blog la compañía explicó que los traductores pueden ayudar a localizar Twitter.com, mobile.twitter.com, Twitter para iPhone y iPad, Twitter para Android, Ayuda de Twitter, y el centro de negocios de Twitter. “También hemos mejorado la funcionalidad de búsqueda del Centro, añadimos etiquetas para las frases, creamos perfiles especiales para traductores, permitimos comentar en las frases, y mucho más”, dijo.
martes, 15 de febrero de 2011
Nokia adopta Windows Phone 7
Es oficial. Es real. Nokia y Microsoft han llegado a un acuerdo para que la marca finlandesa de teléfonos adopte Windows Phone 7 como plataforma principal de smartphones. Le llaman el tercer ecosistema
Puntos clave de la alianza:
■Adopción de Windows Phone 7 como plataforma principal para sus smartphones, innovando en áreas donde Nokia es lider.
■Nokia ayudará en la definición del futuro de Windows Phone 7.
■Nokia y Microsoft colaborarán de cerca en el desarrollo de Windows Phone 7.
■Bing será el buscador de Nokia en todos sus dispositivos.
■Nokia Maps será parte integral de los servicios de Microsoft. Se integrará con Bing.
■Servicios de cobro de Nokia entrarán en efecto en países donde no se usa tarjeta de crédito para dispositivos con Windows Phone 7.
■Se integrará la tienda de aplicaciones con el Microsoft Marketplace
Es claro, Nokia no quiere convertirse en HTC, quieren ser parte integral del desarrollo del sistema operativo y que Microsoft sea tan dependiente de ellos como ellos ahora lo son de Microsoft. El hecho es que Nokia da pasos en terreno nuevo, aceptan que no han sido capaces de desarrollar una estrategia de sistema operativo realmente competitiva (en comparación a iOS y Android) y deciden irse con el nuevo.
Microsoft ha hecho un esfuerzo bastante interesante y bastante importante en el desarrollo de Windows Phone 7. Yo he quedado bastante impresionado con el sistema operativo durante el tiempo que lo estuve probando y veo bastante futuro por ese lado. Una interfaz muy innovadora que se aleja de lo que Apple o Google están haciendo, eso me parece bueno.
Asumo que muchos pesos pesados dentro de Nokia no estarán contentos con la decisión, lejana a las prácticas y reglas que la compañía ha tenido durante años con relación a la forma en que hacen sus dispositivos móviles. Solo queda esperar unos meses y ver si la alianza fue buena idea o no.
Por cierto, Nokia ha decidido que no matarán ni a MeeGo ni a Symbian, aunque es inevitable mantener el segundo pues se usa en muchos teléfonos de gama baja.
Puntos clave de la alianza:
■Adopción de Windows Phone 7 como plataforma principal para sus smartphones, innovando en áreas donde Nokia es lider.
■Nokia ayudará en la definición del futuro de Windows Phone 7.
■Nokia y Microsoft colaborarán de cerca en el desarrollo de Windows Phone 7.
■Bing será el buscador de Nokia en todos sus dispositivos.
■Nokia Maps será parte integral de los servicios de Microsoft. Se integrará con Bing.
■Servicios de cobro de Nokia entrarán en efecto en países donde no se usa tarjeta de crédito para dispositivos con Windows Phone 7.
■Se integrará la tienda de aplicaciones con el Microsoft Marketplace
Es claro, Nokia no quiere convertirse en HTC, quieren ser parte integral del desarrollo del sistema operativo y que Microsoft sea tan dependiente de ellos como ellos ahora lo son de Microsoft. El hecho es que Nokia da pasos en terreno nuevo, aceptan que no han sido capaces de desarrollar una estrategia de sistema operativo realmente competitiva (en comparación a iOS y Android) y deciden irse con el nuevo.
Microsoft ha hecho un esfuerzo bastante interesante y bastante importante en el desarrollo de Windows Phone 7. Yo he quedado bastante impresionado con el sistema operativo durante el tiempo que lo estuve probando y veo bastante futuro por ese lado. Una interfaz muy innovadora que se aleja de lo que Apple o Google están haciendo, eso me parece bueno.
Asumo que muchos pesos pesados dentro de Nokia no estarán contentos con la decisión, lejana a las prácticas y reglas que la compañía ha tenido durante años con relación a la forma en que hacen sus dispositivos móviles. Solo queda esperar unos meses y ver si la alianza fue buena idea o no.
Por cierto, Nokia ha decidido que no matarán ni a MeeGo ni a Symbian, aunque es inevitable mantener el segundo pues se usa en muchos teléfonos de gama baja.
Intel presenta su segunda generación de procesadores Core
Hace un año Intel anunció la anterior generación de procesadores Core, concretamente durante el CES de 2010. Este año harán lo propio presentando la segunda generación de procesadores Intel Core. Ya se han especificado las novedades que incluirán estos nuevos chips. En total son ni más ni menos que 29 CPUs, entre las que se incluyen los ya conocidos i3, i5 e i7 en sistemas de sobremesa y para móviles.
Estos procesadores están hechos con tecnología de 32nm. Además incluye la tecnología Turbo Boost y Hyper-threading que permiten mayor rendimiento y menor consumo energético, algo muy útil cuando estamos hablando de dispositivos móviles. Por ejemplo en los procesadores de cuatro núcleos se consigue un 60% de mejora en el rendimiento.
Una de las novedades más importantes es el chip Sandy Bridge que incorpora un sistema de protección para los contenidos en alta definición. Warner y Fox se animarán así a distribuir su material en alta definición a través del servicio de Intel para estos procesadores. Puede ser un empujón importante para aquellas empresas que no se atrevan con las oportunidades que ofrece Internet por miedo a la piratería. De hecho algunas compañías ya se han mostrado impresionados con la seguridad que les ofrece Sandy Bridge.
Intel entraría de esta forma en el negocio de la distribución digital con su Insider, que será una plataforma de compra y alquiler de películas en alta definición aprovechando los acuerdos comerciales con las distribuidoras, gracias al chip Sandry Bridge. HP es la primera en anunciar que algunos de sus ordenadores incluirán este chip que, por otra parte, ya se están distribuyendo a los fabricantes. En los próximos días habrá más información de este nuevo servicio de Intel.
Sobre la tecnología Turbo Boost hay que aclarar que es un sistema por el cual se ajusta de forma dinámica e inteligente el rendimiento del dispositivo según la necesidad del usuario. Este proceso lo hace automáticamente el ordenador. En cuanto al Hyper-Threading posibilita la multitarea de una forma mucho más efectiva. Esto tendrá repercusiones tanto en el rendimiento como en el ahorro. Ambas tecnologías se estrenaron en la anterior generación de procesadores.
Widi 2.0 es la revisión de la tecnología de Intel en la que se permite la conexión de nuestro PC con la televisión de forma inalámbrica. La novedad más importante es el streaming de 1080p que en la anterior versión no estaba soportado. Respecto al contenido multimedia tenemos la posibilidad de visualizar las películas o los videojuegos en 3D estereoscópicas y en alta definición con HDMI 1.4.
En esta tabla pueden ver toda la lista de nuevos chips y procesadores que Intel presenta. Como ven es una gama bastante amplia, para todos los gustos y sobre todo para todos los bolsillos. Hay opciones de alta gama para los amantes del overclocking, con la serie K. También se incluyen los nuevos chips y nuevas opciones wireless de Intel Centrino.
¿Qué les parece? ¿Suficientes novedades? ¿Sandy Bridge e Insider significará de verdad un avance importante?
Estos procesadores están hechos con tecnología de 32nm. Además incluye la tecnología Turbo Boost y Hyper-threading que permiten mayor rendimiento y menor consumo energético, algo muy útil cuando estamos hablando de dispositivos móviles. Por ejemplo en los procesadores de cuatro núcleos se consigue un 60% de mejora en el rendimiento.
Una de las novedades más importantes es el chip Sandy Bridge que incorpora un sistema de protección para los contenidos en alta definición. Warner y Fox se animarán así a distribuir su material en alta definición a través del servicio de Intel para estos procesadores. Puede ser un empujón importante para aquellas empresas que no se atrevan con las oportunidades que ofrece Internet por miedo a la piratería. De hecho algunas compañías ya se han mostrado impresionados con la seguridad que les ofrece Sandy Bridge.
Intel entraría de esta forma en el negocio de la distribución digital con su Insider, que será una plataforma de compra y alquiler de películas en alta definición aprovechando los acuerdos comerciales con las distribuidoras, gracias al chip Sandry Bridge. HP es la primera en anunciar que algunos de sus ordenadores incluirán este chip que, por otra parte, ya se están distribuyendo a los fabricantes. En los próximos días habrá más información de este nuevo servicio de Intel.
Sobre la tecnología Turbo Boost hay que aclarar que es un sistema por el cual se ajusta de forma dinámica e inteligente el rendimiento del dispositivo según la necesidad del usuario. Este proceso lo hace automáticamente el ordenador. En cuanto al Hyper-Threading posibilita la multitarea de una forma mucho más efectiva. Esto tendrá repercusiones tanto en el rendimiento como en el ahorro. Ambas tecnologías se estrenaron en la anterior generación de procesadores.
Widi 2.0 es la revisión de la tecnología de Intel en la que se permite la conexión de nuestro PC con la televisión de forma inalámbrica. La novedad más importante es el streaming de 1080p que en la anterior versión no estaba soportado. Respecto al contenido multimedia tenemos la posibilidad de visualizar las películas o los videojuegos en 3D estereoscópicas y en alta definición con HDMI 1.4.
En esta tabla pueden ver toda la lista de nuevos chips y procesadores que Intel presenta. Como ven es una gama bastante amplia, para todos los gustos y sobre todo para todos los bolsillos. Hay opciones de alta gama para los amantes del overclocking, con la serie K. También se incluyen los nuevos chips y nuevas opciones wireless de Intel Centrino.
¿Qué les parece? ¿Suficientes novedades? ¿Sandy Bridge e Insider significará de verdad un avance importante?
El ordenador Watson de IBM se enfrentará a dos humanos en el concurso Jeopardy!
El ordenador Watson de IBM se enfrentará a dos hombres en el concurso norteamericano Jeopardy! desde este lunes, martes y el miércoles. En el enfrentamiento se verá quién es más listo si el hombre o la máquina.
Este ordenador ha sido desarrollado tras cuatro años de trabajo por un equipo de científicos de IBM que tenían como objetivo el construir un sistema de computación capaz de rivalizar con los humanos, contestando preguntas en lenguaje natural con rapidez, precisión y seguridad, según la nota de prensa de IBM.
Asimismo, el formato de juego de Jeopardy hace más difícil todavía la labor del ordenador, ya que durante el programa se proporcionan pistas a los concursantes en forma de acertijos, con figuras retóricas, además del uso de la ironía o los juegos de palabras. Una persona puede identificar muy fácilmente cualquiera de estos aspectos, mientras que una máquina lo tiene bastante más difícil, de ahí la complejidad del concurso.
Los dos concursantes humanos serán Ken Jennings y Brad Rutter, los dos mejores jugadores del concurso hasta hoy. En IBM ya han dicho que en el caso de que gane la máquina, la compañía donará el cien por cien del premio a instituciones caritativas.
Para el desarrollo de este ordenador inteligente, los científicos han tenido que construir un sistema de computación basado en el análisis semántico, capaz de disgregar la información relevante de la que no, interpretar expresiones ambiguas y realizar un análisis estadístico de la certeza de la respuesta.
El volumen de información que contiene su memoria equivale a un millón de libros y su tecnología tiene aplicaciones beneficiosas para la sociedad
Este ordenador ha sido desarrollado tras cuatro años de trabajo por un equipo de científicos de IBM que tenían como objetivo el construir un sistema de computación capaz de rivalizar con los humanos, contestando preguntas en lenguaje natural con rapidez, precisión y seguridad, según la nota de prensa de IBM.
Asimismo, el formato de juego de Jeopardy hace más difícil todavía la labor del ordenador, ya que durante el programa se proporcionan pistas a los concursantes en forma de acertijos, con figuras retóricas, además del uso de la ironía o los juegos de palabras. Una persona puede identificar muy fácilmente cualquiera de estos aspectos, mientras que una máquina lo tiene bastante más difícil, de ahí la complejidad del concurso.
Los dos concursantes humanos serán Ken Jennings y Brad Rutter, los dos mejores jugadores del concurso hasta hoy. En IBM ya han dicho que en el caso de que gane la máquina, la compañía donará el cien por cien del premio a instituciones caritativas.
Para el desarrollo de este ordenador inteligente, los científicos han tenido que construir un sistema de computación basado en el análisis semántico, capaz de disgregar la información relevante de la que no, interpretar expresiones ambiguas y realizar un análisis estadístico de la certeza de la respuesta.
El volumen de información que contiene su memoria equivale a un millón de libros y su tecnología tiene aplicaciones beneficiosas para la sociedad
Windows Azure - Subiendonos a la nubes Parte 2.
Continuando la serie de artículos que comenzáramos en diciembre del año pasado, en esta segunda entrega, se analizará la Seguridad Integrada de una organización. Revisaremos como poseer una plataforma segura teniendo en cuenta todas las soluciones que componen el BRS (Business Ready Security).
Problemática
Hoy en día, la mayoría de las compañías, hacen foco en la lucha contra el malware en los puestos de trabajo. No podemos perder la visión holística de la organización, si hablamos de seguridad, debemos tener en cuenta los siguientes aspectos:
- distribución de los recursos tecnológicos de manera lógica y geográfica,
- acceso de los usuarios y proveedores via VPN u otro medio,
- tráfico entrante y saliente de correo, accesos web y ftp.
- acceso a la información por parte de los usuarios, proveedores y terceros esporádicos.
- permisos de acceso a los archivos, previa clasificación de la documentación(pública, privada, confidencial, etc).
- fuga de información.
- seguimiento de usuarios y consolidación de identidad.
- control de acceso de los servicios Web de los usuarios.
- tratamiento del correo electrónico.
Si se hace foco en un solo punto de todos los mencionados anteriormente, corremos el riesgo que sea explotada alguna vulnerabilidad y se nos presente un problema serio de seguridad en la compañía. La solución debe ser global, posible de auditar y que nos entregue en tiempo y forma el estado de seguridad de la compañía.
Business Ready Security
Teniendo en cuenta la problemática de la seguridad Microsoft ha estado trabajando, para lograr la estrategia de Business Ready Security , en tres principios fundamentales.
1) Integrar y extender la seguridad en toda la empresa.
2) Ayudar a proteger a todas partes, el acceso en cualquier lugar.
3) Simplificar la experiencia de la seguridad, gestionar el cumplimiento.
Analizaremos a continuación cada uno de los principios.
Integrar y extender la seguridad en toda la empresa
Las soluciones de Microsoft Identity and Security y con la ayuda de productos de la familia Forefront, se logra una protección sin fisuras de los sistemas de TI mediante la integración con la plataforma Windows, las aplicaciones y la infraestructura. La plataforma de Identidad y Seguridad apoya entornos heterogéneos, permitiendo a terceras parte compartir y utilizar las capacidades para ayudar a ofrecer un mayor valor en toda la organización.
Dentro de las soluciones encontraremos a:
1) Windows Identity Foundation ayuda a los desarrolladores .NET a crear aplicaciones para notificaciones que externalizar la autenticación de usuario de la aplicación, mejorando la productividad del desarrollador, mejorando la seguridad de las aplicaciones, y permitiendo la interoperabilidad.
2) Active Directory Federation Services 2.0 (antes conocido como "Geneva" Server) es un servicio de token de seguridad, permitiendo la gestion del acceso de usuario y que permite simplificar el inicio de sesión único (single sign-on).
3)Active Directory Rights Management Services (AD RMS) le ayuda a aumentar la estrategia de una organización de seguridad mediante la protección de información a través de políticas de uso persistentes, que permanecen con la información sin importar dónde la misma se mueve.
4) Servicios de Active Directory, proporciona los medios para gestionar las identidades y relaciones que conforman la red de su organización. Integrado con Windows Server 2008, Active Directory proporciona una funcionalidad de configurar y administrar de forma centralizada el usuario y configuración de la aplicación. Active Directory Domain Services (AD DS) almacena los datos centralizadamente y maneja la comunicación entre usuarios y dominios, incluidos los procesos de inicio de sesión de usuario, autenticación y las búsquedas.
5) Bitlocker & Bitlocker to go: nos permite cifrar los repositorios de datos y equipos o dispositivos moviles. Un dispositivo USB, hoy puede ser cifrado por políticas de AD.
Ayudar a proteger a todas partes, el acceso en cualquier lugar.
Microsoft Forefront ofrece soluciones integrales de extremo a extremo, tanto en las instalaciones y en la nube,ayudando a proteger prácticamente todo el mundo y permitiendo un acceso seguro desde cualquier lugar. Utilizando este principio integrado de protección, identidad, y productos de acceso, el administrador puede ayudar a proteger el entorno y gestionar el acceso a través de datos, usuarios y sistemas.
Este principio es holísitico, y dentro de las soluciones encontraremos a:
1) Forefront Endpoint Protection 2010, protegemos el Sistema Operativo de la compañía. Permite a las empresas alinear la seguridad y la gestión para mejorar la protección de puntos finales, reduciendo los costos operativos. Se basa en System Center Configuration Manager 2007 R2 y R3, lo que permite a los clientes utilizar su infraestructura existente de gestión de clientes para desplegar y gestionar la protección de punto final.
2) Forefront Protection 2010 for Exchange Server, proporciona una detección rápida y efectiva de malware y spam, bloqueando el contenido mediante el uso de una política, y se integra con Forefront Online Protection for Exchange para ofrecer los beneficios de defensa en profundidad. Con la nueva consola, se integra con los otros productos de la familia, logrando así contar con un estado real de la seguridad corporativa.
3) Forefront Online Protection for Exchange (FOPE), basado en el concepto de Cloud Computing, puede ayudar a simplificar la administración de sus entornos de mensajería. El modelo hosteado de servicios en línea no requiere instalación de hardware o software, reduce al mínimo la inversión inicial. Como uno de los servicios en línea de Microsoft, Forefront Online Protection for Exchange proporciona una capa de funciones de protección implementado a través de una red mundial de centros de datos seguros.
4) Forefront Protection 2010 for SharePoint, ayuda a evitar que los usuarios suban o descarguen los documentos que contienen malware, fuera de la política de contenido, o información sensible a las bibliotecas de SharePoint. Se combina varios anti-malware de motores de escaneo de los socios de seguridad referentes en la industria, con el archivo y filtrado de palabras clave para proporcionar una protección completa contra las amenazas más recientes.
5) Forefront Security for Office Communications Server, ofrece una protección rápida y efectiva contra el malware de mensajería instantánea basado en la inclusión de múltiples motores de escaneo de los socios de seguridad líderes en la industria. También puede ayudar a reducir la responsabilidad corporativa mediante el bloqueo de mensajes instantáneos que contienen contenido inapropiado.
6) Forefront Threat Management Gateway 2010 (TMG), permite a la organización el uso de servicios de internet de manera segura y productiva, un uso para los negocios sin preocuparse por el malware u otras amenazas. Proporciona múltiples capas de protección, con continua actualización que se integran en un sistema unificado, fácil de manejar y lo que reduce el costo y la complejidad de la seguridad Web.
7) Forefront Unified Access Gateway 2010 (UAG), ofrece acceso completo y remoto seguro a recursos corporativos para los empleados, socios y proveedores en ambos equipos (administrados y no administrados) y los dispositivos móviles. Utilizando una combinación de opciones de conectividad, que van desde VPN SSL a DirectAccess, así como la construcción en las configuraciones y políticas, UAG proporciona gestión centralizada y fácil de acceder a una oferta completa de la organización en cualquier lugar.
Simplificarla la experiencia de la seguridad, gestionar el cumplimiento.
Microsoft viene trabajando para proveer soluciones que permitan gestionar información de forma segura a través de varios usuarios, puntos finales y servidores al mismo tiempo que lograr el cumplimiento de políticas de seguridad. La protección de Microsoft Forefront con control de acceso y soluciones que permiten la gestión de identidades que se integran con los entornos existentes, logran una implementación más sencilla, se obtiene la información centralizada a través de múltiples sistemas, y la gestión de los usuarios y la información en una sola vista.
1) Forefront Identity Manager 2010, simplifica la gestión de la empresa a través de la identidad de los usuarios finales la capacidad de autoservicio y las herramientas de administrador para automatizar tareas.
2) Microsoft Forefront Protection Server Management Console (FPSMC), la consola de administración proporciona un interfaz gráfica fácil de usar para el descubrimiento de servidores, configuración de implementación, presentación de informes, gestión de cuarentena, actualización del motor con las nuevas definiciones y a su vez la integración con Forefront Online Protection for Exchange.
La seguridad corpotativa de extremo a extremo es posible, aquí faltan algunos puntos a tener en cuenta como
1) Política de Seguridad de la compañía.
2) Cumplimiento de leyes y normas requeridas por el negocio (ej, PCI, ISO, etc).
3) Esquema de alertas y monitoreo.
4) Definición de responsable de las soluciones.
5) Política de clasificación de la información.
Se mencionan los puntos anteriores, por que el despligue por si solo de la solución de BRS, sin tener en cuenta los puntos anteriores, puede producir fallas o no lograr obtener los resultado esperados. Se imaginan que una alerta es emitida y nadie es responsable de una acción ante esa alerta, puede provocar caída o daños del sistema.
Problemática
Hoy en día, la mayoría de las compañías, hacen foco en la lucha contra el malware en los puestos de trabajo. No podemos perder la visión holística de la organización, si hablamos de seguridad, debemos tener en cuenta los siguientes aspectos:
- distribución de los recursos tecnológicos de manera lógica y geográfica,
- acceso de los usuarios y proveedores via VPN u otro medio,
- tráfico entrante y saliente de correo, accesos web y ftp.
- acceso a la información por parte de los usuarios, proveedores y terceros esporádicos.
- permisos de acceso a los archivos, previa clasificación de la documentación(pública, privada, confidencial, etc).
- fuga de información.
- seguimiento de usuarios y consolidación de identidad.
- control de acceso de los servicios Web de los usuarios.
- tratamiento del correo electrónico.
Si se hace foco en un solo punto de todos los mencionados anteriormente, corremos el riesgo que sea explotada alguna vulnerabilidad y se nos presente un problema serio de seguridad en la compañía. La solución debe ser global, posible de auditar y que nos entregue en tiempo y forma el estado de seguridad de la compañía.
Business Ready Security
Teniendo en cuenta la problemática de la seguridad Microsoft ha estado trabajando, para lograr la estrategia de Business Ready Security , en tres principios fundamentales.
1) Integrar y extender la seguridad en toda la empresa.
2) Ayudar a proteger a todas partes, el acceso en cualquier lugar.
3) Simplificar la experiencia de la seguridad, gestionar el cumplimiento.
Analizaremos a continuación cada uno de los principios.
Integrar y extender la seguridad en toda la empresa
Las soluciones de Microsoft Identity and Security y con la ayuda de productos de la familia Forefront, se logra una protección sin fisuras de los sistemas de TI mediante la integración con la plataforma Windows, las aplicaciones y la infraestructura. La plataforma de Identidad y Seguridad apoya entornos heterogéneos, permitiendo a terceras parte compartir y utilizar las capacidades para ayudar a ofrecer un mayor valor en toda la organización.
Dentro de las soluciones encontraremos a:
1) Windows Identity Foundation ayuda a los desarrolladores .NET a crear aplicaciones para notificaciones que externalizar la autenticación de usuario de la aplicación, mejorando la productividad del desarrollador, mejorando la seguridad de las aplicaciones, y permitiendo la interoperabilidad.
2) Active Directory Federation Services 2.0 (antes conocido como "Geneva" Server) es un servicio de token de seguridad, permitiendo la gestion del acceso de usuario y que permite simplificar el inicio de sesión único (single sign-on).
3)Active Directory Rights Management Services (AD RMS) le ayuda a aumentar la estrategia de una organización de seguridad mediante la protección de información a través de políticas de uso persistentes, que permanecen con la información sin importar dónde la misma se mueve.
4) Servicios de Active Directory, proporciona los medios para gestionar las identidades y relaciones que conforman la red de su organización. Integrado con Windows Server 2008, Active Directory proporciona una funcionalidad de configurar y administrar de forma centralizada el usuario y configuración de la aplicación. Active Directory Domain Services (AD DS) almacena los datos centralizadamente y maneja la comunicación entre usuarios y dominios, incluidos los procesos de inicio de sesión de usuario, autenticación y las búsquedas.
5) Bitlocker & Bitlocker to go: nos permite cifrar los repositorios de datos y equipos o dispositivos moviles. Un dispositivo USB, hoy puede ser cifrado por políticas de AD.
Ayudar a proteger a todas partes, el acceso en cualquier lugar.
Microsoft Forefront ofrece soluciones integrales de extremo a extremo, tanto en las instalaciones y en la nube,ayudando a proteger prácticamente todo el mundo y permitiendo un acceso seguro desde cualquier lugar. Utilizando este principio integrado de protección, identidad, y productos de acceso, el administrador puede ayudar a proteger el entorno y gestionar el acceso a través de datos, usuarios y sistemas.
Este principio es holísitico, y dentro de las soluciones encontraremos a:
1) Forefront Endpoint Protection 2010, protegemos el Sistema Operativo de la compañía. Permite a las empresas alinear la seguridad y la gestión para mejorar la protección de puntos finales, reduciendo los costos operativos. Se basa en System Center Configuration Manager 2007 R2 y R3, lo que permite a los clientes utilizar su infraestructura existente de gestión de clientes para desplegar y gestionar la protección de punto final.
2) Forefront Protection 2010 for Exchange Server, proporciona una detección rápida y efectiva de malware y spam, bloqueando el contenido mediante el uso de una política, y se integra con Forefront Online Protection for Exchange para ofrecer los beneficios de defensa en profundidad. Con la nueva consola, se integra con los otros productos de la familia, logrando así contar con un estado real de la seguridad corporativa.
3) Forefront Online Protection for Exchange (FOPE), basado en el concepto de Cloud Computing, puede ayudar a simplificar la administración de sus entornos de mensajería. El modelo hosteado de servicios en línea no requiere instalación de hardware o software, reduce al mínimo la inversión inicial. Como uno de los servicios en línea de Microsoft, Forefront Online Protection for Exchange proporciona una capa de funciones de protección implementado a través de una red mundial de centros de datos seguros.
4) Forefront Protection 2010 for SharePoint, ayuda a evitar que los usuarios suban o descarguen los documentos que contienen malware, fuera de la política de contenido, o información sensible a las bibliotecas de SharePoint. Se combina varios anti-malware de motores de escaneo de los socios de seguridad referentes en la industria, con el archivo y filtrado de palabras clave para proporcionar una protección completa contra las amenazas más recientes.
5) Forefront Security for Office Communications Server, ofrece una protección rápida y efectiva contra el malware de mensajería instantánea basado en la inclusión de múltiples motores de escaneo de los socios de seguridad líderes en la industria. También puede ayudar a reducir la responsabilidad corporativa mediante el bloqueo de mensajes instantáneos que contienen contenido inapropiado.
6) Forefront Threat Management Gateway 2010 (TMG), permite a la organización el uso de servicios de internet de manera segura y productiva, un uso para los negocios sin preocuparse por el malware u otras amenazas. Proporciona múltiples capas de protección, con continua actualización que se integran en un sistema unificado, fácil de manejar y lo que reduce el costo y la complejidad de la seguridad Web.
7) Forefront Unified Access Gateway 2010 (UAG), ofrece acceso completo y remoto seguro a recursos corporativos para los empleados, socios y proveedores en ambos equipos (administrados y no administrados) y los dispositivos móviles. Utilizando una combinación de opciones de conectividad, que van desde VPN SSL a DirectAccess, así como la construcción en las configuraciones y políticas, UAG proporciona gestión centralizada y fácil de acceder a una oferta completa de la organización en cualquier lugar.
Simplificarla la experiencia de la seguridad, gestionar el cumplimiento.
Microsoft viene trabajando para proveer soluciones que permitan gestionar información de forma segura a través de varios usuarios, puntos finales y servidores al mismo tiempo que lograr el cumplimiento de políticas de seguridad. La protección de Microsoft Forefront con control de acceso y soluciones que permiten la gestión de identidades que se integran con los entornos existentes, logran una implementación más sencilla, se obtiene la información centralizada a través de múltiples sistemas, y la gestión de los usuarios y la información en una sola vista.
1) Forefront Identity Manager 2010, simplifica la gestión de la empresa a través de la identidad de los usuarios finales la capacidad de autoservicio y las herramientas de administrador para automatizar tareas.
2) Microsoft Forefront Protection Server Management Console (FPSMC), la consola de administración proporciona un interfaz gráfica fácil de usar para el descubrimiento de servidores, configuración de implementación, presentación de informes, gestión de cuarentena, actualización del motor con las nuevas definiciones y a su vez la integración con Forefront Online Protection for Exchange.
La seguridad corpotativa de extremo a extremo es posible, aquí faltan algunos puntos a tener en cuenta como
1) Política de Seguridad de la compañía.
2) Cumplimiento de leyes y normas requeridas por el negocio (ej, PCI, ISO, etc).
3) Esquema de alertas y monitoreo.
4) Definición de responsable de las soluciones.
5) Política de clasificación de la información.
Se mencionan los puntos anteriores, por que el despligue por si solo de la solución de BRS, sin tener en cuenta los puntos anteriores, puede producir fallas o no lograr obtener los resultado esperados. Se imaginan que una alerta es emitida y nadie es responsable de una acción ante esa alerta, puede provocar caída o daños del sistema.
Actualizaciones plataforma Microsoft - FEBRERO 2011
Este resumen del boletín enumera los boletines de seguridad publicados para febrero de 2011.
Los boletines "críticos" son:
* MS11-003: Actualización acumulativa para Microsoft Internet Explorer que además soluciona cuatro nuevas vulnerabilidades que podrían permitir la ejecución remota de código arbitrario. Afecta a Internet Explorer 6,7 y 8.
* MS11-006: Se trata de una actualización destinada a solucionar una vulnerabilidad en el procesamiento de gráficos del shell de Windows que podría provocar la ejecución remota de código si un usuario visualiza una imagen miniatura especialmente diseñada. Afecta a Microsoft Windows XP, Windows Server 2003, Windows Vista y Windows Server 2008.
* MS11-007: Actualización para corregir una vulnerabilidad en controlador Windows OpenType Compact Font Format (CFF) que podría permitir la ejecución remota de código si el usuario visualiza contenido con fuentes CFF especialmente manipuladas. Afecta a Microsoft Windows XP, Windows Server 2003, Windows Vista, Windows Server 2008 y Windows 7.
Los boletines clasificados como "importantes" son:
* MS11-004: Actualización para corregir una vulnerabilidad en el servicio FTP de Microsoft Internet Information Services (IIS) que podría permitir la ejecución remota de código si un servidor ftp recibe un comando ftp específicamente creado. Afecta a Microsoft Windows Vista, Windows Server 2008 y Windows 7.
* MS11-005: Boletín destinado a corregir una vulnerabilidad de denegación de servicio en Active Directory bajo Windows Server 2003.
* MS11-008: Actualización que soluciona dos vulnerabilidades en Microsoft Visio que podrían permitir la denegación de servicio si un usuario abre un archivo de Visio especialmente diseñado.
* MS11-009: Actualización para corregir una vulnerabilidades en los motores de scripting de JScript y VBScript que podrían permitir la obtención de información sensible si un usuario accede a un sitio web especialmente creado. Afecta a Windows 7 y Windows Server 2008.
* MS11-010: Actualización destinada a solucionar una vulnerabilidad elevación de privilegios a través del subsistema de tiempo de ejecución de cliente-servidor de Windows (Client/Server Run-time Subsystem, CSRSS). Afecta a Windows XP y Windows Server 2003.
* MS11-011: Actualización para corregir dos vulnerabilidades de elevación de privilegios en el kernel de Windows. Afecta a Microsoft Windows XP, Vista y Windows Server 2003 y 2008.
* MS11-012: Actualización para corregir cinco vulnerabilidades de elevación de privilegios a través de los controladores en modo kernel de Windows. Afecta a Microsoft Windows XP, Windows Server 2003, Windows Vista, 7 y Windows Server 2008.
* MS11-013: Actualización para corregir dos vulnerabilidades en Windows relacionadas con Kerberos que podrían permitir la elevación de privilegios en Windows XP, Windows Server 2003, Windows 7 y Windows Server 2008.
* MS11-014 Boletín en el que se ofrece una actualización para evitar una vulnerabilidad en el servicio de subsistema de autoridad de seguridad local (LSASS) que podría permitir la elevación de privilegios en Windows XP y Windows Server 2003.
Las actualizaciones publicadas pueden descargarse a través de Windows Update o consultando los boletines de Microsoft donde se incluyen las direcciones de descarga directa de cada parche. Dada la gravedad de las vulnerabilidades se recomienda la actualización de los sistemas con la mayor brevedad posible.
Los boletines "críticos" son:
* MS11-003: Actualización acumulativa para Microsoft Internet Explorer que además soluciona cuatro nuevas vulnerabilidades que podrían permitir la ejecución remota de código arbitrario. Afecta a Internet Explorer 6,7 y 8.
* MS11-006: Se trata de una actualización destinada a solucionar una vulnerabilidad en el procesamiento de gráficos del shell de Windows que podría provocar la ejecución remota de código si un usuario visualiza una imagen miniatura especialmente diseñada. Afecta a Microsoft Windows XP, Windows Server 2003, Windows Vista y Windows Server 2008.
* MS11-007: Actualización para corregir una vulnerabilidad en controlador Windows OpenType Compact Font Format (CFF) que podría permitir la ejecución remota de código si el usuario visualiza contenido con fuentes CFF especialmente manipuladas. Afecta a Microsoft Windows XP, Windows Server 2003, Windows Vista, Windows Server 2008 y Windows 7.
Los boletines clasificados como "importantes" son:
* MS11-004: Actualización para corregir una vulnerabilidad en el servicio FTP de Microsoft Internet Information Services (IIS) que podría permitir la ejecución remota de código si un servidor ftp recibe un comando ftp específicamente creado. Afecta a Microsoft Windows Vista, Windows Server 2008 y Windows 7.
* MS11-005: Boletín destinado a corregir una vulnerabilidad de denegación de servicio en Active Directory bajo Windows Server 2003.
* MS11-008: Actualización que soluciona dos vulnerabilidades en Microsoft Visio que podrían permitir la denegación de servicio si un usuario abre un archivo de Visio especialmente diseñado.
* MS11-009: Actualización para corregir una vulnerabilidades en los motores de scripting de JScript y VBScript que podrían permitir la obtención de información sensible si un usuario accede a un sitio web especialmente creado. Afecta a Windows 7 y Windows Server 2008.
* MS11-010: Actualización destinada a solucionar una vulnerabilidad elevación de privilegios a través del subsistema de tiempo de ejecución de cliente-servidor de Windows (Client/Server Run-time Subsystem, CSRSS). Afecta a Windows XP y Windows Server 2003.
* MS11-011: Actualización para corregir dos vulnerabilidades de elevación de privilegios en el kernel de Windows. Afecta a Microsoft Windows XP, Vista y Windows Server 2003 y 2008.
* MS11-012: Actualización para corregir cinco vulnerabilidades de elevación de privilegios a través de los controladores en modo kernel de Windows. Afecta a Microsoft Windows XP, Windows Server 2003, Windows Vista, 7 y Windows Server 2008.
* MS11-013: Actualización para corregir dos vulnerabilidades en Windows relacionadas con Kerberos que podrían permitir la elevación de privilegios en Windows XP, Windows Server 2003, Windows 7 y Windows Server 2008.
* MS11-014 Boletín en el que se ofrece una actualización para evitar una vulnerabilidad en el servicio de subsistema de autoridad de seguridad local (LSASS) que podría permitir la elevación de privilegios en Windows XP y Windows Server 2003.
Las actualizaciones publicadas pueden descargarse a través de Windows Update o consultando los boletines de Microsoft donde se incluyen las direcciones de descarga directa de cada parche. Dada la gravedad de las vulnerabilidades se recomienda la actualización de los sistemas con la mayor brevedad posible.
Windows Azure - Subiendonos a la nubes Parte 1.
Introducción
El objetivo de esta serie de artículos es analizar como con Microsoft BRS Solutions ( Microsoft Business Ready Security Solutions) podemos proteger la información sin importar donde esté, verificando como se accede a ella y a su vez protegemos la misma manteniento los objetivos de la Seguridad de la Información (Confidencialidad-Integridad-Disponibilidad). BRS Solutions, compuesto por la familia de soluciones Forefront nos ayudará con el objetivo, pero antes de que entremos a las problemáticas puntuales, tenemos que entender algunos conceptos.
La Nube
Si buscamos en BING, el concepto de Cloud Computing, vamos a encontrar varias definiciones comunes. Para el caso, vamos a utilizar una definición que me agradó de NIST, ya que es la más completa de todas, que la describe de la siguiente manera :
"...Cloud Computing es un modelo para permitir acceso conveniente por demanda a un conjunto compartido de recursos computacionales configurables, por ejemplo, redes, servidores, almacenamiento, aplicaciones y servicios, que pueden ser rápidamente aprovisionados y liberados con un esfuerzo mínimo de administración o de interacción con el proveedor de servicios. Este modelo de nube promueve la disponibilidad y está compuesto por cinco características esenciales, tres modelos de servicio y cuatro modelos de despliegue..."
Características del modelo
1) On-demand self-service: Autoservicio por demanda,un usuario de recursos de la nube puede aprovisionar de manera unilateral capacidades de cómputo, tales como tiempo de servidor y almacenamiento en red, en la medida en que las requiera sin necesidad de interacción humana por parte del proveedor del servicio. Ejemplo de ello, cuando utilizan almacenamiento provisto por los Webmails, como el caso de SkyDrive de Hotmail.
2) Broad network access: Acceso amplio desde la red, las capacidades están disponibles sobre la red y se acceden a través de mecanismos estándares que promueven el uso desde plataformas clientes heterogéneas, tales como clientes delgados (Thin Client), clientes pesados (Pc) o cualquier dispositivo móbil con acceso a Internet compatible con los estándares. (ej. Windows Mobile, IPad, IPhone, etc).
3) Resource pooling : Conjunto de recursos, los recursos computacionales del proveedor se habilitan para servir a múltiples consumidores mediante un modelo “multi-tenant*”, con varios recursos físicos como virtuales asignados dinámicamente en base a la demanda. Existe un sentido de independencia de ubicación en cuanto a que el usuario no posee control o conocimiento sobre la ubicación exacta de los recursos que se le están proveyendo aunque puede estar en capacidad de especificar ubicación a un nivel de abstracción alto (ej. país, estado o centro de datos). Algunos ejemplos incluyen almacenamiento, procesamiento, memoria, ancho de banda y máquinas virtuales.
*El modelo Multi-Tenant se refiere a una arquitectura de software donde una única instancia del software se ejecuta en un servidor y al servicio de múltiples clientes.
4) Rapid elasticity: Rápida elasticidad, las capacidades pueden ser rápidamente y elásticamente aprovisionadas, en algunos casos automáticamente, para escalar hacia fuera rápidamente y también rápidamente liberadas para escalar hacia dentro también de manera rápida. Para el usuario, estas capacidades disponibles para aprovisionar a menudo aparecen como ilimitadas y pueden ser compradas en cualquier cantidad en cualquier momento.
5) Measured Service: Servicio medido, los sistemas en la nube controlan y optimizan automáticamente el uso de los recursos mediante una capacidad de medición a algún nivel de abstracción adecuado al tipo de servicio. (ej. almacenamiento, procesamiento, ancho de banda y cuentas de usuario activas). El uso de estos recursos puede ser monitoreado, controlado y reportado, proporcionando transparencia tanto para el proveedor como para el usuario por el servicio utilizado.
Modelos de Servicios
1) Cloud Software as a Service (SaaS): Software como un service, esta capacidad provee al usuario que utiliza las aplicaciones del proveedor una infraestructura de nube. Las aplicaciones son accesibles desde varios dispositivos clientes a través de una interfaz como un navegador. (ej. Web-mail).
2) Cloud Platform as a Service (PaaS): Plataforma como un servicio: Esta capacidad le permite al usuario desplegar en la infraestructura del proveedor aplicaciones creadas por el primero, incluso adquiridas, usando lenguajes de programación y herramientas del proveedor. El usuario no administrar o controlar la infraestructura subyacente incluyendo nube de red, servidores, sistemas operativos, o de almacenamiento, pero tiene el control sobre las aplicaciones implementadas y, posiblemente, alojamiento de aplicaciones configuraciones de entorno.
3) Cloud Infrastructure as a Service (IaaS): Infraestructura como un servicio, esta capacidad permite al consumidor aprovisionar recursos computacionales como almacenamiento, procesamiento, redes y otros elementos fundamentales en donde el consumidor puede desplegar y correr software arbitrario, el cual puede incluir sistemas operacionales y aplicaciones. El usuario no administrar o controlar la infraestructura cloud subyacente pero tiene el control sobre los sistemas operativos, almacenamiento, las aplicaciones implementadas, y posiblemente un control limitado de los componentes de red seleccionados.
Modelos de Despliegue
Ahora analizamos modelos de despligue o topología de la misma.
1) Private cloud: nube privada, la infraestructura en la nube es operado exclusivamente para una organización. Puede ser administrado por la organización o de un tercero y pueden existir en las instalaciones o fuera de la premisa.
2) Community cloud: Nube comunitaria, la infraestructura en la nube es compartida por varias organizaciones y es compatible con una comunidad específica que ha compartido las preocupaciones (por ejemplo, la misión, los requisitos de seguridad, la política y las consideraciones de cumplimiento). Puede ser administrado por las organizaciones o de un tercero.
3) Public cloud, Nube pública, la infraestructura de nube se puso a disposición del público en general o a un grupo de la gran industria y es propiedad de una organización de venta de servicios en la nube.
4) Hybrid cloud: Nube Híbrida, la infraestructura en la nube es una composición de dos o más nubes (privada, comunitaria, o del público) que se mantienen las entidades únicas, pero están unidos por la tecnología estandarizada o de propiedad que permite que los datos y la portabilidad de aplicaciones (por ejemplo, nubes de ruptura de equilibrio de carga entre las nubes). Recuerden que en los modelos denominados Híbridos, existe combinaciones de algún otro formato o modelo.
Microsoft Business Ready Security Solutions
En respuesta a estos retos y oportunidades de negocio, Microsoft está adoptando un enfoque fundamentalmente diferente a la seguridad. Este enfoque se denomina Business Ready Security. Se entiende a la seguridad como un elemento necesario para ayudar a las empresas a alcanzar sus objetivos de negocio, además ayudar a asegurar que las personas con permisos adecuados siempre tengan acceso a la información que necesitan para realizar su trabajo.
Microsoft entiende que la seguridad debe abarcar la protección, el acceso y la gestión, todos entorno a la identidad del usuario e integrado con una alta seguridad y plataforma interoperable.
En base a esto, Microsoft está trabajando para lograr el objetivo de BRS que basa en tres principios fundamentales:
1) La seguridad debe integrar y estar extendida en toda la empresa. Seguridad debe ser incorporada a la infraestructura (no solo con el objetivo de cumplir con auditorías), en el trabajo en múltiples plataformas y entornos. Identificar al usuario donde esté y sin importar a que plataforma acceda.
2) Seguridad debe contribuir a "la protección de todas partes, el acceso en cualquier lugar ". Esto incluye proporcionar protección a través de múltiples capas y permite el acceso remoto seguro.Protección y acceso deben ser entregados dentro del contexto de la identidad de un usuario
3) Microsoft entiende que la seguridad y la experiencia de cumplimiento deben ser significativamente simplificado para nuestros clientes. Esta experiencia simplificada debe extenderse a todos los usuarios con una empresa que "interactua" con la seguridad y ayudar a gestionar los costes, la complejidad y el cumplimiento.
Por último, vamos a ver los diferentes focos que hace BRS.Business Ready of Security establece seis soluciones de uso, centrado en activos que ayudan a reducir los costos y a simplificar la administración de seguridad en el entorno de la empresa utilizado la infraestructura de TI:
1) Integrated Security - Seguridad integrada: Fácil de manejar, el malware y protección integral de información en toda la empresa.
2) Secure Messaging - Mensajería Segura: La comunicación segura de negocios desde prácticamente cualquier lugar y en cualquier dispositivo, al tiempo que evita el uso no autorizado de información confidencial.
3)Secure Collaboration- Colaboración Segura: La colaboración segura de negocios desde prácticamente cualquier lugar y en cualquier dispositivo, evitando el uso no autorizado de información confidencial.
4)Secure Endpoint- Seguro de punto final: Proteger al cliente y sistemas operativos para servidores de las amenazas emergentes y la pérdida de información, al tiempo que permite un acceso seguro desde prácticamente cualquier lugar y en cualquier dispositivo.
5) Identity and Access Management- Gestión de identidades y acceso: Simplificar y gestionar el acceso a un acceso seguro y compatible con las aplicaciones en las instalaciones y en la nube desde cualquier lugar o dispositivo.
6) Information Protection - Proteger la información: simplificar y administrar la protección de la información, evitando de esta manera fuga de la misma y ayudando al cliente en el cumplimiento de políticas.
Esta Historia Continuara.. Espera la 2a Parte
El objetivo de esta serie de artículos es analizar como con Microsoft BRS Solutions ( Microsoft Business Ready Security Solutions) podemos proteger la información sin importar donde esté, verificando como se accede a ella y a su vez protegemos la misma manteniento los objetivos de la Seguridad de la Información (Confidencialidad-Integridad-Disponibilidad). BRS Solutions, compuesto por la familia de soluciones Forefront nos ayudará con el objetivo, pero antes de que entremos a las problemáticas puntuales, tenemos que entender algunos conceptos.
La Nube
Si buscamos en BING, el concepto de Cloud Computing, vamos a encontrar varias definiciones comunes. Para el caso, vamos a utilizar una definición que me agradó de NIST, ya que es la más completa de todas, que la describe de la siguiente manera :
"...Cloud Computing es un modelo para permitir acceso conveniente por demanda a un conjunto compartido de recursos computacionales configurables, por ejemplo, redes, servidores, almacenamiento, aplicaciones y servicios, que pueden ser rápidamente aprovisionados y liberados con un esfuerzo mínimo de administración o de interacción con el proveedor de servicios. Este modelo de nube promueve la disponibilidad y está compuesto por cinco características esenciales, tres modelos de servicio y cuatro modelos de despliegue..."
Características del modelo
1) On-demand self-service: Autoservicio por demanda,un usuario de recursos de la nube puede aprovisionar de manera unilateral capacidades de cómputo, tales como tiempo de servidor y almacenamiento en red, en la medida en que las requiera sin necesidad de interacción humana por parte del proveedor del servicio. Ejemplo de ello, cuando utilizan almacenamiento provisto por los Webmails, como el caso de SkyDrive de Hotmail.
2) Broad network access: Acceso amplio desde la red, las capacidades están disponibles sobre la red y se acceden a través de mecanismos estándares que promueven el uso desde plataformas clientes heterogéneas, tales como clientes delgados (Thin Client), clientes pesados (Pc) o cualquier dispositivo móbil con acceso a Internet compatible con los estándares. (ej. Windows Mobile, IPad, IPhone, etc).
3) Resource pooling : Conjunto de recursos, los recursos computacionales del proveedor se habilitan para servir a múltiples consumidores mediante un modelo “multi-tenant*”, con varios recursos físicos como virtuales asignados dinámicamente en base a la demanda. Existe un sentido de independencia de ubicación en cuanto a que el usuario no posee control o conocimiento sobre la ubicación exacta de los recursos que se le están proveyendo aunque puede estar en capacidad de especificar ubicación a un nivel de abstracción alto (ej. país, estado o centro de datos). Algunos ejemplos incluyen almacenamiento, procesamiento, memoria, ancho de banda y máquinas virtuales.
*El modelo Multi-Tenant se refiere a una arquitectura de software donde una única instancia del software se ejecuta en un servidor y al servicio de múltiples clientes.
4) Rapid elasticity: Rápida elasticidad, las capacidades pueden ser rápidamente y elásticamente aprovisionadas, en algunos casos automáticamente, para escalar hacia fuera rápidamente y también rápidamente liberadas para escalar hacia dentro también de manera rápida. Para el usuario, estas capacidades disponibles para aprovisionar a menudo aparecen como ilimitadas y pueden ser compradas en cualquier cantidad en cualquier momento.
5) Measured Service: Servicio medido, los sistemas en la nube controlan y optimizan automáticamente el uso de los recursos mediante una capacidad de medición a algún nivel de abstracción adecuado al tipo de servicio. (ej. almacenamiento, procesamiento, ancho de banda y cuentas de usuario activas). El uso de estos recursos puede ser monitoreado, controlado y reportado, proporcionando transparencia tanto para el proveedor como para el usuario por el servicio utilizado.
Modelos de Servicios
1) Cloud Software as a Service (SaaS): Software como un service, esta capacidad provee al usuario que utiliza las aplicaciones del proveedor una infraestructura de nube. Las aplicaciones son accesibles desde varios dispositivos clientes a través de una interfaz como un navegador. (ej. Web-mail).
2) Cloud Platform as a Service (PaaS): Plataforma como un servicio: Esta capacidad le permite al usuario desplegar en la infraestructura del proveedor aplicaciones creadas por el primero, incluso adquiridas, usando lenguajes de programación y herramientas del proveedor. El usuario no administrar o controlar la infraestructura subyacente incluyendo nube de red, servidores, sistemas operativos, o de almacenamiento, pero tiene el control sobre las aplicaciones implementadas y, posiblemente, alojamiento de aplicaciones configuraciones de entorno.
3) Cloud Infrastructure as a Service (IaaS): Infraestructura como un servicio, esta capacidad permite al consumidor aprovisionar recursos computacionales como almacenamiento, procesamiento, redes y otros elementos fundamentales en donde el consumidor puede desplegar y correr software arbitrario, el cual puede incluir sistemas operacionales y aplicaciones. El usuario no administrar o controlar la infraestructura cloud subyacente pero tiene el control sobre los sistemas operativos, almacenamiento, las aplicaciones implementadas, y posiblemente un control limitado de los componentes de red seleccionados.
Modelos de Despliegue
Ahora analizamos modelos de despligue o topología de la misma.
1) Private cloud: nube privada, la infraestructura en la nube es operado exclusivamente para una organización. Puede ser administrado por la organización o de un tercero y pueden existir en las instalaciones o fuera de la premisa.
2) Community cloud: Nube comunitaria, la infraestructura en la nube es compartida por varias organizaciones y es compatible con una comunidad específica que ha compartido las preocupaciones (por ejemplo, la misión, los requisitos de seguridad, la política y las consideraciones de cumplimiento). Puede ser administrado por las organizaciones o de un tercero.
3) Public cloud, Nube pública, la infraestructura de nube se puso a disposición del público en general o a un grupo de la gran industria y es propiedad de una organización de venta de servicios en la nube.
4) Hybrid cloud: Nube Híbrida, la infraestructura en la nube es una composición de dos o más nubes (privada, comunitaria, o del público) que se mantienen las entidades únicas, pero están unidos por la tecnología estandarizada o de propiedad que permite que los datos y la portabilidad de aplicaciones (por ejemplo, nubes de ruptura de equilibrio de carga entre las nubes). Recuerden que en los modelos denominados Híbridos, existe combinaciones de algún otro formato o modelo.
Microsoft Business Ready Security Solutions
En respuesta a estos retos y oportunidades de negocio, Microsoft está adoptando un enfoque fundamentalmente diferente a la seguridad. Este enfoque se denomina Business Ready Security. Se entiende a la seguridad como un elemento necesario para ayudar a las empresas a alcanzar sus objetivos de negocio, además ayudar a asegurar que las personas con permisos adecuados siempre tengan acceso a la información que necesitan para realizar su trabajo.
Microsoft entiende que la seguridad debe abarcar la protección, el acceso y la gestión, todos entorno a la identidad del usuario e integrado con una alta seguridad y plataforma interoperable.
En base a esto, Microsoft está trabajando para lograr el objetivo de BRS que basa en tres principios fundamentales:
1) La seguridad debe integrar y estar extendida en toda la empresa. Seguridad debe ser incorporada a la infraestructura (no solo con el objetivo de cumplir con auditorías), en el trabajo en múltiples plataformas y entornos. Identificar al usuario donde esté y sin importar a que plataforma acceda.
2) Seguridad debe contribuir a "la protección de todas partes, el acceso en cualquier lugar ". Esto incluye proporcionar protección a través de múltiples capas y permite el acceso remoto seguro.Protección y acceso deben ser entregados dentro del contexto de la identidad de un usuario
3) Microsoft entiende que la seguridad y la experiencia de cumplimiento deben ser significativamente simplificado para nuestros clientes. Esta experiencia simplificada debe extenderse a todos los usuarios con una empresa que "interactua" con la seguridad y ayudar a gestionar los costes, la complejidad y el cumplimiento.
Por último, vamos a ver los diferentes focos que hace BRS.Business Ready of Security establece seis soluciones de uso, centrado en activos que ayudan a reducir los costos y a simplificar la administración de seguridad en el entorno de la empresa utilizado la infraestructura de TI:
1) Integrated Security - Seguridad integrada: Fácil de manejar, el malware y protección integral de información en toda la empresa.
2) Secure Messaging - Mensajería Segura: La comunicación segura de negocios desde prácticamente cualquier lugar y en cualquier dispositivo, al tiempo que evita el uso no autorizado de información confidencial.
3)Secure Collaboration- Colaboración Segura: La colaboración segura de negocios desde prácticamente cualquier lugar y en cualquier dispositivo, evitando el uso no autorizado de información confidencial.
4)Secure Endpoint- Seguro de punto final: Proteger al cliente y sistemas operativos para servidores de las amenazas emergentes y la pérdida de información, al tiempo que permite un acceso seguro desde prácticamente cualquier lugar y en cualquier dispositivo.
5) Identity and Access Management- Gestión de identidades y acceso: Simplificar y gestionar el acceso a un acceso seguro y compatible con las aplicaciones en las instalaciones y en la nube desde cualquier lugar o dispositivo.
6) Information Protection - Proteger la información: simplificar y administrar la protección de la información, evitando de esta manera fuga de la misma y ayudando al cliente en el cumplimiento de políticas.
Esta Historia Continuara.. Espera la 2a Parte
Symantec: Tendencias de Seguridad para 2011
Los envíos masivos de correos y gusanos que buscaban la fama como LoveLetter, SQL Slammer y Melissa y que afectaron millones de sistemas a pocas horas de haberse liberado han quedado atrás. En los últimos diez años se ha pasado de la fama a la fortuna (lo que hemos denominado crimeware) y ahora los envíos masivos de correos electrónicos fueron reemplazados por malware que roba información de las tarjetas de crédito y vende productos antivirus falsos. De hecho, con el enorme crecimiento de nuevas plataformas móviles, los delincuentes tendrán aún más vías para el ataque y crearán nuevos trucos de ingeniería social.
Hacia finales del 2010 Stuxnet – una amenaza creada específicamente para modificar el comportamiento de sistemas de hardware y generar daños en el mundo físico- tuvo un gran impacto en los sectores que utilizan sistemas de control industrial. Este hecho marcó una nueva era en cuanto a ataques informáticos y es muy probable que aquellos cibercriminales que siguieron de cerca esta amenaza hayan aprendido la lección y en 2011 veamos otros ataques direccionados a infraestructuras críticas. Con un inicio lento, se espera que la frecuencia de este tipo de ataques se incremente.
Los Ataques Segmentados y las Vulnerabilidades de Día-Cero Serán más Comunes
Este año, Hydraq, también conocido como Aurora, fue un buen ejemplo de un tipo de amenaza creciente, altamente segmentada, que busca infiltrarse en organizaciones específicas en un tipo particular de sistemas de cómputo, explorando vulnerabilidades de software hasta ese momento desconocidas. Los cibercriminales han usado estas brechas de seguridad durante muchos años pero las amenazas altamente segmentadas han ganado terreno, por lo que se prevé el surgimiento de más vulnerabilidades de día cero para los próximos 12 meses en comparación con los años anteriores.
Más Dispositivos Móviles y Nuevos Modelos de Seguridad de TI
Mayor Adopción de Tecnologías de Encriptación
Hacia finales del 2010 Stuxnet – una amenaza creada específicamente para modificar el comportamiento de sistemas de hardware y generar daños en el mundo físico- tuvo un gran impacto en los sectores que utilizan sistemas de control industrial. Este hecho marcó una nueva era en cuanto a ataques informáticos y es muy probable que aquellos cibercriminales que siguieron de cerca esta amenaza hayan aprendido la lección y en 2011 veamos otros ataques direccionados a infraestructuras críticas. Con un inicio lento, se espera que la frecuencia de este tipo de ataques se incremente.
Los Ataques Segmentados y las Vulnerabilidades de Día-Cero Serán más Comunes
Este año, Hydraq, también conocido como Aurora, fue un buen ejemplo de un tipo de amenaza creciente, altamente segmentada, que busca infiltrarse en organizaciones específicas en un tipo particular de sistemas de cómputo, explorando vulnerabilidades de software hasta ese momento desconocidas. Los cibercriminales han usado estas brechas de seguridad durante muchos años pero las amenazas altamente segmentadas han ganado terreno, por lo que se prevé el surgimiento de más vulnerabilidades de día cero para los próximos 12 meses en comparación con los años anteriores.
El uso de dispositivos móviles como smartphones está creciendo a un ritmo acelerado. Gartner prevé que, al final de 2010, 1,200 millones de personas estén usando celulares con acceso a Internet e IDC estima que a final del 2010, los dispositivos Android y AppleiIOS tengan 31 por ciento de participación de mercado global. En 2011 se espera un aumento en las amenazas dirigidas a dispositivos móviles ya que el uso de éstos seguirá creciendo. Tomando en cuenta esta tendencia es probable que los dispositivos móviles se vuelvan una de las principales fuentes de pérdida de datos confidenciales en 2011.
Mayor Adopción de Tecnologías de Encriptación
El aumento de uso de dispositivos móviles de la empresa no sólo significa que será necesario enfrentar algunos desafíos para mantener accesibles y seguros esos equipos y los datos confidenciales contenidos en ellos, sino que las empresas también deberán cumplir varias regulaciones asociadas a la protección de datos y privacidad. En 2011 veremos que las organizaciones llevarán a cabo un acercamiento más proactivo para proteger los datos, como la adopción de tecnologías de encriptación para cumplir con los patrones de conformidad y evitar las multas y daños que la violación de datos pueda causar a las marcas.
Surgimiento de una Nueva Frontera en Ataques Motivados por Fines Políticos
En un estudio reciente de Symantec sobre la protección de infraestructura crítica, más del 50% de las empresas entrevistadas afirmó tener sospecha o certeza de ser víctimas de ataques con objetivos políticos específicos. En el pasado, los ataques motivados por cuestiones políticas caían en la categoría de espionaje cibernético o de ataques DoS (Denial of Service o negación de servicio) contra servicios Web. Symantec cree que Stuxnet es posiblemente sólo el primer indicador altamente visible de lo que se llamaría guerra cibernética que viene de tiempo atrás. En 2011 es probable que veamos más señales de acciones de lucha por controlar armas digitales.
Internet Explorer 9 superó los 23 millones de descargas
Microsoft aseguró que en las próximas semanas liberará la versión final de Internet Explorer 9.
A mediados del año pasado, un buen número de compañías de análisis de tráfico reportaron que Internet Explorer (IE) tenía casi el 53% del mercado mundial. Sin embargo, el porcentaje bajó en los meses siguientes y el navegador terminó 2010 con el 46,9% del mercado, pero se mantuvo por encima de Firefox (30,8%), Chrome (14,9%), Safari (4,8%) y Opera (2,1%).
En septiembre pasado, Microsoft presentó la versión beta 9 de IE y, según cifras reveladas esta semana por el gigante del software, en menos de 5 meses el navegador ha superado la meta y ya está por encima de los 23 millones de descargas. “Ninguna versión de evaluación de otro programa similar ha obtenido estos números. IE9 Beta ya cuenta con el 1.82% de presencia en usuarios de Windows 7 y con un 0.5% del total de usuarios de Internet”, dijo Microsoft en un comunicado.
Según la compañía, una de las características que ha marcado la diferencia con otros navegadores es la seguridad, ya que ha alcanzado un alto nivel de protección de identidad y datos de los usuarios que “con certeza se constituirá pronto en un estándar del mercado para el resto de navegadores”.
En el informe del total de descargas que ha alcanzado la versión de prueba de IE, Microsoft aseguró que en las próximas semanas liberará la versión final de su navegador gratuito y manifestó su conformidad porque este ha calcado las preferencias de los usuarios con relación a la velocidad de despliegue de contenidos multimedia, animaciones, música y video.
Los resultados de IE9 le ponen más ‘leña al fuego’ en la competencia que tendrá este año el navegador del gigante del software con Google Chrome, que lanzó esta semana su versión 9, y con Firefox que alista motores para presentar oficialmente en los próximos días su versión 4 final, luego de 10 betas.
La seguridad ante todo.
Según los laboratorios de seguridad NSS, IE9 es el navegador que mejores resultados ha dado con relación a la protección de los usuarios frente a ataques de robo de identidad que se realizan en la modalidad de ingeniería social.
Por ejemplo, en situaciones en las que engañan a los usuarios en las redes sociales o los invitan a ver fotos o videos exclusivos sobre un artista de moda, etc., los enlaces conducen a la transmisión de malware, en su mayoría espía, que puede afectar la información confidencial o de cuentas bancarias de las víctimas. En estos casos, según Nss, el navegador de Microsoft con un 99% de seguridad supera los resultados de Firefox 3.6 (19%), Safari 5 (11%), Chrome 6 (3%) y Opera 10 (0%).
Frente a esto, Microsoft resaltó la Aplicación de Reputación y el nuevo SmartScreen de IE9, que alertan al usuario sobre un riesgo de seguridad relacionado con la descarga de archivos o la visita a sitios que catalogados por el grado de riesgo. “Esto significa que si una persona es engañada para que visite un sitio web falso que ya ha sido detectado como contaminador de virus o programas espías, SmartScreen le bloqueará de inmediato. Además, al descargar un archivo de Internet, la Aplicación de Reputación se encargará de determinar, por el comportamiento histórico de las descargas de otros usuarios de IE9, si es confiable o no bajar tal contenido
A mediados del año pasado, un buen número de compañías de análisis de tráfico reportaron que Internet Explorer (IE) tenía casi el 53% del mercado mundial. Sin embargo, el porcentaje bajó en los meses siguientes y el navegador terminó 2010 con el 46,9% del mercado, pero se mantuvo por encima de Firefox (30,8%), Chrome (14,9%), Safari (4,8%) y Opera (2,1%).
En septiembre pasado, Microsoft presentó la versión beta 9 de IE y, según cifras reveladas esta semana por el gigante del software, en menos de 5 meses el navegador ha superado la meta y ya está por encima de los 23 millones de descargas. “Ninguna versión de evaluación de otro programa similar ha obtenido estos números. IE9 Beta ya cuenta con el 1.82% de presencia en usuarios de Windows 7 y con un 0.5% del total de usuarios de Internet”, dijo Microsoft en un comunicado.
Según la compañía, una de las características que ha marcado la diferencia con otros navegadores es la seguridad, ya que ha alcanzado un alto nivel de protección de identidad y datos de los usuarios que “con certeza se constituirá pronto en un estándar del mercado para el resto de navegadores”.
En el informe del total de descargas que ha alcanzado la versión de prueba de IE, Microsoft aseguró que en las próximas semanas liberará la versión final de su navegador gratuito y manifestó su conformidad porque este ha calcado las preferencias de los usuarios con relación a la velocidad de despliegue de contenidos multimedia, animaciones, música y video.
Los resultados de IE9 le ponen más ‘leña al fuego’ en la competencia que tendrá este año el navegador del gigante del software con Google Chrome, que lanzó esta semana su versión 9, y con Firefox que alista motores para presentar oficialmente en los próximos días su versión 4 final, luego de 10 betas.
La seguridad ante todo.
Según los laboratorios de seguridad NSS, IE9 es el navegador que mejores resultados ha dado con relación a la protección de los usuarios frente a ataques de robo de identidad que se realizan en la modalidad de ingeniería social.
Por ejemplo, en situaciones en las que engañan a los usuarios en las redes sociales o los invitan a ver fotos o videos exclusivos sobre un artista de moda, etc., los enlaces conducen a la transmisión de malware, en su mayoría espía, que puede afectar la información confidencial o de cuentas bancarias de las víctimas. En estos casos, según Nss, el navegador de Microsoft con un 99% de seguridad supera los resultados de Firefox 3.6 (19%), Safari 5 (11%), Chrome 6 (3%) y Opera 10 (0%).
Frente a esto, Microsoft resaltó la Aplicación de Reputación y el nuevo SmartScreen de IE9, que alertan al usuario sobre un riesgo de seguridad relacionado con la descarga de archivos o la visita a sitios que catalogados por el grado de riesgo. “Esto significa que si una persona es engañada para que visite un sitio web falso que ya ha sido detectado como contaminador de virus o programas espías, SmartScreen le bloqueará de inmediato. Además, al descargar un archivo de Internet, la Aplicación de Reputación se encargará de determinar, por el comportamiento histórico de las descargas de otros usuarios de IE9, si es confiable o no bajar tal contenido
USB 3.0, una tecnología que pide pista
Los cables y dispositivos con la tecnología USB 3.0 se identifican por su color azul.
En el Consumer Electronic Show (CES) de 2010, algunos disimulados ‘stands’ mostraban ejemplos de lo que, para el futuro cercano, sería la velocidad de transferencia de datos entre dispositivos. Los aparatos funcionaban con la tecnología USB 3.0, aquella que es la llamada a remplazar en rapidez y mejoras técnicas a la USB 2.0, que hoy está incluida en la gran mayoría de computadores, memorias USB, discos duros externos, impresoras y otros equipos que se conectan por medio de un puerto USB.
En aquella oportunidad, las experiencias eran escasas, pero dicientes: de un disco duro externo a un computador se transferían archivos de más de 500 MB en solo segundos; una cámara web de alta definición, conectada al puerto USB, permitía grabar video en el computador sin ningún tipo de alteración o interferencia; y un reproductor externo de discos Blu-ray operaba con un portátil para ver contenidos de alta definición de manera fluida.
En el segundo semestre del 2010 comenzaron a materializarse los proyectos USB 3.0, también conocida como SuperSpeed USB. Han llegado entonces al mercado (obviamente no al colombiano, pues siempre debemos esperar más de la cuenta) diversos equipos con USB 3.0 como portátiles, memorias USB y discos duros externos. Su promesa es simple: transferir información entre dispositivos a una velocidad notablemente superior que la tecnología previa.
Como parte de estos adelantos, en ENTER.CO tuvimos acceso a 2 ‘juguetes’ de la era 3.0 que cualquier aficionado a la tecnología quisiera adquirir: el portátil HP Envy 3D de 17 pulgadas y la memoria Kingston Data-Traveler Ultimate 3.0. De los 3 puertos USB que posee el portátil, solo uno de ellos es 3.0 (marcado con las letras SS y el símbolo distintivo de USB); se ubica en el costado izquierdo del equipo, al lado del puerto eSATA. Por su parte, la memoria de Kingston con 16 GB de capacidad, de las primeras que lanzó esta compañía con dicha tecnología, es un poco más gruesa que los demás modelos de la empresa, pero se siente como un dispositivo robusto y resistente.
En las pruebas realizadas es evidente que la tecnología 3.0 marca una gran diferencia con respecto a la 2.0 en cuanto a velocidad, teniendo en cuenta, además, que los 2 productos (portátil y memoria USB) son de los más utilizados por las personas en su trabajo diario. Los resultados al transferir un archivo de video de 548 MB son los siguientes:
•Si se envía el archivo desde el portátil a una memoria USB 2.0 conectada al puerto USB 2.0, se tarda 46,3 segundos. Si se ubica la memoria USB 2.0 en el puerto USB 3.0, el tiempo baja a 41 segundos. Ahora, al transferir el archivo a la memoria USB 3.0, pero conectada al puerto USB 2.0, se toma 29,9 segundos; finalmente, conectada la memoria USB 3.0 al puerto USB 3.0 el tiempo es de 12,7 segundos, lo que implica una velocidad casi 4 veces superior que con la tecnología USB 2.0.
•Al proceder en el sentido contrario, estos fueron los resultados: enviar el archivo de la memoria USB 2.0 al portátil conectada a un puerto USB 2.0 se demora 30,2 segundos; en el caso de la memoria USB 3.0 conectada al puerto 3.0, el archivo tarda en copiarse al computador 7,09 segundos.
Veloz, pero no es suficiente.
A la tecnología USB 3.0, por más que su velocidad y desempeño sean notables, todavía le falta mucho camino por recorrer, sin importar que USB 2.0 lleve tanto en el mercado (comenzó a masificarse en 2002). Los portátiles que la incluyen, entre ellos el miniportátil Eee PC 1015PEM y el Dell Precision M6500, sumados a pocas marcas con discos duros y memorias USB, no son suficientes para hacer popular este avance.
Uno de los obstáculos, y quizás el mayor, viene de parte de Intel, el mayor fabricante de procesadores del mundo, que anunció que solo a partir de este año dará soporte a esta tecnología. Esto implica que para que llegue a la gran mayoría de computadores que se venden en las tiendas, desde los más económicos, es preciso esperar. Algunos críticos han atribuido esta tardanza a Light Peak, una tecnología propia de Intel que utiliza cables de fibra óptica para enlazar dispositivos hasta a 50 metros de distancia entre ellos (USB 3.0 tiene un alcance de solo 5 metros) y que transmite hasta 10 Gigabits por segundo de información de manera bidireccional (el doble que USB 3.0). Según Intel, espera que Light Peak empiece a llegar a los computadores durante este año.
Lo que debe saber de USB 3.0.
•La primera versión de USB (1.0) salió en 1996 y prometía velocidades de transferencia de hasta 12 Megabits por segundo (Mbps); la versión 2.0 vio la luz en 2000 y ofrecía, en teoría, hasta 480 Mbps. USB 3.0 está planteado para ofrecer hasta 5 Gigabits por segundo.
•El conector (plug) que utilizan las tecnologías USB 1.0 y 2.0 es igual en su parte física. El 3.0, si bien luce igual, internamente es diferente, pues cuenta con 9 cables, comparado con los 5 que tienen sus antecesoras. Esto implica que los cables que utilizan los dispositivos USB 3.0 (impresoras, discos externos, etc.) no sirven para conectar dispositivos 2.0, mientras sí es posible utilizar cables 2.0 para enlazar dispositivos 3.0, aunque no se obtendrá su máxima velocidad.
•Las memorias USB, sin importar su velocidad, funcionan en cualquier puerto USB (las 3.0 pueden requerir un driver de instalación para que funcionen en equipos con puertos USB 2.0). No obstante, depende de que las 2 partes (memoria y puerto USB) tengan la misma tecnología para que la velocidad sea la más rápida.
•Los 9 cables internos de la tecnología USB 3.0 le permiten tener 2 líneas adicionales para tráfico de información (mayor velocidad), además de que los datos pueden fluir de manera bidireccional (de ida y vuelta). USB 2.0 solo permite enviar información en una sola vía, por lo que si se está llevando un archivo a una memoria USB y al mismo tiempo se intenta descargar otro archivo desde la memoria al PC, los dos dispositivos se alternan para enviar y recibir.
•Un dispositivo USB 3.0 puede tomar un 50 por ciento más de energía que la tecnología 2.0. Esto permite, por ejemplo, conectar aparatos más grandes a un computador sin necesidad de enlazarlos a la corriente (como sucedía antes con algunos discos duros).
•Si un dispositivo está conectado a un puerto USB 2.0 siempre estará consumiendo energía del dispositivo al que está enlazado, por lo que en un portátil la batería se puede acabar incluso si no está ejecutando tarea alguna. Con USB 3.0 se acaba esta situación: si nada pasa con dicho dispositivo, el equipo no va a proveerle energía.
En el Consumer Electronic Show (CES) de 2010, algunos disimulados ‘stands’ mostraban ejemplos de lo que, para el futuro cercano, sería la velocidad de transferencia de datos entre dispositivos. Los aparatos funcionaban con la tecnología USB 3.0, aquella que es la llamada a remplazar en rapidez y mejoras técnicas a la USB 2.0, que hoy está incluida en la gran mayoría de computadores, memorias USB, discos duros externos, impresoras y otros equipos que se conectan por medio de un puerto USB.
En aquella oportunidad, las experiencias eran escasas, pero dicientes: de un disco duro externo a un computador se transferían archivos de más de 500 MB en solo segundos; una cámara web de alta definición, conectada al puerto USB, permitía grabar video en el computador sin ningún tipo de alteración o interferencia; y un reproductor externo de discos Blu-ray operaba con un portátil para ver contenidos de alta definición de manera fluida.
En el segundo semestre del 2010 comenzaron a materializarse los proyectos USB 3.0, también conocida como SuperSpeed USB. Han llegado entonces al mercado (obviamente no al colombiano, pues siempre debemos esperar más de la cuenta) diversos equipos con USB 3.0 como portátiles, memorias USB y discos duros externos. Su promesa es simple: transferir información entre dispositivos a una velocidad notablemente superior que la tecnología previa.
Como parte de estos adelantos, en ENTER.CO tuvimos acceso a 2 ‘juguetes’ de la era 3.0 que cualquier aficionado a la tecnología quisiera adquirir: el portátil HP Envy 3D de 17 pulgadas y la memoria Kingston Data-Traveler Ultimate 3.0. De los 3 puertos USB que posee el portátil, solo uno de ellos es 3.0 (marcado con las letras SS y el símbolo distintivo de USB); se ubica en el costado izquierdo del equipo, al lado del puerto eSATA. Por su parte, la memoria de Kingston con 16 GB de capacidad, de las primeras que lanzó esta compañía con dicha tecnología, es un poco más gruesa que los demás modelos de la empresa, pero se siente como un dispositivo robusto y resistente.
En las pruebas realizadas es evidente que la tecnología 3.0 marca una gran diferencia con respecto a la 2.0 en cuanto a velocidad, teniendo en cuenta, además, que los 2 productos (portátil y memoria USB) son de los más utilizados por las personas en su trabajo diario. Los resultados al transferir un archivo de video de 548 MB son los siguientes:
•Si se envía el archivo desde el portátil a una memoria USB 2.0 conectada al puerto USB 2.0, se tarda 46,3 segundos. Si se ubica la memoria USB 2.0 en el puerto USB 3.0, el tiempo baja a 41 segundos. Ahora, al transferir el archivo a la memoria USB 3.0, pero conectada al puerto USB 2.0, se toma 29,9 segundos; finalmente, conectada la memoria USB 3.0 al puerto USB 3.0 el tiempo es de 12,7 segundos, lo que implica una velocidad casi 4 veces superior que con la tecnología USB 2.0.
•Al proceder en el sentido contrario, estos fueron los resultados: enviar el archivo de la memoria USB 2.0 al portátil conectada a un puerto USB 2.0 se demora 30,2 segundos; en el caso de la memoria USB 3.0 conectada al puerto 3.0, el archivo tarda en copiarse al computador 7,09 segundos.
Veloz, pero no es suficiente.
A la tecnología USB 3.0, por más que su velocidad y desempeño sean notables, todavía le falta mucho camino por recorrer, sin importar que USB 2.0 lleve tanto en el mercado (comenzó a masificarse en 2002). Los portátiles que la incluyen, entre ellos el miniportátil Eee PC 1015PEM y el Dell Precision M6500, sumados a pocas marcas con discos duros y memorias USB, no son suficientes para hacer popular este avance.
Uno de los obstáculos, y quizás el mayor, viene de parte de Intel, el mayor fabricante de procesadores del mundo, que anunció que solo a partir de este año dará soporte a esta tecnología. Esto implica que para que llegue a la gran mayoría de computadores que se venden en las tiendas, desde los más económicos, es preciso esperar. Algunos críticos han atribuido esta tardanza a Light Peak, una tecnología propia de Intel que utiliza cables de fibra óptica para enlazar dispositivos hasta a 50 metros de distancia entre ellos (USB 3.0 tiene un alcance de solo 5 metros) y que transmite hasta 10 Gigabits por segundo de información de manera bidireccional (el doble que USB 3.0). Según Intel, espera que Light Peak empiece a llegar a los computadores durante este año.
Lo que debe saber de USB 3.0.
•La primera versión de USB (1.0) salió en 1996 y prometía velocidades de transferencia de hasta 12 Megabits por segundo (Mbps); la versión 2.0 vio la luz en 2000 y ofrecía, en teoría, hasta 480 Mbps. USB 3.0 está planteado para ofrecer hasta 5 Gigabits por segundo.
•El conector (plug) que utilizan las tecnologías USB 1.0 y 2.0 es igual en su parte física. El 3.0, si bien luce igual, internamente es diferente, pues cuenta con 9 cables, comparado con los 5 que tienen sus antecesoras. Esto implica que los cables que utilizan los dispositivos USB 3.0 (impresoras, discos externos, etc.) no sirven para conectar dispositivos 2.0, mientras sí es posible utilizar cables 2.0 para enlazar dispositivos 3.0, aunque no se obtendrá su máxima velocidad.
•Las memorias USB, sin importar su velocidad, funcionan en cualquier puerto USB (las 3.0 pueden requerir un driver de instalación para que funcionen en equipos con puertos USB 2.0). No obstante, depende de que las 2 partes (memoria y puerto USB) tengan la misma tecnología para que la velocidad sea la más rápida.
•Los 9 cables internos de la tecnología USB 3.0 le permiten tener 2 líneas adicionales para tráfico de información (mayor velocidad), además de que los datos pueden fluir de manera bidireccional (de ida y vuelta). USB 2.0 solo permite enviar información en una sola vía, por lo que si se está llevando un archivo a una memoria USB y al mismo tiempo se intenta descargar otro archivo desde la memoria al PC, los dos dispositivos se alternan para enviar y recibir.
•Un dispositivo USB 3.0 puede tomar un 50 por ciento más de energía que la tecnología 2.0. Esto permite, por ejemplo, conectar aparatos más grandes a un computador sin necesidad de enlazarlos a la corriente (como sucedía antes con algunos discos duros).
•Si un dispositivo está conectado a un puerto USB 2.0 siempre estará consumiendo energía del dispositivo al que está enlazado, por lo que en un portátil la batería se puede acabar incluso si no está ejecutando tarea alguna. Con USB 3.0 se acaba esta situación: si nada pasa con dicho dispositivo, el equipo no va a proveerle energía.
5 Metodos que usan los Hackers para Violar una Contraseña, como evitarlo...
Asi es Kinec por Dentro...
Cómo se las arregla el dispositivo de Microsoft para observarnos y repetir todos nuestros movimientos en la pantalla.
VISTA FRONTAL DEL KINECT
Jugar sin un mando (joystick o control de cualquier tipo) ahora significa jugar con todo el cuerpo. Kinect te observa, reconoce tu entorno y responde a tus movimientos. Si dentro del juego tienes que dar una patada, sólo debes realizar el movimiento y Kinect lanzará una patada por ti. Lo mismo sucede para saltar, caminar y otras acciones motrices que expulsaron a los jugadores del tradicional sofá. El jugador ahora es parte del juego, está dentro de él. Pero, ¿cómo es la anatomía de este sistema? ¿Qué lo hace tan inteligente? ¿Cómo hace para vernos y reconocer nuestras acciones? Veamos que hay debajo de las tapas de esta maravilla que llegó para revolucionar el mundo de los videojuegos.
La empresa PrimeSense, con sede en Tel-Aviv, Israel, alcanzó la hazaña tecnológica a través de su diseño “PrimeSensor” que nos brinda la posibilidad de "percibir el mundo en tres dimensiones y traducir estas percepciones en una imagen sincronizada". Dentro de esta idea básica, la sala donde se ubica el sistema y sus ocupantes está “salpicada” con un patrón de puntos invisibles (para los usuarios) y que son generados por un láser que trabaja en la frecuencia del infrarrojo cercano. Esto es, un dispositivo láser de Clase 1 que proporciona un enfoque a una distancia útil sin generar condiciones peligrosas para los jugadores. Un sensor de imagen CMOS detecta los reflejos del haz infrarrojo, dentro de un patrón de puntos y segmentos, y genera mapas que informan sobre la intensidad de cada punto y segmento.
Este proceso se realiza a una distancia de pocos metros y se obtiene una resolución de hasta 1 centímetro dentro de la dimensión de la profundidad (Eje Z). La resolución espacial (Ejes X e Y) es del orden de milímetros, y se utiliza la entrada de información RGB (Rojo, Verde y Azul) desde un segundo sensor de imagen CMOS (como la cámara de tu teléfono móvil) para añadir color a los datos adquiridos. El frente del Kinect por lo tanto, donde se ubican los dispositivos mencionados, se ve de este modo (en la imagen, arriba).
Kinect utiliza los datos obtenidos sobre la posición tridimensional y el movimiento de las personas ubicadas frente a él para reproducir y reflejar las situaciones correspondientes en la pantalla, las que son ejecutadas por el avatar de cada jugador, es decir, por el personaje de la ficción. Un conjunto de engranajes acoplados a un pequeño motor (conjunto ubicado en el pié de Kinect) mantiene al equipo y sus sensores de imágenes siempre atentos y direccionados hacia el espacio de donde proviene o se genera la acción, siguiendo y capturando la información sobre cómo se mueven los jugadores. Cuatro micrófonos se utilizan para cancelar los ecos y el ruido de fondo, mientras que ayudan a determinar cuál de todos los jugadores ha emitido un comando de voz. Con estas características disponibles, no era muy difícil imaginar que las mentes más intrépidas del planeta utilizarían el potencial de esta tecnología en otras aplicaciones ajenas a la idea original de un accesorio para un videojuego. De hecho, existen sitios web dedicados de manera especial a aglutinar desarrolladores y creativos que cristalizan trabajos extraordinarios basados en el potencial de Kinect.
Microsoft superó sus expectativas iniciales al vender más de un millón de unidades Kinect en los 10 primeros días de aparecido el producto en las góndolas durante 2010. Por lo tanto, no es ninguna sorpresa que muchos de los componentes utilizados en el hardware, y que son básicos dentro de la estructura principal, correspondan a fabricantes diferentes. Por ejemplo, la unidad de memoria DDR2 SDRAM de 64 MB, después de haber observado tres diferentes unidades (de distintas tandas de producción) del equipo, se ha demostrado que contienen partes equivalentes de marcas tales como Samsung, Hynix y Elpida. Del mismo modo, una memoria Flash NOR de 1 Mbyte de Silicon Storage Technology ocupa una ranura en una de las unidades Kinect observadas, mientras que la misma ranura posee un producto de STMicroelectronics en otras partidas. Kinect además, contiene muchos amplificadores operacionales y otros pequeños componentes discretos, también candidatos a múltiples compras y a una diversidad importante de fabricantes de semiconductores. Por lo tanto, no te sorprendas al descubrir que el contenido de tu Kinect puede variar respecto al de tu amigo o vecino.
Los "ojos" de Kinect, como mencionamos antes, son un par de cámaras. Estos captores son sensores de imágenes CMOS de Aptina Imaging y el modelo elegido utiliza el sensor de infrarrojos MT9M001, con píxeles de 5,2 micras. Vale aclarar que píxeles más grandes trabajan bien con poca luz y sumado esto a una correcta filtración, se prestan muy bien a las aplicaciones de infrarrojos. Por el lado de la entrada de información RGB se utiliza una cámara color, con un sensor MT9M112 y los dos sensores mencionados poseen una resolución de 1,3 mega-píxeles. La interfaz utilizada para dar forma al “procesamiento sensorial" es un chip PS1080 de PrimeSense, que se encarga de todos los controles del sistema, del proyector de infrarrojos, de los procesos de la información que cada cámara recoge y de las entradas de audio.
Todo por cien euros
A su vez, el PS1080 establece su enlace a través de una conectividad USB 2.0 hacia uno de los procesadores principales de aplicaciones dentro de Kinect. Estamos hablando del PXA168 que puede trabajar a velocidades tan altas como los jugadores más frenéticos puedan exigirle al sistema de proceso. Completando los dispositivos de entradas, nos encontramos con un par de convertidores analógicos-digitales estéreo, WM8737L de Wolfson Microelectronics, encargados de realizar el trabajo de preamplificadores de audio que dan cabida a la matriz de micrófonos ya mencionada.
Kinect también cuenta con un acelerómetro MEMS, el KXSD9 de Kionix. Debido a que la unidad tiene un rango (limitado) de movimientos, este acelerómetro forma parte del bucle de control de inclinación, que también incluye el controlador para motor paso a paso, el A3906 de Allegro Microsystems. Otros componentes notables encontrados son el controlador uPD720114 que cumple la función de concentrador USB de NEC y un par de circuitos integrados de Texas Instruments: el TAS1020B que es un controlador de audio USB Streaming y un ADS7830 que es un convertidor analógico-digital de ocho canales y de 8 bits. Tal vez, lo más interesante de esta diversidad de marcas, en lo que hace a los componentes que dan forma a Kinect, es el hecho de que todo esto puede ser comprado por alrededor de 100 euros (o menos). ¿Te imaginabas todo esto dentro de Kinect?
VISTA FRONTAL DEL KINECT
Jugar sin un mando (joystick o control de cualquier tipo) ahora significa jugar con todo el cuerpo. Kinect te observa, reconoce tu entorno y responde a tus movimientos. Si dentro del juego tienes que dar una patada, sólo debes realizar el movimiento y Kinect lanzará una patada por ti. Lo mismo sucede para saltar, caminar y otras acciones motrices que expulsaron a los jugadores del tradicional sofá. El jugador ahora es parte del juego, está dentro de él. Pero, ¿cómo es la anatomía de este sistema? ¿Qué lo hace tan inteligente? ¿Cómo hace para vernos y reconocer nuestras acciones? Veamos que hay debajo de las tapas de esta maravilla que llegó para revolucionar el mundo de los videojuegos.
La empresa PrimeSense, con sede en Tel-Aviv, Israel, alcanzó la hazaña tecnológica a través de su diseño “PrimeSensor” que nos brinda la posibilidad de "percibir el mundo en tres dimensiones y traducir estas percepciones en una imagen sincronizada". Dentro de esta idea básica, la sala donde se ubica el sistema y sus ocupantes está “salpicada” con un patrón de puntos invisibles (para los usuarios) y que son generados por un láser que trabaja en la frecuencia del infrarrojo cercano. Esto es, un dispositivo láser de Clase 1 que proporciona un enfoque a una distancia útil sin generar condiciones peligrosas para los jugadores. Un sensor de imagen CMOS detecta los reflejos del haz infrarrojo, dentro de un patrón de puntos y segmentos, y genera mapas que informan sobre la intensidad de cada punto y segmento.
Este proceso se realiza a una distancia de pocos metros y se obtiene una resolución de hasta 1 centímetro dentro de la dimensión de la profundidad (Eje Z). La resolución espacial (Ejes X e Y) es del orden de milímetros, y se utiliza la entrada de información RGB (Rojo, Verde y Azul) desde un segundo sensor de imagen CMOS (como la cámara de tu teléfono móvil) para añadir color a los datos adquiridos. El frente del Kinect por lo tanto, donde se ubican los dispositivos mencionados, se ve de este modo (en la imagen, arriba).
Kinect utiliza los datos obtenidos sobre la posición tridimensional y el movimiento de las personas ubicadas frente a él para reproducir y reflejar las situaciones correspondientes en la pantalla, las que son ejecutadas por el avatar de cada jugador, es decir, por el personaje de la ficción. Un conjunto de engranajes acoplados a un pequeño motor (conjunto ubicado en el pié de Kinect) mantiene al equipo y sus sensores de imágenes siempre atentos y direccionados hacia el espacio de donde proviene o se genera la acción, siguiendo y capturando la información sobre cómo se mueven los jugadores. Cuatro micrófonos se utilizan para cancelar los ecos y el ruido de fondo, mientras que ayudan a determinar cuál de todos los jugadores ha emitido un comando de voz. Con estas características disponibles, no era muy difícil imaginar que las mentes más intrépidas del planeta utilizarían el potencial de esta tecnología en otras aplicaciones ajenas a la idea original de un accesorio para un videojuego. De hecho, existen sitios web dedicados de manera especial a aglutinar desarrolladores y creativos que cristalizan trabajos extraordinarios basados en el potencial de Kinect.
Microsoft superó sus expectativas iniciales al vender más de un millón de unidades Kinect en los 10 primeros días de aparecido el producto en las góndolas durante 2010. Por lo tanto, no es ninguna sorpresa que muchos de los componentes utilizados en el hardware, y que son básicos dentro de la estructura principal, correspondan a fabricantes diferentes. Por ejemplo, la unidad de memoria DDR2 SDRAM de 64 MB, después de haber observado tres diferentes unidades (de distintas tandas de producción) del equipo, se ha demostrado que contienen partes equivalentes de marcas tales como Samsung, Hynix y Elpida. Del mismo modo, una memoria Flash NOR de 1 Mbyte de Silicon Storage Technology ocupa una ranura en una de las unidades Kinect observadas, mientras que la misma ranura posee un producto de STMicroelectronics en otras partidas. Kinect además, contiene muchos amplificadores operacionales y otros pequeños componentes discretos, también candidatos a múltiples compras y a una diversidad importante de fabricantes de semiconductores. Por lo tanto, no te sorprendas al descubrir que el contenido de tu Kinect puede variar respecto al de tu amigo o vecino.
Los "ojos" de Kinect, como mencionamos antes, son un par de cámaras. Estos captores son sensores de imágenes CMOS de Aptina Imaging y el modelo elegido utiliza el sensor de infrarrojos MT9M001, con píxeles de 5,2 micras. Vale aclarar que píxeles más grandes trabajan bien con poca luz y sumado esto a una correcta filtración, se prestan muy bien a las aplicaciones de infrarrojos. Por el lado de la entrada de información RGB se utiliza una cámara color, con un sensor MT9M112 y los dos sensores mencionados poseen una resolución de 1,3 mega-píxeles. La interfaz utilizada para dar forma al “procesamiento sensorial" es un chip PS1080 de PrimeSense, que se encarga de todos los controles del sistema, del proyector de infrarrojos, de los procesos de la información que cada cámara recoge y de las entradas de audio.
Todo por cien euros
A su vez, el PS1080 establece su enlace a través de una conectividad USB 2.0 hacia uno de los procesadores principales de aplicaciones dentro de Kinect. Estamos hablando del PXA168 que puede trabajar a velocidades tan altas como los jugadores más frenéticos puedan exigirle al sistema de proceso. Completando los dispositivos de entradas, nos encontramos con un par de convertidores analógicos-digitales estéreo, WM8737L de Wolfson Microelectronics, encargados de realizar el trabajo de preamplificadores de audio que dan cabida a la matriz de micrófonos ya mencionada.
Kinect también cuenta con un acelerómetro MEMS, el KXSD9 de Kionix. Debido a que la unidad tiene un rango (limitado) de movimientos, este acelerómetro forma parte del bucle de control de inclinación, que también incluye el controlador para motor paso a paso, el A3906 de Allegro Microsystems. Otros componentes notables encontrados son el controlador uPD720114 que cumple la función de concentrador USB de NEC y un par de circuitos integrados de Texas Instruments: el TAS1020B que es un controlador de audio USB Streaming y un ADS7830 que es un convertidor analógico-digital de ocho canales y de 8 bits. Tal vez, lo más interesante de esta diversidad de marcas, en lo que hace a los componentes que dan forma a Kinect, es el hecho de que todo esto puede ser comprado por alrededor de 100 euros (o menos). ¿Te imaginabas todo esto dentro de Kinect?
¿Vale Twitter 10.000 millones de dólares?
The Wall Street Journal ha levantado la voz de alarma. ¿Estamos ante la nueva burbuja 2.0? El diario económico cree que los últimos movimientos dan signos de una sobrevaloración de las empresas de Internet, que tiene su mejor ejemplo en Twitter, que ha protagonizado unas negociaciones en las que se le valoraba entre 8.000 y 10.000 millones de dólares.
Supuestamente estas cifras se han barajado en distintas ofertas, tanto para invertir en la empresa de los 140 caracteres como para absorber la compañía. Este sería el caso de Facebook y de Google, que según el diario, en los últimos meses han mantenido negociaciones para quedarse con el famoso sistema de información en tiempo real.
Ninguna de las posibles compras ha cuajado pero los 10.000 millones de valoración han planteado un mar de suspicacias en cuanto las estimaciones de ingresos para 2010 de Twitter se cifraban en 45 millones de dólares, que pueden llegar a 150 millones en 2011, y hasta 250 millones al año siguiente, de acuerdo con eMarketer.
Los inversores parecen estar cegados por Twitter, que ha llegado a 200 millones de usuarios registrados en cuatro años de vida, y esos 45 millones de ingresos, los ha logrado en el primer ejercicio que ha empezado a explotar comercialmente su red.
Pero lo que es más llamativo, y quizás alarmante, es que el pasado mes de diciembre, Twitter se valoró en 3.700 millones de dólares cuando la firma de capital riesgo Kleiner Perkins Caufield Byers entró en el accionariado de la empresa .
¿Qué ha pasado en estos dos meses para que Twitter multiplique su valoración 2,7 veces? No ha anunciado ningún nuevo modelo de ingresos, ni un sistema de anuncios autogestionado, ni ha introducido una mejora tan destacable en su software…
Lo que ha pasado en este tiempo es que Goldman Sachs invirtió 1.500 millones en Facebook, lo que le ha dado fuelle financiero para pujar por posibles nuevas compras, pero sobre todo esta inversión le ha supuesto una valoración de 50.000 millones de dólares, cuando a mediados de 2009 sólo estaba valorada en 10.000 millones. Facebook multiplicó su valor, que no sus ingresos, por cinco en poco más de un año.
Sin duda, la apuesta de Goldman Sachs ha acelerado las inversiones en las empresas de Internet, y ese mayor interés, se traduce en valoraciones un tanto exageradas. Quienes así lo defienden señalan la compra de Huffington Post por parte de AOL, que ha pagado 310 millones de dólares por una web que ingresó 10 veces menos en 2010, o el caso de la empresa de descuentos Groupon que rechazó una oferta de 6.000 millones de dólares de Google por preferir salir a Bolsa este año, como LinkedIn que espera empezar a cotizar con una valoración de 2.000 millones.
Twitter sigue la estala de la nuevas empresas de Internet, que primero explotan todas sus capacidades al máximo para atraer usuarios y luego, sin prisas, buscan cómo rentabilizar su servicio. Así lo hizo Google, así lo está haciendo Facebook y esperemos que sea capaz de hacerlo Twitter, que ha empezado a tomar una dirección más convencional con reconocidos hombres de negocio al mando.
La publicidad en la plataforma está funcionando bien, y sigue atrayendo a grandes anunciantes. Los últimos datos de audiencias con la SuperBowl muestran ese potencial que tanto atrae a los inversores, pero parece que Twitter prefiere seguir su camino como una compañía independiente, y de momento, los 10.000 millones de dólares de valoración se quedan sólo en los papeles.
Supuestamente estas cifras se han barajado en distintas ofertas, tanto para invertir en la empresa de los 140 caracteres como para absorber la compañía. Este sería el caso de Facebook y de Google, que según el diario, en los últimos meses han mantenido negociaciones para quedarse con el famoso sistema de información en tiempo real.
Ninguna de las posibles compras ha cuajado pero los 10.000 millones de valoración han planteado un mar de suspicacias en cuanto las estimaciones de ingresos para 2010 de Twitter se cifraban en 45 millones de dólares, que pueden llegar a 150 millones en 2011, y hasta 250 millones al año siguiente, de acuerdo con eMarketer.
Los inversores parecen estar cegados por Twitter, que ha llegado a 200 millones de usuarios registrados en cuatro años de vida, y esos 45 millones de ingresos, los ha logrado en el primer ejercicio que ha empezado a explotar comercialmente su red.
Pero lo que es más llamativo, y quizás alarmante, es que el pasado mes de diciembre, Twitter se valoró en 3.700 millones de dólares cuando la firma de capital riesgo Kleiner Perkins Caufield Byers entró en el accionariado de la empresa .
¿Qué ha pasado en estos dos meses para que Twitter multiplique su valoración 2,7 veces? No ha anunciado ningún nuevo modelo de ingresos, ni un sistema de anuncios autogestionado, ni ha introducido una mejora tan destacable en su software…
Lo que ha pasado en este tiempo es que Goldman Sachs invirtió 1.500 millones en Facebook, lo que le ha dado fuelle financiero para pujar por posibles nuevas compras, pero sobre todo esta inversión le ha supuesto una valoración de 50.000 millones de dólares, cuando a mediados de 2009 sólo estaba valorada en 10.000 millones. Facebook multiplicó su valor, que no sus ingresos, por cinco en poco más de un año.
Sin duda, la apuesta de Goldman Sachs ha acelerado las inversiones en las empresas de Internet, y ese mayor interés, se traduce en valoraciones un tanto exageradas. Quienes así lo defienden señalan la compra de Huffington Post por parte de AOL, que ha pagado 310 millones de dólares por una web que ingresó 10 veces menos en 2010, o el caso de la empresa de descuentos Groupon que rechazó una oferta de 6.000 millones de dólares de Google por preferir salir a Bolsa este año, como LinkedIn que espera empezar a cotizar con una valoración de 2.000 millones.
Twitter sigue la estala de la nuevas empresas de Internet, que primero explotan todas sus capacidades al máximo para atraer usuarios y luego, sin prisas, buscan cómo rentabilizar su servicio. Así lo hizo Google, así lo está haciendo Facebook y esperemos que sea capaz de hacerlo Twitter, que ha empezado a tomar una dirección más convencional con reconocidos hombres de negocio al mando.
La publicidad en la plataforma está funcionando bien, y sigue atrayendo a grandes anunciantes. Los últimos datos de audiencias con la SuperBowl muestran ese potencial que tanto atrae a los inversores, pero parece que Twitter prefiere seguir su camino como una compañía independiente, y de momento, los 10.000 millones de dólares de valoración se quedan sólo en los papeles.
Twitter busca traductores al indonesio, ruso y turco
Twitter busca traductores. Los quiere voluntarios, y que estén dispuestos a trabajar de manera colaborativa. Para ellos ha creado un nuevo centro de traducción con el que la compañía quiere coordinar los trabajos de quienes estén dispuestos a ayudarles a adaptar su servicio a nuevos idiomas.
No es la primera vez que Twitter llega a otras lenguas gracias al trabajo desinteresado de sus usuarios. De hecho, desde 2009 ha estado impulsando la “traducción colaborativa” y gracias a ella su servicio ya está traducido a seis idiomas: francés, alemán, italiano, japonés, coreano y español, que ahora también se incluirán en el centro de traducción para seguir trabajando en las nuevas actualizaciones.
Twitter ha señalado que su prioridad actual es traducir su servicio al indonesio, ruso y turco, y un poco más adelante al portugués.
Este anuncio es un paso importante para Twitter para quien la expansión internacional es una de las prioridades para su negocio, que actualmente está demasiado centrado en Estados Unidos de donde proceden más del 50,8% de sus usuarios, y todas sus fuentes de ingresos.
Brasil es el segundo país con más usuarios de Twitter, seguido de Reino Unido y Canadá, según el estudio de los analistas Sysomos. Es curioso el caso de Indonesia, que aparece el sexto país de uso, de ahí el interés de Twitter por hacerse más local en esa tierra, e igualmente la ausencia de Rusia, que sin duda puede ser un mercado muy importante aún por explotar para Twitter dado sus planes de traducciones.
Las traducciones no son para los tuits de los usuarios sino para su página y aplicaciones. En concreto, el nuevo centro divide el trabajo en Twitter.com, mobile.twitter.com, Twitter para iPhone y iPad, Twitter para Android, Ayuda de Twitter, y el centro de negocios de Twitter.
Los traductores voluntarios no reciben ninguna compensación económica, pero Twitter reconoce su trabajo con una insignia en su cuenta que le identifica como uno de sus traductores oficiales y su nivel de implicación. Cuanto más se ha ayudado a traducir Twitter, más sube de nivel que va del cero al diez.
El nuevo centro de traducción permite a cualquier usuario de Twitter iniciar una sesión, elegir un idioma y empezar a traducir inmediatamente. Además, incopora nuevas funcionalidades con la creación de perfiles de los traductores que van a poder comentar frases e intercambiar opiniones.
Quienes estén interesados en colaborar con Twitter deben dirigirse an twitter.com/translate.
No es la primera vez que Twitter llega a otras lenguas gracias al trabajo desinteresado de sus usuarios. De hecho, desde 2009 ha estado impulsando la “traducción colaborativa” y gracias a ella su servicio ya está traducido a seis idiomas: francés, alemán, italiano, japonés, coreano y español, que ahora también se incluirán en el centro de traducción para seguir trabajando en las nuevas actualizaciones.
Twitter ha señalado que su prioridad actual es traducir su servicio al indonesio, ruso y turco, y un poco más adelante al portugués.
Este anuncio es un paso importante para Twitter para quien la expansión internacional es una de las prioridades para su negocio, que actualmente está demasiado centrado en Estados Unidos de donde proceden más del 50,8% de sus usuarios, y todas sus fuentes de ingresos.
Las traducciones no son para los tuits de los usuarios sino para su página y aplicaciones. En concreto, el nuevo centro divide el trabajo en Twitter.com, mobile.twitter.com, Twitter para iPhone y iPad, Twitter para Android, Ayuda de Twitter, y el centro de negocios de Twitter.
Los traductores voluntarios no reciben ninguna compensación económica, pero Twitter reconoce su trabajo con una insignia en su cuenta que le identifica como uno de sus traductores oficiales y su nivel de implicación. Cuanto más se ha ayudado a traducir Twitter, más sube de nivel que va del cero al diez.
El nuevo centro de traducción permite a cualquier usuario de Twitter iniciar una sesión, elegir un idioma y empezar a traducir inmediatamente. Además, incopora nuevas funcionalidades con la creación de perfiles de los traductores que van a poder comentar frases e intercambiar opiniones.
Quienes estén interesados en colaborar con Twitter deben dirigirse an twitter.com/translate.
Las diez principales amenazas a la seguridad informática en 2011
La firma Imperva, especializada en seguridad informática, ha presentando el informe "Claves para la seguridad en el 2011" en el que detalla sus predicciones sobre las áreas que más concentrarán la atención de los especialistas el año que viene.
"La proliferación de los teléfonos móviles les convierte en un nuevo medio del que obtener información fraudulenta", asegura Amichai Shulman, director de tecnología de Imperva.
La empresa no ha dudado en señalar a la telefonía movil como la nueva amenaza a la seguridad en las redes. "Además hay otro problema que es la perdida o robo de los dispositivos móviles, ya que estos cada vez transportan información más sensible".
"Los teléfonos móviles ya no son simples agendas", señala Shulam. Hay algunos teléfonos como el iPhone que pueden contener hasta 32 gb de datos, "Y pueden tener datos de una determinada empresa".
Redes Sociales.
El otro area principal de enfoque, de acuerdo con la compañía, son las redes sociales ya que estas contienen una gran cantidad de datos privados. La empresa señala que existe una "amenaza real" de que haya ataques dirigidos a los sitios webs con el fin de obtener datos personales de forma ilícita. Por tanto, Imperva ve necesario que las redes sociales aumentan sus esfuerzos por proteger a los usuarios que tengan un perfil creado.
Por último la compañía se aventura a analizar cómo cambiará el mundo de los hackers "de sombrero negro" (los que se entrometen en ordenadores con el fin de realizar actos delictivos). Imperva asegura que las organizaciones pequeñas de este tipo de hackers disminuirán su presencia o serán absorbidas por organizaciones criminales más grandes con la capacidad económica de seguir invirtiendo en tecnología para ejecutar sus planes.
Estas son las diez amenazas en las que se centra el informe de la compañía:
1) Los ataques cibernéticos entre países.
2) El robo de información en una compañía por parte de los empleados.
3) El Robo de información bancaria a través de los navegadores de internet.
4) La seguridad de las redes sociales ante un ataque para obtener información de los usuarios.
5) Robo de información de los servidores.
6) Los ataques a los teléfonos móviles
7) Seguridad bancaria en la red.
8) Las empresas de seguridad cada vez se centran en más áreas de negocio y pierden especialización.
9) Los hackers pasarán a estar encuadrados en organizaciones más numerosas y con grandes recursos económicos.
10) La privacidad en internet. En redes como Google Earth pueden salir imágenes de la gente.
"La proliferación de los teléfonos móviles les convierte en un nuevo medio del que obtener información fraudulenta", asegura Amichai Shulman, director de tecnología de Imperva.
La empresa no ha dudado en señalar a la telefonía movil como la nueva amenaza a la seguridad en las redes. "Además hay otro problema que es la perdida o robo de los dispositivos móviles, ya que estos cada vez transportan información más sensible".
"Los teléfonos móviles ya no son simples agendas", señala Shulam. Hay algunos teléfonos como el iPhone que pueden contener hasta 32 gb de datos, "Y pueden tener datos de una determinada empresa".
Redes Sociales.
El otro area principal de enfoque, de acuerdo con la compañía, son las redes sociales ya que estas contienen una gran cantidad de datos privados. La empresa señala que existe una "amenaza real" de que haya ataques dirigidos a los sitios webs con el fin de obtener datos personales de forma ilícita. Por tanto, Imperva ve necesario que las redes sociales aumentan sus esfuerzos por proteger a los usuarios que tengan un perfil creado.
Por último la compañía se aventura a analizar cómo cambiará el mundo de los hackers "de sombrero negro" (los que se entrometen en ordenadores con el fin de realizar actos delictivos). Imperva asegura que las organizaciones pequeñas de este tipo de hackers disminuirán su presencia o serán absorbidas por organizaciones criminales más grandes con la capacidad económica de seguir invirtiendo en tecnología para ejecutar sus planes.
Estas son las diez amenazas en las que se centra el informe de la compañía:
1) Los ataques cibernéticos entre países.
2) El robo de información en una compañía por parte de los empleados.
3) El Robo de información bancaria a través de los navegadores de internet.
4) La seguridad de las redes sociales ante un ataque para obtener información de los usuarios.
5) Robo de información de los servidores.
6) Los ataques a los teléfonos móviles
7) Seguridad bancaria en la red.
8) Las empresas de seguridad cada vez se centran en más áreas de negocio y pierden especialización.
9) Los hackers pasarán a estar encuadrados en organizaciones más numerosas y con grandes recursos económicos.
10) La privacidad en internet. En redes como Google Earth pueden salir imágenes de la gente.
Suscribirse a:
Entradas (Atom)