Entradas populares

viernes, 5 de diciembre de 2008

Virus Koobface le da la cara a Facebook


Si te uniste a Facebook con el fin de escaparte de los problemas amorosos en tu vida real, te tengo malas noticias: En la vida virtual, los virus también existen, y se propagan mucho más rápido.
W32.Koobface.A es el nombre técnico de la nueva variante de un trojano que pretende engañar e infectar a los 120 millones de usuarios de Facebook. Este virus no es nuevo, fue descubierto por Kaspersky en agosto pasado, y una de sus variantes ya se prostituyó por MySpace infectando a los amigos de Tom.
Como sucede con prácticamente todos los gusanos y virus, el factor social es el que permite que el Koobface tenga éxito:
El usuario recibe un correo privado de un supuesto amigo en Facebook con un mensaje cómo “Alguién subió en YouTube un video tuyo donde bailas desnudo”. Obviamente, como tu siempre haces estas cosas en tu tiempo libre, le das click al enlace para asegurarte que el video sí sea el del desnudo.
Al llegar a un sitio enmascarado, éste te dice “para ver este video, tienes que descargar la última versión de Flash aquí”. Obviamente, el botón “aquí” te llevará al “más allá” ya que apunta a un sitio donde descargará el código malulo flash_player.exe hacia tu computadora.
Para disimular más aún su fechoría, luego de haberse instalado en tu sistema, igual te muestra un video en YouTube. (Lamentablemente, no el que tu querías ver)
Lo que hace el virus es transformar tu computadora en un Zombie, uniéndote gratuitamente a la red social de spam más grande del mundo: StormNet.

miércoles, 3 de diciembre de 2008

Nokia y su Nuevo N97



Los pronósticos volvieron a dar en el blanco: un Nseries dotado de pantalla táctil. Siguiendo la estela del reciente 5800 XpressMusic, Nokia desveló ayer en Barcelona su nuevo N97, que combina un LCD de 3,5 pulgadas y un teclado QWERTY deslizante y se convierte en el nuevo buque insignia de la compañía escandinava. Además de alabar sus capacidades multimedia, Nokia asegura que el N97 cambiará la forma de comunicarse.
Isaac Hernàndez.- No será hasta el segundo trimestre de 2009 cuando el flamante N97 vea la luz en los escaparates. No se sabe tampoco si su plan de comercialización en España incluirá la exclusiva con una operadora -tal y como ha ocurrido con el 5800 XpressMusic y Telefónica- y desde la división española de la firma se entrecomillan los 550 euros del precio oficial. Habrá que tener en cuenta los impuestos propios de cada país, apuntan.




Aun así, el nuevo terminal estrella de Nokia -tildado desde antes de llegar a los escaparates como el "iPhone killer" de la compañía finlandesa- lució palmito ayer en Barcelona durante la edición 2008 de Nokia World

Un multitudinario evento internacional que este año ha contado con la presencia del presidente y el vicepresidente de la firma (Olli-Pekka Kallasvuo y Anssi Vanjoki) y que ha servido para desvelar el primer terminal táctil de la familia N de Nokia
Rodeado por los flashes de la prensa internacional, apenas media docena de modelos se dejaron ver -que no tocar- en la capital catalana. Y es que sólo un "mock-up" no operativo del N97 estuvo al alcance de los curiosos mientras el personal de la firma se encargaba de mostrar algunas herramientas ya funcionales de estos primeros modelos.
Bastante fino
Con un peso aproximado de 150 gramos, más significativa que la pantalla panorámica de 3,5 pulgadas es -sin duda- la presencia en el N97 de un teclado de tipo QWERTY deslizante.
Una solución que se aleja de las propuestas totalmente táctiles -el iPhone es el ejemplo más conocido, pero también el propio Nokia 5800 XpressMusic o la nueva Blackberry Storm- y opta por unas líneas que recuerdan al N810 de la propia firma.


Nada puede reemplazar el tacto de un teclado real, comentaba Vanjoki segundos antes de desvelar las prestaciones del N97. Sin embargo, la aparición de este teclado oculto inferior y la posibilidad de inclinar la pantalla ha despertado no pocas suspicacias entre la prensa especializada.
Seguro que es demasiado grueso, como el 5800 XpressMusic, comentaban algunos, mientras otros recordaban que esa propuesta de combinar una pantalla táctil con un teclado completo ya la había puesto sobre la mesa HTC hace bastante tiempo.
La buena noticia es que, con el terminal entre las manos (no operativo, desgraciadamente), su grosor de apenas 16 milímetros resulta bastante más comedido de lo que podría esperarse de un modelo de estas características Más complicado era compararlo in situ con el iPhone, porque los representantes de Nokia encargados de mostrar el terminal sencillamente se negaban ayer a posar con ambos teléfonos.

Aun así, puestos a buscar parecidos razonables y más allá de la lógica losa de "iPhone killer" que tendrá que soportar este N97, el Sony Ericsson XPERIA X1 quizás sea uno de sus competidores más directos.
Personalizable
Aunque la completa lista de especificaciones (3.5G HSDPA, pantalla panorámica de 640 x 360 píxeles, 32 GB de memoria interna, Wi-Fi, A-GPS, etcétera) sitúan al N97 en lo más alto del catálogo de la compañía, durante su lanzamiento se insistió más en los servicios asociados al nuevo terminal y en la idea de convertir la simple navegación en una experiencia "Internet móvil personal".
Nokia N97
Este concepto de personalización fue, de hecho, uno de los aspectos que más se destacaron durante las breves demostraciones que se realizaron a lo largo de todo el día con los terminales operativos.
La pantalla principal del N97 puede personalizarse con la información que desea el usuario: correo, previsión meteorológica, agenda, reproductor de música, redes sociales como Facebook… Todo ello en forma de widgets o pequeñas aplicaciones que pueden colocarse libremente en la posición deseada de la superficie del monitor.
Nokia N97
Basado en el mismo sistema operativo Symbian S60 5th Edition que también gobierna al 5800 XpressMusic, habrá que ver si la respuesta de este N97 es algo más ágil que la de su predecesor, el N96.
Nokia N97
De momento, durante las concisas demostraciones preliminares ofrecidas por Nokia, los terminales no parecían mostrar ningún problema en el acceso a las aplicaciones o en su respuesta a las instrucciones táctiles.
5 megapíxeles
La lista de novedades del terminal no llega acompañada, sin embargo, de cambios en lo que se refiere a la captación de imágenes fijas o vídeo.
De este modo, pese a las insistentes promesas de Vanjoki sobre la capacidad de este N97 para sustituir a las cámaras fotográficas y de vídeo digitales en muchas aplicaciones, el nuevo Nseries vuelve a echar mano de una cámara de 5 megapíxeles y un objetivo sin zoom con denominación Carl Zeiss Tessar.
Lo mismo ocurre con la grabación de vídeo, que se mantiene fiel a la "calidad DVD" que Nokia lleva prometiendo desde que lanzara el ya veterano N95.
Nokia N97
Pese a la nueva remesa de móviles de 8 megapíxeles de Sony Ericsson, LG y Samsung, el razonamiento de Nokia tampoco parece descabellado.
Si el N97 está orientado a la comunicación mediante redes sociales y el iPhone ha conseguido colarse entre los dispositivos más usados de Flickr con su más que modesta cámara, ¿para qué invertir mucho más en este campo?
Social
Dirigido a un público joven, Internet y los servicios asociados son la clave del nuevo terminal de Nokia. Correo para todos es el nuevo lema de la compañía a través de su servicio Messaging y la integración de los servicios de la plataforma Ovi a lo largo del próximo año, coincidiendo con la llegada de este N97.
También los mapas asumen una nueva labor de comunicación social en la nueva versión 3 de Nokia Maps. Además de defender la tecnología de NavTeQ -recientemente adquirida- frente a la omnipresente aplicación Google Maps e incorporar nuevos sistemas de rutas y vistas en 2D y 3D, desde la compañía finlandesa se hace hincapié en la "localización social".
Nokia N97
Gracias al A-GPS y a la brújula digital integrada, el N97 será capaz de actualizar el perfil de nuestros contactos con su posición en tiempo real. Evidentemente, sólo si el usuario y los contactos seleccionados así lo autorizan.
Muy interesante también la propuesta del futuro servicio Point and Find, que permite obtener información de un monumento o una película tan sólo realizando una foto del edificio o el cartel en cuestión

Anuncian disponibilidad de Windows Vista SP2 Beta

No ha pasado mucho tiempo desde que Windows Vista sacó su primer Service Pack, ahora ya está disponible la segunda versión de un Service Pack para Windows Vista, el cuál todavía esta en una versión Beta.

El cuál lo podremos descargar desde el blog de Microsoft, para los usuarios de Windows Vista y Windows Server 2008.

Se dice que este Service Pack, traiga una serie de mejoras y corrijas algunos errores que los pueden leer aqui

martes, 2 de diciembre de 2008

Pioneer prepara Blu-ray de 400 GB


Por si la capacidad actual de los discos Blu-ray se nos queda corta, Pioneer está preparando discos con la misma tecnología capaces de almacenar hasta 400 GB de contenido y lo ha presentado en un evento en Taipei.

En estos discos se ha mejorado el material de las capas reflectantes, de forma que se pueden usar muchas más que en un Blu-ray convencional. Con dieciséis capas de 25 GB cada una se obtienen esos 400 GB, con la ventaja adicional de que los discos son compatibles con los lectores actuales.

Al utilizar el mismo cabezal de lectura, solo sería necesaria una actualización de firmware para que los reproductores pudieran leer estos discos, que la compañía quiere tener en el mercado antes de 2010.

Posteriormente, entre 2010 y 2012, quieren ofrecer discos regrabables y, a partir de 2013, aumentar el número de capas para disponer de discos de hasta 1 TB. Habrá que ver a que nivel suben los precios estas nuevas capacidades y si muchos fabricantes lanzan actualizaciones de sus reproductores para soportarlos, pues en caso contrario no dejará de ser un nuevo formato incompatible

miércoles, 26 de noviembre de 2008

Las cinco innovaciones que cambiarán la vida diaria


IBM presentó su ya clásica lista Next Five in Five, los cinco adelantos que tienen el potencial de cambiar la forma en que la gente trabaja, vive y juega
De acuerdo a los especialistas de IBM, éstas son:
*La tecnología solar para el ahorro de energía será incorporada al asfalto, la pintura y las ventanas
*Usted tendrá la bola de cristal de su salud
*Le hablará a la web… y la web le responderá
*Tendrá sus propios asistentes de compras digitales
*Olvidarse quedará en el olvido

La lista se basa en las tecnologías emergentes concebidas en los Laboratorios IBM de todo el mundo que pueden hacer realidad estas innovaciones.

La tecnología solar para el ahorro de energía será incorporada al suelo, la pintura y las ventanas
¿Alguna vez se preguntó cuánta energía solar podría crearse si la tecnología solar estuviera integrada a las aceras, los caminos, los revestimientos, la pintura, los techos y las ventanas? En los próximos cinco años, la energía solar será una opción accesible para usted y sus vecinos. 

Hasta ahora, los materiales y el proceso de producir células solares para generar energía solar han sido demasiados costosos para su adopción masiva. Pero eso está cambiando con la creación de las células fotovoltaicas de “película fina”, un nuevo tipo de célula solar eficiente en función de costos que puede ser hasta 100 veces más delgada que las células de obleas de silicio y producirse a menor costo. 

Estas nuevas células de película fina pueden ser “impresas” y dispuestas sobre superficies flexibles, adecuadas no sólo para los techos sino también para los laterales de los edificios, ventanas polarizadas, teléfonos celulares, computadoras portátiles, automóviles e incluso la ropa.

Usted tendrá la bola de cristal de su salud
¿Qué sucedería si pudiera prever el destino de su salud y usar ese conocimiento para modificar su estilo de vida? Aunque le digan que las papas fritas, el queso y el vino no son buenos para la salud, ¿qué sucedería si descubriera específicamente que usted es alguien que puede consumir más de esos vicios sin tener un impacto negativo en su salud?

En los próximos cinco años, su médico podrá darle un mapa genético que le dirá qué riesgos de salud es probable que enfrente en su vida y cuáles son las medidas específicas que puede tomar para prevenirlos, en base a su ADN específico, todo por menos de u$s200.

Desde que los científicos descubrieron cómo descifrar el genoma humano completo, el descubrimiento abrió nuevas puertas para ayudar a develar los secretos encerrados en nuestros genes y predecir rasgos y estados de salud a los que podemos tener predisposición. 

Los médicos podrán usar esta información para recomendar cambios en el estilo de vida y tratamientos. Los laboratorios farmacéuticos también podrán diseñar medicamentos nuevos y más eficaces, enfocados a cada uno de nosotros como pacientes individuales. El trazado genético transformará radicalmente la atención de la salud durante los próximos cinco años y le permitirá cuidarse mejor. 

Usted le hablará a la web... ¡y la web le responderá!
La “relación” con la web cambiará sustancialmente en los próximos cinco años. En el futuro, podrá navegar en internet con manos libres, usando su voz y eliminando la necesidad de pantallas y teclados. La nueva tecnología cambiará la forma en que las personas crean, construyen e interactúan con la información y los sitios web de e-commerce, utilizando el habla en lugar de texto. 

Sabemos que esto puede suceder porque la tecnología está disponible, pero también sabemos que puede suceder porque debe suceder. En lugares como la India, donde la palabra hablada es más prominente que la escrita en educación, gobierno y cultura, “hablarle” a la Web rápidamente supera a las demás interfaces, y el teléfono móvil está dejando atrás a la PC. 

En el futuro, con el uso de “VoiceSites,” los que no tienen acceso a una computadora personal y a la Internet, o no pueden leer o escribir, podrán aprovechar todos los beneficios y la comodidad que ofrece la Web. Y a medida que la Web se vuelva más accesible con el uso de la voz, será más fácil de usar para todos. Imaginemos estar a una llamada telefónica de la capacidad de publicar, escanear y responder a e-mails y mensajes instantáneos, sin escribir. Podremos movernos en la web verbalmente para encontrar lo que buscamos y que la información nos sea leída, como si mantuviéramos una conversación con la web. 

Tendrá sus propios asistentes de compras digitales
¿Alguna vez se encontró en un probador con todos los talles incorrectos y ningún asistente de ventas a la vista? ¿Y qué hay de la opinión de los amigos de que ese conjunto que ha elegido no le queda bien? En los próximos cinco años, los compradores dependerán cada vez más de sí mismos –y de las opiniones de los otros compradores- para tomar decisiones en lugar de esperar ser asistidos por los vendedores de la tienda. 

Una combinación de nueva tecnología y la próxima ola de dispositivos móviles darán un notable impulso a la experiencia de compra en la tienda. Los almacenes pronto vendrán equipados con asistentes de compra digitales, kioscos con pantallas táctiles y activación por voz que le permitirán elegir prendas y accesorios para combinar o reemplazar lo que ya ha seleccionado. Una vez realizadas sus elecciones, se notificará a un vendedor, quien reunirá los artículos seleccionados y se los acercará al probador. 

También podrá sacarse fotos con distintas combinaciones y mandarlas por e-mail o SMS a sus amigos y familiares para que le den el visto bueno… o malo. Los compradores pueden acceder a calificaciones y críticas de productos de otros consumidores e incluso podrán bajar cupones de ahorro y utilizarlos instantáneamente en sus compras. 

Olvidarse quedará en el olvido
¿La sobrecarga de información lo desvela de noche? Olvídela. En los próximos cinco años será mucho más fácil recordar qué comprar en el almacén, qué mandados hay que hacer, con quién habló en una conferencia, dónde y cuándo quedó en reunirse con un amigo o qué producto vió anunciado en el aeropuerto.

Los detalles de la vida cotidiana serán grabados, almacenados, analizados y entregados en el momento y lugar correcto, gracias a dispositivos inteligentes, tanto portátiles como fijos. Para que esto sea viable, micrófonos y videocámaras grabarán conversaciones y actividades. 

La información recopilada será automáticamente almacenada y analizada en una computadora personal, que luego se encargará de “recordar” al usuario qué conversaciones tuvo, por ejemplo, con su hija o su médico, por teléfono. 

En base a estas conversaciones, los teléfonos inteligentes, equipados con tecnología de posicionamiento global, también podrán recordarles ir a buscar los artículos comprados o los medicamentos recetados si pasan por una tienda en particular en un momento en particular. No cuesta imaginar que los televisores, controles remotos o incluso las superficies de las mesas de café alguna vez sean medios familiares que nos permitan explotar nuestra información almacenada digitalmente.

El sitio de guías prácticas

Si Wikipedia responde al "qué" de las cosas, la Practicopedia quiere resolver el "cómo". Uno de sus atractivos es que permite ganar dinero a creadores de notas
Practicopedia es un directorio con información práctica sobre cuestiones de la vida cotidiana, que acaba de nacer en internet con el objetivo de facilitar la vida de los usuarios y responder de forma eficaz y sencilla a las preguntas que consultamos cada vez con mayor frecuencia en los buscadores de la red.

Cada uno de los trucos/consejos publicados en la Practicopedia se denomina Practicograma, y fundamentalmente serán videos de corta duración, aunque también se incluyen formatos de “texto paso a paso”, gráficos y guías de navegación.

Los Practicogramas están agrupados por categorías y cubren una gran espectro: Comida & Bebida, Deportes, Educación, Electrónica, Fiestas, Finanzas personales, Hogar & Jardín, Idiomas, Internet & Computadoras, Juegos y hobbies, Legal, Mascotas, Medio Ambiente, Mente y cuerpo, Moda y belleza, Motor, Música & Baile, Paternidad, Relaciones, Salud, Trabajo, Viajes.

El sitio ya cuenta con alrededor de 4.000 videos prácticos y 2.000 textos.

Los creadores de Practicogramas, Dixired, lograron el apoyo de distintas empresas e instituciones para subir información relacionada con ellos.

Por ejemplo, cuentan con videos sobre mantenimiento de autos realizados por una compañía llamada Talleres Euromaster.

Pero los usuarios también tienen su modo de participar y ganar dinero. El portal reserva en cada Practicograma un espacio dedicado a publicidad contextual, cuyos ingresos serán para el autor. 

La forma de participar en ese esquema es muy sencilla: el autor del Practicograma sólo tendrá que darse de alta en Google Adsense y será Google quien gestione la publicidad y le ingrese en su cuenta los beneficios que puedan obtenerse de cada click que hagan los usuarios.
http://www.practicopedia.com/

El sitio de guías prácticas


Si Wikipedia responde al "qué" de las cosas, la Practicopedia quiere resolver el "cómo". Uno de sus atractivos es que permite ganar dinero a creadores de notas
Practicopedia es un directorio con información práctica sobre cuestiones de la vida cotidiana, que acaba de nacer en internet con el objetivo de facilitar la vida de los usuarios y responder de forma eficaz y sencilla a las preguntas que consultamos cada vez con mayor frecuencia en los buscadores de la red.

Cada uno de los trucos/consejos publicados en la Practicopedia se denomina Practicograma, y fundamentalmente serán videos de corta duración, aunque también se incluyen formatos de “texto paso a paso”, gráficos y guías de navegación.

Los Practicogramas están agrupados por categorías y cubren una gran espectro: Comida & Bebida, Deportes, Educación, Electrónica, Fiestas, Finanzas personales, Hogar & Jardín, Idiomas, Internet & Computadoras, Juegos y hobbies, Legal, Mascotas, Medio Ambiente, Mente y cuerpo, Moda y belleza, Motor, Música & Baile, Paternidad, Relaciones, Salud, Trabajo, Viajes.

El sitio ya cuenta con alrededor de 4.000 videos prácticos y 2.000 textos.

Los creadores de Practicogramas, Dixired, lograron el apoyo de distintas empresas e instituciones para subir información relacionada con ellos.

Por ejemplo, cuentan con videos sobre mantenimiento de autos realizados por una compañía llamada Talleres Euromaster.

Pero los usuarios también tienen su modo de participar y ganar dinero. El portal reserva en cada Practicograma un espacio dedicado a publicidad contextual, cuyos ingresos serán para el autor. 

La forma de participar en ese esquema es muy sencilla: el autor del Practicograma sólo tendrá que darse de alta en Google Adsense y será Google quien gestione la publicidad y le ingrese en su cuenta los beneficios que puedan obtenerse de cada click que hagan los usuarios.
http://www.practicopedia.com/

Apple presentará la iMac multi-táctil en Enero de 2009

Dicen™ que Apple está trabajando en el proyecto de una multi-táctil que presentará en la MacWorld de 2009. A pesar de que Apple ha sido bastante clara asegurando que esta característica no estará disponible a corto plazo, se tienen reportes que LG, el fabricante de pantallas iMac, está adoptando medidas para producir masivamente estos componentes.

Cabe aclarar que LG fabrica LCDs para otras compañías y también bajo su propia marca. No podemos olvidar que Windows 7 será lanzado a finales de 2009 y estas pantallas podrían perfectamente ser LCDs para acompañar portatiles “Windows 7″.

Apple aparentemente continuaría con el éxito comercial de la tecnología multi-táctil de el iPhone a toda su línea de escritorio, pero esto no paso y en el juego HP le dio un duro golpe con la TouchSmart todo-en-uno y recientemente con la portátil TouchSmart TX2.

De igual manera, aún es incierto el soporte que brindaría Snow Leopard (que se espera para Marzo de 2009), pero es muy posible que en la Expo MacWorld 2009 de Enero se presente una iMac multi-táctil.

lunes, 24 de noviembre de 2008

Windows Vista presenta una vulnerabilidad en su Kernel

Se ha revelado una vulnerabilidad que afecta al Sistema Operativo Windows Vista, por medio de la cual se produce un desbordamiento de buffer que provoca el colapso del sistema o incluso, se puede aprovechar para introducir un código malicioso comprometiendo la seguridad del equipo.

La vulnerabilidad fue descubierta por la compañía de seguridad Phion y se encuentra en el núcleo de Vista, comprobándose que se encuentra presente en las versiones Ultimate y Entrerprise. Aunque los investigadores señalan que es altamente probable que afecte a la totalidad de las versiones de 32 y 64 bits.

En detalle la vulnerabilidad se ubica en el sistema de red, cuando son enviadas solicitudes a la API iphlpapi.dll y puede hacer que la computadora se apague o provocar que esta pierda su conectividad a la red.

Si bien para poder hacer uso de esta vulnerabilidad se necesitan permisos de administrador, se podrían utilizar paquetes DHCP sin permisos de administrador para aprovecharla.

Por el momento no se tiene información sobre si la vulnerabilidad se ha utilizado en algún tipo de ataque y se espera que sea corregida en el SP 2 de Windows Vista.

viernes, 21 de noviembre de 2008

La utilización de redes sociales beneficiaría el desarrollo de los jóvenes

Una investigación concluyó que el uso de Facebook y MySpace (HI5.COM PARA LATINO-AMERICA) no tiene efectos negativos en los adolescentes. De hecho, facilita la interacción entre pares y la adquisición de habilidades tecnológicas
Un estudio realizado en los Estados Unidos aseguró que las redes sociales a través de la web no perjudican a chicos y adolescentes. Al contrario, la utilización de estos espacios ayuda a los chicos a interactuar con pares, a adquirir habilidades tecnológicas y a poseer armas para tener éxito en el mundo profesional.

Si bien es lógico que exista una preocupación por la gran cantidad de tiempo que los jóvenes pasan delante de una computadora o enviando mensajes de texto a través del celular, los especialistas de la Fundación MacArthur de Nueva York aseguran que no hay por qué temer. De hecho, los jóvenes recibirían una gran ayuda para su futura vida adulta, utilizando redes sociales como Facebook o MySpace.

El estudio de la fundación norteamericana, que fue dado a conocer hoy por el diario Clarín, fue desarrollado durante los últimos tres años. Si bien describe cómo afecta el uso de las redes sociales, no mide cuáles son sus efectos a largo plazo. 

Por otro lado, la investigación reveló un dato preocupante: un porcentaje importante de los 800 jóvenes entrevistados aseguró respetar más a sus pares que están conectados en las redes que a los adultos. Por otro lado, también destacó que ellos tienen sus propios límites con respecto a la utilización de internet.

Evita que usuarios sin privilegios copien datos a unidades de almacenamiento externo


Uno de los grandes peligros para muchas empresas en lo que se refiere a la seguridad de la información viene de la mano de los actuales discos y memorias USB, que se han popularizado hasta el punto de que es extraño el usuario que no tiene una 

En mi empresa, estuvimos analizando el problema y localizamos una vía bastante simple para evitar que determinados usuarios pudieran sacar datos desde sus ordenadores a través de uno de estos dispositivos. 

Para ello, tendremos que acudir al Registro de Windows (Inicio/Ejecutar/regedit) y buscar la clave HKEY_LOCAL_MACHINE\SYSTEM\CurrentControlSet\Control\Storage-DevicePolicies. Una vez situados en esta categoría, a la derecha, sólo tendremos que crear una entrada tipo DWORD, a la que llamaremos WriteProtect. 

Como valor de esta entrada, introduciremos 1 para bloquear la escritura en discos externos USB (o 0, si más tarde queremos volver a activarla). A partir de este momento, no será necesario ni siquiera reiniciar la máquina. El usuario que intente grabar cualquier fichero o contenido en su dispositivo de almacenamiento USB recibirá un mensaje de error, por lo que le será imposible llevarse información confidencial. 

AMD presenta Puma, la gran promesa


Con una cuota de mercado mundial del 13% a finales del 2007 en portátiles, y pese a ser el segmento que más ha crecido en los últimos años, al rival de Intel todavía se le resiste y sus familias de procesadores no terminan de triunfar

Por ello, se esperaba desde hace largo tiempo a Puma, una plataforma que prometía mucho. Y no tanto por incorporar un procesador totalmente revolucionario, sino por unificar en una misma solución comunicación inalámbrica de calidad, una CPU dotada de buenas prestaciones y, sobre todo, un sistema gráfico de alto rendimiento en 3D. 

Hasta la fecha, los motores gráficos integrados en los chipsets de portátil, fundamentalmente los de Intel, ofrecían un rendimiento pobre o nulo fuera del uso ofimático o la navegación por Internet. Por ello, los fabricantes de portátiles que quisieran crear una máquina potente en este aspecto, debían de recurrir a GPUs dedicadas que elevaban el coste, el tamaño, el peso y, fundamentalmente, el consumo global del portátil.

Grandes mejoras en el procesador

El alma de los portátiles con la nueva plataforma de AMD será el procesador Turion 64 X2 Ultra, fabricado con tecnología de 65 nanómetros, doble núcleo y 2 Mbyte de cache L2. Estos micros están basados en la arquitectura K8 o Griffin de AMD, dotada de dos núcleos y ya vieja conocida en microprocesadores como los Athlon X2 Dual-Core o el anterior Turion 64 X2. 

Sin embargo, el nuevo procesador ha recibido mejoras profundas. La más importante sin duda es la incorporación de tres planos de voltaje independientes. Los dos primeros gestionan la energía suministrada a cada uno de los núcleos del procesador, mientras que el tercero se encarga de gestionar el controlador de memoria y del nuevo bus HyperTransport 3.0 para comunicar el procesador con el resto de la placa base. 

Así, es posible regular de forma extremadamente precisa la energía: si no se requiere la máxima potencia, por ejemplo, se puede desconectar un núcleo y reducir a la mitad el controlador de memoria. Igualmente, en caso de inactividad total, incluso se puede forzar la desconexión con el bus HyperTransport 3.0 para reducir el consumo al mínimo. 

Respecto a las prestaciones, las velocidades iniciales de reloj se fijan en 2,1 (ZM-80), 2,2 (ZM-82) y 2,4 GHz (ZM-86). Los consumos, por su parte son de 32, 35 y 35 vatios, cifras similares a las de los procesadores de Intel en sus modelos más rápidos.

¡Dos gráficas en un portátil!

Ahora bien, el punto de inflexión de Puma reside en la integración del chipset AMD 780G, que cuenta en su interior con una GPU ATI Radeon HD 3200. A pesar de ser un chip gráfico de nivel de entrada en el mundo de los ordenadores de sobremesa, en el ámbito de los portátiles representa un salto impresionante: entre tres y cuatro veces más rápido que los clásicos motores gráficos integrados por Intel durante los últimos años, como el GMAX3100 integrado en los Centrino antes que Montevina, y con soporte para DirectX10 como el resto de la gama actual de ATI.

Pero las novedades en el ámbito de los gráficos no terminan aquí. Así, contamos con la tecnología ATI Hybrid CrossFireX, que permite a los fabricantes añadir un chip gráfico ATI Radeon dedicado para, sumado a la potencia del integrado, elevar así las prestaciones del integrado dentro del chipset 780G. 

Más concretamente, podremos encontrar GPUs como las ATI Radeon HD 3470, 3670 y 3870, cada una multiplicando por dos las prestaciones del inmediatamente anterior. Lo bueno es que esta tecnología, salvo que decidamos lo contrario, se desactivará automáticamente al funcionar sólo con la batería, ayudando, de esta manera, a preservar la autonomía el máximo tiempo posible.

Por último, también se ha desarrollado una innovadora solución a la que aún no hemos podido poner la mano encima: ATI XPG (External Graphics Solution). Básicamente, consiste en instalar un sistema gráfico externo en nuestro portátil que, cuando estemos conectados a la corriente en casa, nos brinde las máximas prestaciones en 3D. 

Por los primeros comentarios de la gente de la propia AMD, será una solución ideal para equipos ultraportátiles, donde contar con un chip dedicado con ATI Hybrid CrossFireX dentro del propio equipo resulta complejo por las reducidas dimensiones de estas máquinas. 

El apartado inalámbrico

Éste es el punto donde AMD deja libertad casi total a los fabricantes de equipos. Así, ha llegado acuerdos con empresas como Atheros, Broadcom, Marvell o Ralink, entre otros, para certificar sus chips inalámbricos en su solución. De esta forma, cada fabricante puede elegir el chip WiFi o WiMax que más se adapte a sus gustos, preferencias o necesidades.

Esta visión es justo la opuesta al Centrino de Intel, donde los chips inalámbricos que se integran son de la propia Intel. Los defensores de la solución de Intel argumentan que la validación de la plataforma es más fácil y segura, al tiempo que es más sencilla la distribución de controladores y soporte del sistema operativo. 

AMD, por su parte, deja claro que, gracias a su planteamiento, deja libertad total al fabricante para optar por el mejor chip para sus equipos y al cliente la libertad de elegir un modelo con uno u otro tipo de chip. A la hora de la verdad, pocos compradores se fijarán en la marca del chip inalámbrico y sus especificaciones, sin embargo, ahí esta la opción.

Resultados de las pruebas en laboratorio

Para nuestras pruebas, logramos hacernos con dos máquinas de diferente orientación y fabricante. Por una parte, conseguimos un Acer Aspire 5530, un equipo que en el momento de escribir estas líneas aún no tenía 100% cerrada su configuración en el mercado (probablemente integre 4 Gbytes de RAM, y quizá un modelo de procesador diferente), y un Asus M51T que en España aún no ha comenzado su comercialización.

En cualquier caso, ambas máquinas montaban idéntico procesador, el Turion 64 X2 Ultra ZM-82 a 2,2 GHz, un modelo que se sitúa en el medio de la gama y que es una de los más equilibrados por precio y prestaciones. En ambos, también encontramos el chipset 780G con su motor gráfico integrado, así como un chip gráfico dedicado integrado gracias a la tecnología ATI Hybrid CrossFireX, sobre la que ya hemos hablado.

Como podréis ver en la tabla de características (ver PDF adjunto), en el Acer se ha optado por una ATI Radeon HD 3470, mientras que el Asus cuenta con una Radeon HD 3650, en los dos casos dotados de la misma cantidad de memoria de vídeo, y con la tecnología HyperMemory, gracias a la cual la gráfica puede «robar» parte de la RAM del sistema en caso necesario para desempeñar sus tareas. 

Como nota curiosa diremos que ambas máquinas integraban la unidad Blu-Ray, todo un detalle para poder aprovechar esta plataforma reproduciendo películas de alta definición, uno de los puntos fuertes en los que insiste AMD.

Cifras sorprendentes

Bien, como podéis ver en las gráficas adjuntas, hemos comparado las dos primeras máquinas en llegar a nuestras manos con Puma, con dos equipos analizados en el pasado (Packard Belll y MSI) y gobernados por procesadores Turion 64 X2 de velocidades de reloj muy cercanas.

Lo que se observa, sin duda, es que la nueva plataforma supone un avance en prestaciones respecto a los equipos hasta ahora disponibles. Máxime si tenemos en cuenta que, a diferencia del modelo de Packard Bell, el MSI ya contaba con un motor gráfico dedicado de prestaciones bastante destacadas para tratarse de un portátil.

En las pruebas de PCMark Vantage podemos observar cómo los nuevos Puma obtienen resultados globalmente más altos que sus predecesores, prinicpalmente el Asus, gracias a su gráfica más potente.

Ahora bien, quizá lo más llamativo sean las cifras de 3DMark 06, donde podéis ver los resultados de cada máquina centrándonos exclusivamente en el apartado gráfico. Debido a que ambos contaban con el sistema Hybrid CrossFireX, hemos procedido a pasar las pruebas con y sin conexión a la corriente, de manera que hemos obtenido los resultados de sumar los dos motores gráficos o de sólo usar el integrado en el chipset, y aquí vienen las sorpresas. 

Lo primero que vemos es que un equipo como el Asus, con un precio objetivo por debajo de los 1.000 euros, ofrece unos resultados gráficos sorprendentes que, hoy por hoy, muchos equipos de sobremesa no son capaces de entregar. De hecho, repasando nuestra base de datos, comprobamos que son las cifras más altas que nunca hemos logrado en un portátil en el apartado gráfico, lo que nos da una idea de a qué nos enfrentamos: potencia suficiente para jugar a los últimos títulos, y potencia gráfica suficiente para las aplicaciones más exigentes en este aspecto.

Lo que sí observamos es una bajada drástica de las prestaciones al desconectar la corriente, algo lógico. Aun así, el motor gráfico ATI Radeon HD 3200 integrado en el chipset 780G ofrece resultados que triplican los obtenidos por los motores integrados de Intel, e incluso se igualan o superan a los chips gráficos de empresas como Nvidia que hemos visto hasta la fecha integrados en los portátiles.

Ahorro de energía y disipación

Y todo ello a cambio de reducir el consumo energético. En el caso concreto del Asus, además de contar con una versión de los controladores de ATI capaz de conmutar manualmente entre el motor gráfico integrado o la combinación de ambos, pudimos medir su autonomía con el Battery Eater Pro: nada menos que 104 minutos, una cifra destacada para esta prueba que es realmente exigente con el equipo, y que dilapida la energía al desactivar cualquier ahorro de energía y someter a las CPU y GPU a un trabajo permanente hasta el agotamiento de la carga.

Respecto a la disipación de calor, tenemos opiniones encontradas. Siempre teniendo en cuenta que existen grandes diferencias de unos fabricantes a otros por el diseño elegido por cada uno, hemos observado un calentamiento medio inferior, pero, en zonas concretas, realmente elevado. 

El hecho de integrar y exprimir dos motores gráficos, situados muy cerca del procesador, hace que en el Asus llegásemos a medir 48ºC en un mismo punto de su parte inferior, cifra que en el Acer alcanzó los 51ºC. Como siempre, estas medidas fueron tomadas tras dos horas de trabajo intensivo, por lo que en la práctica probablemente no llegarán a tanto. Aun así, ahí están, y se encuentran en línea con las que hemos podido medir en el pasado en otros equipos con AMD o Intel dotados de gráficos dedicados.

Panasonic lanza pantalla de plasma con soporte para IPTV


Parece que Panasonic está entendiendo hacia donde nos movemos con la tecnología. Lejos de empujar a la gente que solo dependan de las señales tradicionales para ver televisión, deciden hacer de su modelo de Plasma TH-50PZ850, compatible con IPTV o televisión por protocolo de internet por medio de la función Viera Link, por lo que servicios como YouTube se podrán disfrutar en sus 50″.


Además este modelo soporta resoluciones 1080p FullHD y tiene un rango de contraste dinámico de 1.000.000:1. Su vida útil, según sus fabricantes, es de 100.000 horas. En cuanto a conectividad tienen cuatro puertos HDMI, una entrada VGA y ranura para tarjetas SD.

El diseño destaca por tener un cristal de una sola pieza al frente, por lo que la pantalla y los bordes se unen con una armonía pocas veces vista en un televisor.

Siguiendo la tendencia de hacer productos verdes, estas pantallas de Panasonic son producidas libres de plomo y se ha optimizado el consumo de energía, además de que la pantalla de cristal y el metal del arco inferior son reciclables.

El precio de la TH-50PZ850 es de USD$2.721,60 y ya está disponible en Latinoamérica.

miércoles, 19 de noviembre de 2008

¿Puede su computadora usar el Windows 7?

Circula por la web una aplicación no oficial que analiza los componentes de las computadoras para determinar si éstas son compatibles con el nuevo sistema
InfoWorld puso a disposición de los internautas una práctica herramienta que analiza a fondo los componentes de una computadora y finalmente le dice al usuario si su sistema es capaz de utilizar el Windows 7.

El sucesor del Windows Vista -considerado por muchos como una gran actualización- estará disponible recién a fines del próximo año. Esta herramienta analiza los requerimientos de la pre-beta del Windows 7.

Se espera que los usuarios con una computadora capaz de hacer correr el Windows Vista sin problemas de velocidad también puedan utilizar el próximo sistema operativo.

El programa se llama Windows Sentinel y puede ser descargado gratuitamente desde el sitio de InfoWorld, aunque es necesario registrarse antes de poder utilizarlo.

Una vez superado ese paso es necesario descargarse e instalar el DMS Clarity Tracker Agent de la página de Windows Sentinel en InfoWorld. El programa comienza a recopilar una serie de datos –puede tardar unas horas- mientras se usa normalmente la computadora.

Terminado ese paso, se debe descargar el widget para saber si la computadora supera la prueba.

La idea de InfoWorld es contar con un indicador independiente del fabricante. Para el lanzamiento del Windows Vista, Microsoft puso a disposición de los usuarios una herramienta que medía el rendimiento de las computadoras y determinaba si el equipo era capaz o no de utilizar el sistema operativo.

A pesar de que los equipos pasaban la prueba, las pocas ventas y la gran cantidad de usuarios que hicieron un downgrade a Windows XP demostraron que el Vista no era la mejor opción para la mayoría de las computadoras.

La crisis llegó a Wikipedia


El creador de la enciclopedia online, Jimmy Wales, pide "por favor" a los usuarios que donen dinero para "sostener los proyectos de Wikimedia". Recaudó más de u$s2 M de los 6 que puso como "meta"

La enciclopedia interactiva online Wikipedia parece haber comenzado a sentir los efectos de la crisis financiera internacional y su creador, Jimmy Wales, no dudó en poner un aviso en la página para pedir solidaridad a sus usuarios para "sostener los proyectos de Wikimedia" 

"Imagina un mundo donde cada persona del planeta tiene acceso libre a la suma de todo el conocimiento humano", dice el título de la portada donde Wales llama a los lectores y articulistas de la enciclopedia a donar dinero o equipos de informática. 

Wikipedia fue definida por su fundador como una enciclopedia "libre y políglota" basada en la colaboración de sus contribuyentes por medio de la tecnología Wiki, lo cual permite que cualquier persona con acceso a internet pueda modificar la gran mayoría de los 417 mil artículos sólo en español y millones en otros nueve idiomas.  

"La fundación de Wikimedia agradece cada donación hecha al proyecto, sea tiempo, dinero o hardware", sostiene el mensaje que dejó Wales en la página que dispone donaciones por tarjeta de crédito, vía email o deposito en una cuenta bancaria, entre otras. 

Si bien Wikipedia recibe donaciones desde diciembre de 2006, tras la crisis financiera mundial su propietario decidió colocar un link en rojo que reza "Dona ahora" e informa que lleva recaudado u$s2.790.011 de los u$s6 millones que se han colocado como "meta". 

Esos fondos, según Wales, serán utilizados para "la ayuda con los costes de Wikipedia, en el reconocimiento de su logro notable en difundir conocimiento y facilitar el acceso a él sobre una base mundial”

Google lanza su aplicación para búsquedas por voz desde móviles


La herramienta de Google permite ejecutar acciones de búsqueda sólo con la voz, registrando además la geolocalización del usuario para búsquedas más ajustadas.

Google ha lanzado finalmente su aplicación mejorada para búsquedas en internet desde el móvil, con la particularidad de que integra reconocimiento de voz, lo que permite al usuario no tener que teclear la búsqueda, sino solamente activar el buscador y hablar.

Es posible descargarse esta herramienta para prácticamente todos los modelos de terminales del mercado, el T-Mobile G1 (por supuesto), iPhone, BlackBerry, Motorola, Samsung, Sony Ericsson, algunos modelos de Nokia y los smartphones que funcionan con Windows Mobile y Symbian S60.

Google ha adaptado su buscador para aprovechar al máximo las características de cada teléfono. Por ejemplo, en los terminales con acelerómetro, una vez expresada en voz alta la búsqueda, sólo con bajar el móvil, Google comienza indizar el resultado.

La nueva función permite también ubicar la localización del usuario, para hacer búsquedas más concretas sobre el parte meteorológico, tiendas, restaurantes, museos cercanos y cartelera del cine de la ciudad, entre otras cosas.

Entre los resultados mostrados en las búsquedas, Google ofrece también la información de los contactos, por lo que es posible acceder a un contacto de la agenda directamente desde el buscador.

Puede ver un vídeo de Google mostrando el funcionamiento de esta nueva aplicación en un iPhone:

Microsoft planea ofrecer seguridad gratuita al usuario


Llamado en clave Morro, la nueva oferta estará disponible en la segunda mitad de 2009 y protegerá al usuario frente a virus, spyware, rootkits y troyanos.

La llegada de Morro llevará a Microsoft a dejar de vender el servicio Windows Live OneCare, a pesar de que ambos servicios no son iguales. A Morro, que protegerá al usuario frente a virus, spyware, rootkits y troyanos le faltan algunos servicios de OneCare, si bien no relacionados con la seguridad, como compartir impresoras. Por otro lado, una de las principales diferencias es que Morro utiliza menos recursos que la oferta basada en suscripción, lo que le convierte en una suite ideal para sistemas con menos ancho de banda y ordenadores menos potentes.

Microsoft ha decidido cambiar a aun producto gratuito porque todavía hay demasiados ordenadores que no tienen software antivirus. En su comunicado Microsoft afirma que al no estar preocupados por el malware “el número de personas que no tienen antivirus o no lo mantienen actualizado supera el 50 por ciento en los mercados desarrolladores y es peor en los mercados emergentes”.

La compañía también ha anunciado que dejarán de vender OneCare “porque protegerán a más consumidores con la solución gratuita”. Por otra parte ha afirmado que los que quieran más características que las que ofrezca Morro tendrán a su disposición alternativas de terceros.

Microsoft ha estado vendiendo Windows Live OneCare por 49,95 dólares anuales, con lo que se cubrían tres ordenadores y se ofrecía una copia de seguridad centralizada y características de optimización, además de las capacidades de seguridad.

Windows Live OneCare se continuará vendiendo para Windows XP y Vista hasta junio de 2009. Morro, que estará disponible para su descarga a través de Internet, funcionará con Windows XP, Windows Vista y el próximo Windows 7.

Intel Centrino 2 vs AMD Puma


AMD lucha por ganar cierta cuota de mercado en portátiles e Intel pretende mantener o superar su liderazgo en un segmento donde Centrino es el rey

Vivimos en un momento convulso en lo económico y político, y desde luego no menos agitado en el ámbito tecnológico. Los PCs de sobremesa tocan definitivamente a su fin y los portátiles se afianzan como la solución preferida por millones de consumidores por precio, tamaño y prestaciones.

Además, en los últimos meses esta tendencia se ha visto reforzada por la llegada de los netbooks o miniportátiles (Asus EeePC, MSI Wind, Acer Aspire one, etc.) y los MID (Mobile Internet Devices), moderna visión de los defenestrados UMPC que por precio y tecnología terminaron quedándose por el camino.

Estos pequeños compañeros de potencia y prestaciones más limitadas, serán los preferidos por muchos usuarios profesionales y residenciales para acceder a Internet, llevar consigo documentos a cualquier parte, gestionar el correo electrónico o irse de vacaciones/fin de semana. Es decir, las tareas que hasta la fecha han venido desempeñando los portátiles.

Esta tendencia es inevitable y mientras los fabricantes están desarrollando procesadores como el Intel Atom para estos nuevos, pequeños y baratos productos, también están trabajando para que los portátiles tradicionales sigan acortando sus distancias respecto a los sobremesas, fundamentalmente en el aspecto gráfico y de potencia de proceso, donde las diferencias aún son notables.

De esta forma el futuro más cercano se presenta bastante claro para los grandes actores del mercado. Intel, por ejemplo, tiene clara la presencia de tres claros segmentos: el de portátiles (multimedia, profesionales o ultraportátiles) para el que busca potencia, el de los netbooks para el que busca portabilidad máxima y bajo precio a costa de renunciar a prestaciones, y los MID para los que buscan un dispositivo de acceso a Internet de bolsillo que cubra las carencias que actualmente tienen en este aspecto incluso los móviles más avanzados.

AMD e Intel, eternos rivales

Como decíamos antes, en el ámbito de los portátiles lo que los usuarios más están demandando es poder olvidarse definitivamente de los clásicos equipos de sobremesa. Los menos exigentes, dedicados a tareas ofimáticas y navegar por Internet, ya lo han conseguido sin muchos problemas. En cambio, los jugones o aquellos que por imagen, audio o vídeo necesitaban prestaciones de alto nivel, sobre todo en el aspecto gráfico, aún requieren algo más.

Aquí es donde entran en acción las nuevas plataformas de AMD e Intel, los dos actores del mercado del PC. En el caso de AMD durante el mes de junio lanzó Puma, nombre en clave de su nueva plataforma para portátiles que, por extraño que parezca, comercialmente no ha recibido ningún nombre concreto.

Tan sólo un nuevo sello identificativo, evolución del ya conocido programa Better By Design que AMD ha venido utilizando en los últimos años. Intel, por su parte, ha tenido que retrasar hasta finales de julio el lanzamiento de Montevina, nombre en clave de la revisada plataforma Centrino 2.

Ambas plataformas han sido lanzadas durante el tercer cuarto de año, esencialmente para encarar la campaña de la vuelta al colegio, pero, sobre todo, la jugosa temporada de navidades. En los dos casos, las promesas de los fabricantes son claras: menor consumo energético para alargar la autonomía de las baterías, mejores prestaciones de proceso y, sobre todo, mayor rendimiento gráfico.

A muchos usuarios estas mejoras quizá les dejen un poco fríos, no obstante, hemos de tener presente que estos avances lograrán mejorar las posibilidades de sistemas como Windows Vista, que, hoy por hoy, devora hasta un 30% más de energía que Windows XP precisamente por sus mejoras visuales. Por ello, cualquier optimización en este aspecto debería ser bien recibida por todos.

Metidos en el Laboratorio

A finales de julio ya tuvimos en el Laboratorio algún prototipo de Puma y Centrino 2, sin embargo, preferimos esperar un poco a sacar conclusiones, pues se trataba de máquinas muy preliminares, donde se apreciaban fallos en controladores o carecían de algunas de las características finales.

En cambio, en septiembre, con máquinas llegando al canal de distribución y que previsiblemente estarán disponibles para cuando esta revista llegue a la calle, podemos presentaros sin miedo a equivocarnos las primeras pruebas exhaustivas de ambas plataformas de las que se extraen interesantes conclusiones.

Hemos trabajando a fondo para valorar prestaciones del procesador, sistema gráfico, consumo energético e incluso disipación de temperatura. Todos esos datos los hemos comparado, por supuesto, con nuestros históricos de pruebas para, de esta forma, tener una visión real de las mejoras y avance que suponen las nuevas soluciones.

Cómo probamos las plataformas
Como base inicial para realizar todas las pruebas, hemos recurrido a nuestro habitual PCMark Vantage, una batería de pruebas de casi 2 horas de duración que analiza de manera exhaustiva diversos apartados y vertientes a los que puede enfrentarse un PC en su día a día.

Para valorar con detalle el aspecto gráfico hemos recurrido a 3DMark 06. A pesar de haberse presentado la nueva versión Vantage, aún preferimos no usarla debido, fundamentalmente, a que sus exigentes pruebas aún se llevan mal con ciertos motores gráficos no demasiado potentes. Además, preferimos poder comparar las cifras obtenidas con las que ya tenemos en nuestra base de datos.

Continuamos con Battery Eater Pro, que mide la autonomía real de un portátil. Los datos que arroja son poco reales, pues se desactivan los ahorros de energía y se obliga a la máquina a generar indefinidamente imágenes en 3D que requieren un gran uso de CPU y GPU. Aun así, es una buena alternativa para comparar consumos.



Por último, hemos capturado las medidas de temperatura gracias a nuestro termómetro láser tras someter al portátil a más de dos horas de ejecución de una demo de altos requerimientos gráficos y de proceso. Así, garantizamos que el procesador, la memoria, la GPU o el disco duro han alcanzado una temperatura estable de trabajo.

Un interfaz cerebro-ordenador permite comunicarse a personas con lesiones cerebrales


El dispositivo lee el pensamiento gracias a un ordenador y a un sofisticado algoritmo

El informático de la universidad británica de Portsmouth Paul Gnanayutham ha creado un interfaz cerebro-máquina que permite manejar un ordenador a personas que tienen una lesión cerebral y son incapaces de hablar o moverse, usando únicamente los pocos sentidos de los que disponen. El dispositivo consiste básicamente en una serie de electrodos que recogen señales cerebrales, oculares o musculares. Después, esas señales son pasadas a un ordenador portátil, que las “lee” y las convierte en movimientos de cursor. El prototipo permite que el cursor se desplace hacia mensajes muy básicos, como “sí”, “no” o “gracias”. Las primeras pruebas ya han demostrado la efectividad de este sistema y varias personas que llevaban meses o años incomunicadas han podido interactuar con los demás. Por Raúl Morales.

La gente que haya sufrido operaciones quirúrgicas traumáticas en el cerebro y que son incapaces de hablar o moverse va a poder comunicarse por primera vez únicamente con el poder de sus pensamientos gracias a un ordenador portátil y a un sofisticado algoritmo.

Este avance ha sido desarrollado por el informático de la Universidad de Portsmouth, en el Reino Unido, Paul Gnanayutham, que ha dedicado gran parte de su carrera profesional a este campo. Aunque su sistema funciona y ya ayuda a varios privilegiados, su trabajo se centra ahora en conseguir la financiación para ponerlo a disposición de la mayor cantidad de gente posible.

El dispositivo usa las ondas cerebrales de los pacientes y los movimientos oculares y musculares para mover el cursor del ordenador portátil. El prototipo ahora presentado permite que el cursor se dirija a objetivos como “sí”, “no”, “gracias”, así como a encender una televisión o navegar por una página de Internet. Esos objetivos pueden ser cambiados en función de lo que la persona quiera hacer, ver o decir.

No es la primera vez que los informáticos encuentran maneras de usar las ondas cerebrales para dirigir el cursor de un ordenador, pero sí que es la primera vez que se usan en casos reales y no sólo en el laboratorio.

“Esta tecnología ya existía, pero muy poca gente lo ha usado para algo útil. He trabajado con personas que han sufrido operaciones cerebrales traumáticas para darles voz y la habilidad de decir “si” o “no” en una pantalla de ordenador”, comenta Gnanayutham en un comunicado.

Ocho meses de trabajo

Aprender a navegar usando los músculos faciales o las ondas cerebrales no es una tarea sencilla. Este informático ha trabajado durante ocho meses con un joven incapaz de comunicarse después de haber sufrido un accidente.

“Los trabajadores de los hospitales cuidan de estas personas, los dan de comer, los lavan, pero no tienen voz. No tienen manera de decir, por ejemplo, que no quieren que apaguen la luz o que no quieren recibir visitas”, dice Gnanayutham.

El sistema no es invasivo y funciona obteniendo pruebas a partir de una cinta con electrodos adosada a la cabeza para captar las ondas cerebrales (electroencefalografía), el movimiento de ojos (electrooculografía) o movimientos musculares (electromiografía). Estas señales alimentan un amplificador que puede “borrar” los sonidos externos y escuchar sólo esas ondas emitidas por la persona que lleva puestos los electrodos. Después, las señales pasan al puerto de serie del ordenador, de tal modo que éste sólo ve la conexión cerebro-cuerpo y el control del cursor.

El sistema, advierte este informático, no puede ser usado con pacientes muy sedados, pero si, por ejemplo, una persona mueve mover sus ojos de izquierda a derecha puede manejar el cursor también de izquierda a derecha. Del mismo modo, si tiene la capacidad de levantar los párpados, puede accionar el cursor de arriba abajo.

En última instancia, si se les enseña a imaginar que sus ondas cerebrales pueden ser “leídas” por un ordenador, serán capaces de aprender a usar el cursor gracias al poder de sus pensamientos. De esta manera, dice Gnanayutham, algunos pacientes han podido comunicarse por primera vez en meses o en años con las personas que les rodean.

Desconectados del mundo

“Estas personas tienen pensamientos y preferencias, como nosotros, sólo que no los pueden comunicar. No pueden decir lo que están pensando y se ven obligados a ver el mundo y, al mismo tiempo, a estar desconectados de él. Todo funciona en sus mentes, pero no pueden dejar salir lo que hay en ellas, lo cual es muy frustrante tanto para ellos como para quienes les cuidan”, dice Gnanayutham.

Es cierto que las opciones de comunicación son todavía muy limitadas, pero es la primera vez que tienen la posibilidad de comunicarse. “El sistema es muy práctico, por lo que puede ser utilizado por cualquiera. No es un experimento de laboratorio, funciona para la gente real; les da la voz”, comenta

Por el momento, Gnanayutham sólo ha fabricado un de estos dispositivos y está siendo utilizado por pacientes con situaciones más extremas. El sueño de este informático es que pueda ser utilizado por cualquier persona gracias a un sencillo manual. “Mucha gente estudia esto en el laboratorio, pero nadie lo pone a disposición de quienes realmente lo necesitan. Quiero que los enfermos puedan usarlo sin la intervención de nadie, sólo entonces habré tenido éxito”.

La NASA prueba con éxito un sistema de comunicación interplanetario similiar a Internet


El protocolo DTN, desarrollado hace 10 años por el vicepresidente de Google Inc., envía información a través de un método distinto al TCP/IP
Podrían darse dificultades cuando una nave se desplace detrás de un planeta o durante las tormentas solares

Ya se ha dado el primer paso para crear un Internet interplanetario. La NASA ha completado con éxito las pruebas de este sistema de comunicación espacial similar a la Red de redes. El pasado mes de octubre, un equipo de ingenieros del Laboratorio de Propulsión a Chorro (JPL, por sus siglas en inglés), de Pasadena (Calif), envió docenas de imágenes espaciales desde y hacia una nave localizada a cerca de 32 millones de kilómetros de la Tierra mediante un 'software' especial llamado DTN.
"Se trata del primer paso para crear una nueva red espacial de comunicaciones, un Internet interplanetario", ha asegurado el director de tecnología y redes espaciales de la NASA en Washington y líder del equipo de investigación, Adrian Hooke.
El protocolo DTN, desarrollado hace diez años por el vicepresidente de Google Inc. Vint Cerf, envía información a través de un método distinto que usa el "Internet común", el TCP/IP. Este nuevo sistema de comunicación debería solucionar las demoras, alteraciones y las desconexiones en el espacio.
Aún así, podrían darse dificultades cuando una nave se desplace detrás de un planeta o durante las tormentas solares. Estos retrasos en el envío o recibo de datos desde Marte podrían ser de entre 3,45 y veinte minutos a velocidad de la luz, aunque no se plantea la posibilidad de sufrir desconexiones. Al contrario del sistema de Internet, el DTN no descarta la información en caso de no hallar un destinatario o nódulo: la mantiene hasta encontrarlo.

Turbo Pascal cumple 25 años


Para aquellos que estamos relacionados al mundo de la programación desde hace años, no podemos olvidar aquellos lenguajes con los que aprendimos a realizar nuestros primeros programas.

El caso de Turbo Pascal es uno de ellos. Muchos dieron sus primeros pasos en este mundo utilizando Turbo Pascal, un IDE que funcionaba bajo MS-DOS y que permitía generar aplicaciones bajo este ambiente.

Durante este mes se celebra el aniversario número 25 de Turbo Pascal, siendo más específicos un 20 de Noviembre de 1983 Borland liberó Turbo Pascal 1.0.

Su facilidad de uso y su programación limpia lo convirtieron en el lenguaje ideal para aquellos que daban sus primeros pasos en la programación.

En lo personal recuerdo mis primeros programas realizados en Turbo Pascal, sería interesante que nuestros lectores nos contaran sus historias con este lenguaje.

LCDs más eficientes para el 2009


Para muchos el futuro de las pantallas planas viene de la mano de la tecnología OLED, sus ventajas sobre los actuales LCD los hace un candidato ideal para ser su reemplazante.

Pero esto no quiere decir que la tecnología LCD va a morir, ya que existen empresas que actualmente se encuentran investigando diversas mejoras que pueden ser introducidas a los actuales LCD.

Es el caso de la compañía Funai, que ha desarrollado una pantalla LCD que no requiere utilizar una fuente de iluminación en la parte posterior del panel LCD. Con lo anterior se lograrían pantallas con un consumo de sólo un 1% de lo que actualmente consume un panel LCD. Para lograrlo la empresa ha desarrollado una capa que cambia de color cuando se le aplica una corriente eléctrica.

Junto con disminuir el consumo la tecnología desarrollada por Funai permite que las pantallas posean una reflectividad del 80%, por lo que pueden ser vistas incluso bajo la luz directa del sol y por si fuera poco, su costo de fabricación es menor al costo que actualmente poseen los paneles LCD.

Se espera que ya el próximo año veamos las primeras pantallas fabricadas con esta tecnología, claro que por el momento sólo han construido paneles con tamaños de entre siete y 14 pulgadas.

Google hará teléfonos móviles junto con la japonesa NTT Docomo


El nuevo sistema operativo de Google para teléfonos móviles, Android

TOKIO (AFP) — La mayor compañía de telecomunicaciones móviles de Japón, NTT Docomo, aliada con Google para prestar algunos servicios desde hace varios meses, anunció el miércoles que van a desarrollar conjuntamente, con terceros fabricantes, uno o varios teléfonos móviles de aquí a mediados de 2009.

"Trabajamos con Google y vamos a diseñar terminales basados en el sistema de explotación Android con varios socios", declaró a la AFP un portavoz de NTT Docomo. "Estamos actuando para poder lanzar este tipo de teléfono en la primavera o el verano de 2009". El pasado mes de enero, NTT Docomo y Google sellaron una gran alianza que concierne cuatro terrenos.

La integración del motor de búsqueda Google en el portal móvil NTT DoCoMo, la inclusión progresiva de otras apliaciones de Google en la plataforma de servicios 'i-mode' de NTT DoCoMo, la creación de nuevas herramientas de mercadotecnia y el codesarrollo de teléfonos basados en el sistema de explotación móvil Android.

Microsoft da el pistoletazo de salida a la 'Nueva Experiencia Xbox'


Microsoft ha estrenado su servicio de avatares.
Han renovado completamente la interfaz gráfica de la consola.
Se estrena la herramienta de creación de avatares.
También han inaugurado el servicio de alquiler de películas.

El 19 de noviembre, Microsoft inaugura en su consola Xbox 360 lo que han decidido llamar 'Nueva Experiencia Xbox', un lavado de cara de la imagen de la consola en el que destacan la nueva interfaz, una herramienta de creación de avatares y el servicio de alquiler de películas.

Microsoft divide la experiencia en varios apartados:
Xbox LIVE Party: Xbox 360 permite crear una fiesta virtual en tu televisión con un máximo de siete amigos. Con LIVE Party, el usuario puede participar en chats de voz mientras juega y comparte fotos en tiempo real con jugadores de todo el mundo.
Imagen personalizada: Ahora es posible crear un avatar animado y personalizable que aparecerá en el mundo de Xbox LIVE. El avatar representa al jugador y le permite participar directamente tanto en un LIVE Party como en una partida a Scene It? Grandes Éxitos de Taquilla o en los chats.
Sala recreativa: Xbox LIVE Arcade permite jugar a juegos clásicos como Pac-Man, Galaga o el más reciente Portal: Still Alive, junto a títulos pensados para poner a los avatares en acción, como Bomberman LIVE o UNO.
Juegos por y para la comunidad: Estarán disponibles al público miles de juegos desarrollados por la comunidad creativa. El canal de Juegos de la Comunidad de Xbox LIVE incluirá juegos realizados por todo tipo de usuarios y serán exclusivos para Xbox LIVE.
Acceder a Xbox LIVE desde cualquier ordenador: Los usuarios de Xbox LIVE podrán acceder al Bazar desde cualquier ordenador a través de Xbox.com. De este modo, se podrá navegar a través de todo el contenido de Xbox LIVE, ver las últimas novedades, observar el estado de la cuenta personal, comprar Puntos Microsoft y ordenar descargar contenidos.
Alquiler de películas: El Bazar de Vídeo de Xbox LIVE ofrecerá un amplio catálogo de películas en alta definición, incluyendo grandes éxitos de Hollywood y algunas de las películas españolas más conocidas. Entre los primeros títulos se citan Sweeney Todd, No es País para Viejos o Las Crónicas de Spiderwick entree otras.

Además, a finales de este mes de noviembre Xbox 360 vivirá otro momento importante de su existencia: la cifra de consolas Xbox 360 vendidas en todo el mundo alcanzará los 25 millones, superando así el número total de consolas vendidas en toda la vida de la primera Xbox.

lunes, 17 de noviembre de 2008

Flash para 64 bits llega primero a Linux


Los papeles se han cambiado dramáticamente. Ahora es linux el primero en recibir soporte Flash para 64 bits, antes que Windows y Mac e incluso Solaris. El software libre ha ayudado a Linux a ser el sistema con más soporte para 64 bits del momento, gracias a que los controladores y aplicaciones pueden ser compilados por las distribuciones sin las molestias de licencias o patentes. El 'plugin' de Flash ha sido una de las limitantes pues solo existe en 32 bits lo que obliga a usar Firefox de 32bits. Gnash ha sido una opción para estos sistemas aunque un tanto incompleta. En la Adobe Max Conference anunciara y entregara la primera alpha de su versión 64bits de Flash 10 así como una demostración de Flash corriendo en un 'smart phone'. Adobe espera dar soporte a Windows y Mac muy pronto

miércoles, 12 de noviembre de 2008

Se confirma Windows 7 para navidad de 2009


Microsoft ha confirmado en una conferencia de prensa que Windows 7 será lanzado comercialmente tres años después de Windows Vista; es decir, a fines de 2009. Aunque la compañía anteriormente ha dado a entender que el lanzamiento de Windows 7 sería a fines de 2009, esta es la primera vez que lo confirma oficialmente.

Doug Howe, director de producto en Microsoft, comentó que "el enfoque navideño del próximo año estará en Windows 7", confirmando además que Windows 7 y Windows Server 2008 R2 comparten la misma base de código.

La versión pre-beta de Windows 7 llegó hace tiempo a las redes de intercambio ilegal. En los foros sobre el tema se coincide en que el próximo sistema operativo de Microsoft ha impresionado positivamente, de una forma que Windows Vista nunca alcanzó.


Entre otras cosas, ha sorprendido sobremanera el interfaz táctil y las avanzadas funciones del escritorio de Windows 7. el próximo sistema operativo de Microsoft incorpora soporte para la totalidad de los formatos usados en redes de intercambio.

El sistema operativo traerá pre instalados, y posiblemente con actualización automática, los codecs de DivX, Xvid y h.264 (el formato usado para la visualización de películas en iPod). En términos de audio, Windows 7 incorporará soporte para AAC, haciendo innecesaria la instalación de iTunes u otro software. Esto llama la atención debido a que es el formato usado por Apple en iTunes y en los reproductores iPod/iPhone.

La excepción serán los archivos con protección anti copia AAC comercializados mediante el sitio de iTunes, que sólo podrán ser ejecutados en esa plataforma. Sin embargo, los archivos comprados con el logotipo de iTunes Plus no tienen protección anticopia, por lo que pueden ser ejecutados sin inconvenientes en Windows Media Player, si el usuario lo prefiere.

Microsoft explica su decisión de incorporar soporte directo señalando que los codecs independientes encontrados en Internet contienen a menudo software espía, y en el peor de los casos, virus informáticos. Esto potencia el riesgo de epidemias ocasionadas por el intercambio de material audiovisual infectado.

Asimismo, el usuario tiene poco control con qué versión está usando, con lo que corren el riesgo de tener una versión antigua incompatible con la película o la música que desean reproducir.

No es la primera vez que Microsoft decide incorporar formatos populares en el mundo de la piratería, por razones de seguridad. De hecho, la consola Xbox 360 incorpora soporte para Xvid/Divx

Google incorpora el videochat a Gmail


El servicio de correo del buscador, Gmail, estrena las funciones de chat y vídeo
Madrid. (EFECOM).- El operador de internet Google ha incorporado a su servicio de correo electrónico Gmail las funciones de chat y vídeo, lo que permite hablar con los contactos y verlos simultáneamente.

Para utilizar esta nueva función, el usuario tiene que tener una webcam y acceder a un programa de navegación desde el propio correo.

Según informó Google para utilizar el servicio basta con abrir Gmail e iniciar una sesión de chat. Entonces aparecerá un pequeño icono verde junto al nombre de la persona con la que se contacta, que indica que está conectado por vídeo.

Se hace clic en el menú "vídeo y más" situado en la parte inferior de la ventana de Gmail y se selecciona "empezar videochat".

martes, 11 de noviembre de 2008

Lanzamiento de Adobe CS4


Hace unos días nos invitaron al lanzamiento de toda la suite CS4 de Adobe que abarca los ya conocidos software como Phosotshop, Flash, After Effects y demases.

La reunión fue para mostrar los cambios y mejoras en los programas, donde si bien algunos fueron más de estética o para solucionar quejas puntuales, otros se han visto alterados a niveles gigantescos que implican casi aprender el programa de nuevo.

Para un resumen amigable, sigan leyendo.


De lo que nos compete, podemos centrar los cambios a Photoshop, After Effect, Premiere y Flash.

En general todo ahora consta de una integración mucho más profunda para procesadores de 64 bits lo que hace que corra mucho más rápido, y una integración entre programas más completa, corrigiendo problemas como no poder importar cosas desde un programa con todas sus capas disponibles y teniendo que perder tiempo corrigiendo detalles o rehaciendo las cosas que se quedaron en el camino de la importación. Además, Adobe está sumamente enfocado en facilitar todo lo que sea metadata, dando campos para su introducción en todos los programas audiovisuales y de edición.

After Effects sigue básicamente intacto, siendo parte de sus mejoras una mejor integración con Photoshop, permitiendo una integración completa de lo que son las capas 3D.

Sin duda el cambio más fuerte no viene dentro del programa, sino que en su exportación. Adobe ha anunciado que irá con todo para jubilar los formatos fla y swf para reemplazarlos con una nueva variante llamada XFL. Para esto han trabajado extra duro en una integración fácil y completa de Flash y After Effects, permitiendo por ejemplo, hacer todos los trabajos, efectos y animaciones en AE, exportarlos en XFL para que cuando Flash los importe, sean respetadas todas las lineas de tiempo y efectos en la nueva interfaz de flash que discutiremos más abajo. Sin duda será un salvavidas de tiempo, contando en la presentación que el feedback de estudios señalaba que mejoras como esta les reducían en semanas los tiempos de trabajo.

Sobre Photoshop podemos hablar de muchas mejoras puntuales y unas cuantas novedades gigantes. En lo que se ha mejorado bastante es la integración con los elementos 3D, permitiendo pintar directamente sobre los archivos importados sin romper el 3D para luego remandarlo al programa de su elección. Igual de bienvenidas son mejoras que ayudan a hacer más cómodo el flujo de trabajo como una mejora al sistema de Zoom, que se convierte en progresivo (como ocurre con cámaras digitales) en vez del tradicional zoom-absoluto-instantaneo de toda la vida. y una nueva opción para rotar el lienzo en forma más amigable para aquellos que necesitan alterar su punto de vista pero sin tener que rotar todo el proyecto.

Son mejoras que pueden parecer un tanto abstractas pero cuando se ven en movimiento sin duda serán agradecidas por diseñadores y aficionados por igual.

Sin duda lo que se robó los aplausos fue el nuevo sistema de escalado inteligente que traerá esta versión, para el cual pediré prestado un vido del equipo de Lynda, donde gracias a un nuevo algoritmo, tienen unas pautas sobre que cólores de pixeles no tocar cuando se escala una imagen, con parametros como el comparar bloques de píxeles iguales con píxeles color piel, como podría ser una foto en el mar y evitando que el escalado afecte la figura humana mientras que todo el resto se agranda o achica de acuerdo a nuestras necesidades.

Premiere viene hartas mejoras, algunas enfocadas a segmentos bastante específicos y otras que todos disfrutarán. Premiere se ha convertido (según Adobe) en el programa de video con mayor compatibilidad del mercado, añadiendo soporta nativo para formatos de cámara sin cintas como AVCHD, P2, XDCAM EX y HD sin tener que pasar por ningún proceso previo de lectura o decodificación.

Pero sin duda la mayor sorpresa hará que todos los equipos de Fansubs del mundo chillen de entusiasmo como colegialas, pues CS4 traer una funcionalidad de lectura e interpretación de voz, básicamente un OCR de audio y que estará disponibles en 12 idiomas. El mayor beneficio será sin duda las transcripciones de texto, pues el video dará una interpretación del sonido (con factores como modulación y ruido obviamente) y uno podrá ir rellenando y editando lo que sobre o esté errado.

De todas los programas, sin duda Flash fue el más alterado. De partida, todos los que se peinen en Action Script 2, pueden parar de leer esto y vayan a aprender AS 3 si quieren usar CS4 pues ahora todo se mueve bajo este lenguaje. Descontando esto y el nuevo soporte al formato XFL mencionado arriba, el cambio más fuerte se ve en lo que es animación, donde ahora todas las animaciones son enfocadas hacia el objeto y dejando de lado el tradicional sistema de animación global con la linea de tiempo. Esto hace bastante más navegable los proyectos pues cada animación ira en cada objeto, permitiendo borrarlos de las escena y linea de tiempo sin por eso perder todas sus características ya que están guardados en la biblioteca, permitiendo de la misma forma introducir el mismo objeto muchas veces sin tener que repetir cada vez la animación o terminar con una linea de tiempo interminable hacia abajo.

Visualmente Flash ahora es mucho más parecido a After Effects, tomando prestado de esta herramienta muchas opciones como un editor de movimientos en curvas y posibilidad de animación en 3D mucho más rica, sencilla y rápida que en versiones anteriores.

Y para terminar, quiza lo que más le sirva a los animadores, Adobe ha decidido responder a la amenaza de softwares como Toon boom studio añadiendo un sistema de huesos al programa, permitiendo animar de forma mu-chi-si-mo más fluida y rápida los clips de película que componen los elementos a animar.

Dentro de todo, Adobe Cs4 viene bastante sólido en cualquiera de sus programas en forma independiente pero sin duda esta versión aspira a crear una sensación de fuerza en los números, dando a entender de que todo el potencial de cada programa sólo es alcanzable en conjunción a otros softwares de esta suite.

Alerta: virus informático en el programa AVG


Desde hace unos días el antivirus viene detectando a un tal "Trojan Horse PSW.Banker4.APSA" que posiblemente sea, no un troyano como parece serlo, sino una falsa alarma del AVG
En algunas computadoras el programa anti-virus AVG 8.0 free Edition está recibiendo desde hace ya varios días, un “Trojan Horse PSW.Banker4.APSA que aunque parece un troyano, sería una falsa alarma.

Según se supo, y aunque se está recopilando información, se dice que el Ad-Aware lo elinima, pero no es cierto. También se dice que el SpyBot lo elimina y también es mentira.

Por ahora solo queda poner "Ignorar" cuando AVG lo detecta ya que al borrarlo o eliminarlo los archivos "user32.dll" o el "user.exe" la cosa se complica, al punto que Windows deja de funcionar.

Por lo tanto, cuidado, precaución, y a no borrar o eliminar nada a menos que se este muy seguro de lo que se va a hacer.

lunes, 10 de noviembre de 2008

Dell SP2309: Un nuevo monitor ultra-widescreen


Hace algunos días comentábamos el extraño monitor 2342BWX de Samsung y su aún más extraña resolución de 2048×1152 píxeles, y hoy parece que Dell se sumará a la fiesta con su SP2309, con exactamente la misma resolución y tamaño de 23″ que su hermano oriental, pero sin modelo incluida.

Sus especificaciones incluyen un contraste dinámico de 80.000 : 1 (tómenselo con escepticismo), 2 milisegundos de tiempo de respuesta, rango cromático del 98% y cámara de 2 MP. Sus entradas de video cuentan DVI, VGA y HDMI.

Esta delicia del trabajo de ofimática se empezará a vender en el sitio de Dell Canadá con un precio de USD$420 en las próximas semanas.