Entradas populares

miércoles, 26 de noviembre de 2008

Las cinco innovaciones que cambiarán la vida diaria


IBM presentó su ya clásica lista Next Five in Five, los cinco adelantos que tienen el potencial de cambiar la forma en que la gente trabaja, vive y juega
De acuerdo a los especialistas de IBM, éstas son:
*La tecnología solar para el ahorro de energía será incorporada al asfalto, la pintura y las ventanas
*Usted tendrá la bola de cristal de su salud
*Le hablará a la web… y la web le responderá
*Tendrá sus propios asistentes de compras digitales
*Olvidarse quedará en el olvido

La lista se basa en las tecnologías emergentes concebidas en los Laboratorios IBM de todo el mundo que pueden hacer realidad estas innovaciones.

La tecnología solar para el ahorro de energía será incorporada al suelo, la pintura y las ventanas
¿Alguna vez se preguntó cuánta energía solar podría crearse si la tecnología solar estuviera integrada a las aceras, los caminos, los revestimientos, la pintura, los techos y las ventanas? En los próximos cinco años, la energía solar será una opción accesible para usted y sus vecinos. 

Hasta ahora, los materiales y el proceso de producir células solares para generar energía solar han sido demasiados costosos para su adopción masiva. Pero eso está cambiando con la creación de las células fotovoltaicas de “película fina”, un nuevo tipo de célula solar eficiente en función de costos que puede ser hasta 100 veces más delgada que las células de obleas de silicio y producirse a menor costo. 

Estas nuevas células de película fina pueden ser “impresas” y dispuestas sobre superficies flexibles, adecuadas no sólo para los techos sino también para los laterales de los edificios, ventanas polarizadas, teléfonos celulares, computadoras portátiles, automóviles e incluso la ropa.

Usted tendrá la bola de cristal de su salud
¿Qué sucedería si pudiera prever el destino de su salud y usar ese conocimiento para modificar su estilo de vida? Aunque le digan que las papas fritas, el queso y el vino no son buenos para la salud, ¿qué sucedería si descubriera específicamente que usted es alguien que puede consumir más de esos vicios sin tener un impacto negativo en su salud?

En los próximos cinco años, su médico podrá darle un mapa genético que le dirá qué riesgos de salud es probable que enfrente en su vida y cuáles son las medidas específicas que puede tomar para prevenirlos, en base a su ADN específico, todo por menos de u$s200.

Desde que los científicos descubrieron cómo descifrar el genoma humano completo, el descubrimiento abrió nuevas puertas para ayudar a develar los secretos encerrados en nuestros genes y predecir rasgos y estados de salud a los que podemos tener predisposición. 

Los médicos podrán usar esta información para recomendar cambios en el estilo de vida y tratamientos. Los laboratorios farmacéuticos también podrán diseñar medicamentos nuevos y más eficaces, enfocados a cada uno de nosotros como pacientes individuales. El trazado genético transformará radicalmente la atención de la salud durante los próximos cinco años y le permitirá cuidarse mejor. 

Usted le hablará a la web... ¡y la web le responderá!
La “relación” con la web cambiará sustancialmente en los próximos cinco años. En el futuro, podrá navegar en internet con manos libres, usando su voz y eliminando la necesidad de pantallas y teclados. La nueva tecnología cambiará la forma en que las personas crean, construyen e interactúan con la información y los sitios web de e-commerce, utilizando el habla en lugar de texto. 

Sabemos que esto puede suceder porque la tecnología está disponible, pero también sabemos que puede suceder porque debe suceder. En lugares como la India, donde la palabra hablada es más prominente que la escrita en educación, gobierno y cultura, “hablarle” a la Web rápidamente supera a las demás interfaces, y el teléfono móvil está dejando atrás a la PC. 

En el futuro, con el uso de “VoiceSites,” los que no tienen acceso a una computadora personal y a la Internet, o no pueden leer o escribir, podrán aprovechar todos los beneficios y la comodidad que ofrece la Web. Y a medida que la Web se vuelva más accesible con el uso de la voz, será más fácil de usar para todos. Imaginemos estar a una llamada telefónica de la capacidad de publicar, escanear y responder a e-mails y mensajes instantáneos, sin escribir. Podremos movernos en la web verbalmente para encontrar lo que buscamos y que la información nos sea leída, como si mantuviéramos una conversación con la web. 

Tendrá sus propios asistentes de compras digitales
¿Alguna vez se encontró en un probador con todos los talles incorrectos y ningún asistente de ventas a la vista? ¿Y qué hay de la opinión de los amigos de que ese conjunto que ha elegido no le queda bien? En los próximos cinco años, los compradores dependerán cada vez más de sí mismos –y de las opiniones de los otros compradores- para tomar decisiones en lugar de esperar ser asistidos por los vendedores de la tienda. 

Una combinación de nueva tecnología y la próxima ola de dispositivos móviles darán un notable impulso a la experiencia de compra en la tienda. Los almacenes pronto vendrán equipados con asistentes de compra digitales, kioscos con pantallas táctiles y activación por voz que le permitirán elegir prendas y accesorios para combinar o reemplazar lo que ya ha seleccionado. Una vez realizadas sus elecciones, se notificará a un vendedor, quien reunirá los artículos seleccionados y se los acercará al probador. 

También podrá sacarse fotos con distintas combinaciones y mandarlas por e-mail o SMS a sus amigos y familiares para que le den el visto bueno… o malo. Los compradores pueden acceder a calificaciones y críticas de productos de otros consumidores e incluso podrán bajar cupones de ahorro y utilizarlos instantáneamente en sus compras. 

Olvidarse quedará en el olvido
¿La sobrecarga de información lo desvela de noche? Olvídela. En los próximos cinco años será mucho más fácil recordar qué comprar en el almacén, qué mandados hay que hacer, con quién habló en una conferencia, dónde y cuándo quedó en reunirse con un amigo o qué producto vió anunciado en el aeropuerto.

Los detalles de la vida cotidiana serán grabados, almacenados, analizados y entregados en el momento y lugar correcto, gracias a dispositivos inteligentes, tanto portátiles como fijos. Para que esto sea viable, micrófonos y videocámaras grabarán conversaciones y actividades. 

La información recopilada será automáticamente almacenada y analizada en una computadora personal, que luego se encargará de “recordar” al usuario qué conversaciones tuvo, por ejemplo, con su hija o su médico, por teléfono. 

En base a estas conversaciones, los teléfonos inteligentes, equipados con tecnología de posicionamiento global, también podrán recordarles ir a buscar los artículos comprados o los medicamentos recetados si pasan por una tienda en particular en un momento en particular. No cuesta imaginar que los televisores, controles remotos o incluso las superficies de las mesas de café alguna vez sean medios familiares que nos permitan explotar nuestra información almacenada digitalmente.

El sitio de guías prácticas

Si Wikipedia responde al "qué" de las cosas, la Practicopedia quiere resolver el "cómo". Uno de sus atractivos es que permite ganar dinero a creadores de notas
Practicopedia es un directorio con información práctica sobre cuestiones de la vida cotidiana, que acaba de nacer en internet con el objetivo de facilitar la vida de los usuarios y responder de forma eficaz y sencilla a las preguntas que consultamos cada vez con mayor frecuencia en los buscadores de la red.

Cada uno de los trucos/consejos publicados en la Practicopedia se denomina Practicograma, y fundamentalmente serán videos de corta duración, aunque también se incluyen formatos de “texto paso a paso”, gráficos y guías de navegación.

Los Practicogramas están agrupados por categorías y cubren una gran espectro: Comida & Bebida, Deportes, Educación, Electrónica, Fiestas, Finanzas personales, Hogar & Jardín, Idiomas, Internet & Computadoras, Juegos y hobbies, Legal, Mascotas, Medio Ambiente, Mente y cuerpo, Moda y belleza, Motor, Música & Baile, Paternidad, Relaciones, Salud, Trabajo, Viajes.

El sitio ya cuenta con alrededor de 4.000 videos prácticos y 2.000 textos.

Los creadores de Practicogramas, Dixired, lograron el apoyo de distintas empresas e instituciones para subir información relacionada con ellos.

Por ejemplo, cuentan con videos sobre mantenimiento de autos realizados por una compañía llamada Talleres Euromaster.

Pero los usuarios también tienen su modo de participar y ganar dinero. El portal reserva en cada Practicograma un espacio dedicado a publicidad contextual, cuyos ingresos serán para el autor. 

La forma de participar en ese esquema es muy sencilla: el autor del Practicograma sólo tendrá que darse de alta en Google Adsense y será Google quien gestione la publicidad y le ingrese en su cuenta los beneficios que puedan obtenerse de cada click que hagan los usuarios.
http://www.practicopedia.com/

El sitio de guías prácticas


Si Wikipedia responde al "qué" de las cosas, la Practicopedia quiere resolver el "cómo". Uno de sus atractivos es que permite ganar dinero a creadores de notas
Practicopedia es un directorio con información práctica sobre cuestiones de la vida cotidiana, que acaba de nacer en internet con el objetivo de facilitar la vida de los usuarios y responder de forma eficaz y sencilla a las preguntas que consultamos cada vez con mayor frecuencia en los buscadores de la red.

Cada uno de los trucos/consejos publicados en la Practicopedia se denomina Practicograma, y fundamentalmente serán videos de corta duración, aunque también se incluyen formatos de “texto paso a paso”, gráficos y guías de navegación.

Los Practicogramas están agrupados por categorías y cubren una gran espectro: Comida & Bebida, Deportes, Educación, Electrónica, Fiestas, Finanzas personales, Hogar & Jardín, Idiomas, Internet & Computadoras, Juegos y hobbies, Legal, Mascotas, Medio Ambiente, Mente y cuerpo, Moda y belleza, Motor, Música & Baile, Paternidad, Relaciones, Salud, Trabajo, Viajes.

El sitio ya cuenta con alrededor de 4.000 videos prácticos y 2.000 textos.

Los creadores de Practicogramas, Dixired, lograron el apoyo de distintas empresas e instituciones para subir información relacionada con ellos.

Por ejemplo, cuentan con videos sobre mantenimiento de autos realizados por una compañía llamada Talleres Euromaster.

Pero los usuarios también tienen su modo de participar y ganar dinero. El portal reserva en cada Practicograma un espacio dedicado a publicidad contextual, cuyos ingresos serán para el autor. 

La forma de participar en ese esquema es muy sencilla: el autor del Practicograma sólo tendrá que darse de alta en Google Adsense y será Google quien gestione la publicidad y le ingrese en su cuenta los beneficios que puedan obtenerse de cada click que hagan los usuarios.
http://www.practicopedia.com/

Apple presentará la iMac multi-táctil en Enero de 2009

Dicen™ que Apple está trabajando en el proyecto de una multi-táctil que presentará en la MacWorld de 2009. A pesar de que Apple ha sido bastante clara asegurando que esta característica no estará disponible a corto plazo, se tienen reportes que LG, el fabricante de pantallas iMac, está adoptando medidas para producir masivamente estos componentes.

Cabe aclarar que LG fabrica LCDs para otras compañías y también bajo su propia marca. No podemos olvidar que Windows 7 será lanzado a finales de 2009 y estas pantallas podrían perfectamente ser LCDs para acompañar portatiles “Windows 7″.

Apple aparentemente continuaría con el éxito comercial de la tecnología multi-táctil de el iPhone a toda su línea de escritorio, pero esto no paso y en el juego HP le dio un duro golpe con la TouchSmart todo-en-uno y recientemente con la portátil TouchSmart TX2.

De igual manera, aún es incierto el soporte que brindaría Snow Leopard (que se espera para Marzo de 2009), pero es muy posible que en la Expo MacWorld 2009 de Enero se presente una iMac multi-táctil.

lunes, 24 de noviembre de 2008

Windows Vista presenta una vulnerabilidad en su Kernel

Se ha revelado una vulnerabilidad que afecta al Sistema Operativo Windows Vista, por medio de la cual se produce un desbordamiento de buffer que provoca el colapso del sistema o incluso, se puede aprovechar para introducir un código malicioso comprometiendo la seguridad del equipo.

La vulnerabilidad fue descubierta por la compañía de seguridad Phion y se encuentra en el núcleo de Vista, comprobándose que se encuentra presente en las versiones Ultimate y Entrerprise. Aunque los investigadores señalan que es altamente probable que afecte a la totalidad de las versiones de 32 y 64 bits.

En detalle la vulnerabilidad se ubica en el sistema de red, cuando son enviadas solicitudes a la API iphlpapi.dll y puede hacer que la computadora se apague o provocar que esta pierda su conectividad a la red.

Si bien para poder hacer uso de esta vulnerabilidad se necesitan permisos de administrador, se podrían utilizar paquetes DHCP sin permisos de administrador para aprovecharla.

Por el momento no se tiene información sobre si la vulnerabilidad se ha utilizado en algún tipo de ataque y se espera que sea corregida en el SP 2 de Windows Vista.

viernes, 21 de noviembre de 2008

La utilización de redes sociales beneficiaría el desarrollo de los jóvenes

Una investigación concluyó que el uso de Facebook y MySpace (HI5.COM PARA LATINO-AMERICA) no tiene efectos negativos en los adolescentes. De hecho, facilita la interacción entre pares y la adquisición de habilidades tecnológicas
Un estudio realizado en los Estados Unidos aseguró que las redes sociales a través de la web no perjudican a chicos y adolescentes. Al contrario, la utilización de estos espacios ayuda a los chicos a interactuar con pares, a adquirir habilidades tecnológicas y a poseer armas para tener éxito en el mundo profesional.

Si bien es lógico que exista una preocupación por la gran cantidad de tiempo que los jóvenes pasan delante de una computadora o enviando mensajes de texto a través del celular, los especialistas de la Fundación MacArthur de Nueva York aseguran que no hay por qué temer. De hecho, los jóvenes recibirían una gran ayuda para su futura vida adulta, utilizando redes sociales como Facebook o MySpace.

El estudio de la fundación norteamericana, que fue dado a conocer hoy por el diario Clarín, fue desarrollado durante los últimos tres años. Si bien describe cómo afecta el uso de las redes sociales, no mide cuáles son sus efectos a largo plazo. 

Por otro lado, la investigación reveló un dato preocupante: un porcentaje importante de los 800 jóvenes entrevistados aseguró respetar más a sus pares que están conectados en las redes que a los adultos. Por otro lado, también destacó que ellos tienen sus propios límites con respecto a la utilización de internet.

Evita que usuarios sin privilegios copien datos a unidades de almacenamiento externo


Uno de los grandes peligros para muchas empresas en lo que se refiere a la seguridad de la información viene de la mano de los actuales discos y memorias USB, que se han popularizado hasta el punto de que es extraño el usuario que no tiene una 

En mi empresa, estuvimos analizando el problema y localizamos una vía bastante simple para evitar que determinados usuarios pudieran sacar datos desde sus ordenadores a través de uno de estos dispositivos. 

Para ello, tendremos que acudir al Registro de Windows (Inicio/Ejecutar/regedit) y buscar la clave HKEY_LOCAL_MACHINE\SYSTEM\CurrentControlSet\Control\Storage-DevicePolicies. Una vez situados en esta categoría, a la derecha, sólo tendremos que crear una entrada tipo DWORD, a la que llamaremos WriteProtect. 

Como valor de esta entrada, introduciremos 1 para bloquear la escritura en discos externos USB (o 0, si más tarde queremos volver a activarla). A partir de este momento, no será necesario ni siquiera reiniciar la máquina. El usuario que intente grabar cualquier fichero o contenido en su dispositivo de almacenamiento USB recibirá un mensaje de error, por lo que le será imposible llevarse información confidencial. 

AMD presenta Puma, la gran promesa


Con una cuota de mercado mundial del 13% a finales del 2007 en portátiles, y pese a ser el segmento que más ha crecido en los últimos años, al rival de Intel todavía se le resiste y sus familias de procesadores no terminan de triunfar

Por ello, se esperaba desde hace largo tiempo a Puma, una plataforma que prometía mucho. Y no tanto por incorporar un procesador totalmente revolucionario, sino por unificar en una misma solución comunicación inalámbrica de calidad, una CPU dotada de buenas prestaciones y, sobre todo, un sistema gráfico de alto rendimiento en 3D. 

Hasta la fecha, los motores gráficos integrados en los chipsets de portátil, fundamentalmente los de Intel, ofrecían un rendimiento pobre o nulo fuera del uso ofimático o la navegación por Internet. Por ello, los fabricantes de portátiles que quisieran crear una máquina potente en este aspecto, debían de recurrir a GPUs dedicadas que elevaban el coste, el tamaño, el peso y, fundamentalmente, el consumo global del portátil.

Grandes mejoras en el procesador

El alma de los portátiles con la nueva plataforma de AMD será el procesador Turion 64 X2 Ultra, fabricado con tecnología de 65 nanómetros, doble núcleo y 2 Mbyte de cache L2. Estos micros están basados en la arquitectura K8 o Griffin de AMD, dotada de dos núcleos y ya vieja conocida en microprocesadores como los Athlon X2 Dual-Core o el anterior Turion 64 X2. 

Sin embargo, el nuevo procesador ha recibido mejoras profundas. La más importante sin duda es la incorporación de tres planos de voltaje independientes. Los dos primeros gestionan la energía suministrada a cada uno de los núcleos del procesador, mientras que el tercero se encarga de gestionar el controlador de memoria y del nuevo bus HyperTransport 3.0 para comunicar el procesador con el resto de la placa base. 

Así, es posible regular de forma extremadamente precisa la energía: si no se requiere la máxima potencia, por ejemplo, se puede desconectar un núcleo y reducir a la mitad el controlador de memoria. Igualmente, en caso de inactividad total, incluso se puede forzar la desconexión con el bus HyperTransport 3.0 para reducir el consumo al mínimo. 

Respecto a las prestaciones, las velocidades iniciales de reloj se fijan en 2,1 (ZM-80), 2,2 (ZM-82) y 2,4 GHz (ZM-86). Los consumos, por su parte son de 32, 35 y 35 vatios, cifras similares a las de los procesadores de Intel en sus modelos más rápidos.

¡Dos gráficas en un portátil!

Ahora bien, el punto de inflexión de Puma reside en la integración del chipset AMD 780G, que cuenta en su interior con una GPU ATI Radeon HD 3200. A pesar de ser un chip gráfico de nivel de entrada en el mundo de los ordenadores de sobremesa, en el ámbito de los portátiles representa un salto impresionante: entre tres y cuatro veces más rápido que los clásicos motores gráficos integrados por Intel durante los últimos años, como el GMAX3100 integrado en los Centrino antes que Montevina, y con soporte para DirectX10 como el resto de la gama actual de ATI.

Pero las novedades en el ámbito de los gráficos no terminan aquí. Así, contamos con la tecnología ATI Hybrid CrossFireX, que permite a los fabricantes añadir un chip gráfico ATI Radeon dedicado para, sumado a la potencia del integrado, elevar así las prestaciones del integrado dentro del chipset 780G. 

Más concretamente, podremos encontrar GPUs como las ATI Radeon HD 3470, 3670 y 3870, cada una multiplicando por dos las prestaciones del inmediatamente anterior. Lo bueno es que esta tecnología, salvo que decidamos lo contrario, se desactivará automáticamente al funcionar sólo con la batería, ayudando, de esta manera, a preservar la autonomía el máximo tiempo posible.

Por último, también se ha desarrollado una innovadora solución a la que aún no hemos podido poner la mano encima: ATI XPG (External Graphics Solution). Básicamente, consiste en instalar un sistema gráfico externo en nuestro portátil que, cuando estemos conectados a la corriente en casa, nos brinde las máximas prestaciones en 3D. 

Por los primeros comentarios de la gente de la propia AMD, será una solución ideal para equipos ultraportátiles, donde contar con un chip dedicado con ATI Hybrid CrossFireX dentro del propio equipo resulta complejo por las reducidas dimensiones de estas máquinas. 

El apartado inalámbrico

Éste es el punto donde AMD deja libertad casi total a los fabricantes de equipos. Así, ha llegado acuerdos con empresas como Atheros, Broadcom, Marvell o Ralink, entre otros, para certificar sus chips inalámbricos en su solución. De esta forma, cada fabricante puede elegir el chip WiFi o WiMax que más se adapte a sus gustos, preferencias o necesidades.

Esta visión es justo la opuesta al Centrino de Intel, donde los chips inalámbricos que se integran son de la propia Intel. Los defensores de la solución de Intel argumentan que la validación de la plataforma es más fácil y segura, al tiempo que es más sencilla la distribución de controladores y soporte del sistema operativo. 

AMD, por su parte, deja claro que, gracias a su planteamiento, deja libertad total al fabricante para optar por el mejor chip para sus equipos y al cliente la libertad de elegir un modelo con uno u otro tipo de chip. A la hora de la verdad, pocos compradores se fijarán en la marca del chip inalámbrico y sus especificaciones, sin embargo, ahí esta la opción.

Resultados de las pruebas en laboratorio

Para nuestras pruebas, logramos hacernos con dos máquinas de diferente orientación y fabricante. Por una parte, conseguimos un Acer Aspire 5530, un equipo que en el momento de escribir estas líneas aún no tenía 100% cerrada su configuración en el mercado (probablemente integre 4 Gbytes de RAM, y quizá un modelo de procesador diferente), y un Asus M51T que en España aún no ha comenzado su comercialización.

En cualquier caso, ambas máquinas montaban idéntico procesador, el Turion 64 X2 Ultra ZM-82 a 2,2 GHz, un modelo que se sitúa en el medio de la gama y que es una de los más equilibrados por precio y prestaciones. En ambos, también encontramos el chipset 780G con su motor gráfico integrado, así como un chip gráfico dedicado integrado gracias a la tecnología ATI Hybrid CrossFireX, sobre la que ya hemos hablado.

Como podréis ver en la tabla de características (ver PDF adjunto), en el Acer se ha optado por una ATI Radeon HD 3470, mientras que el Asus cuenta con una Radeon HD 3650, en los dos casos dotados de la misma cantidad de memoria de vídeo, y con la tecnología HyperMemory, gracias a la cual la gráfica puede «robar» parte de la RAM del sistema en caso necesario para desempeñar sus tareas. 

Como nota curiosa diremos que ambas máquinas integraban la unidad Blu-Ray, todo un detalle para poder aprovechar esta plataforma reproduciendo películas de alta definición, uno de los puntos fuertes en los que insiste AMD.

Cifras sorprendentes

Bien, como podéis ver en las gráficas adjuntas, hemos comparado las dos primeras máquinas en llegar a nuestras manos con Puma, con dos equipos analizados en el pasado (Packard Belll y MSI) y gobernados por procesadores Turion 64 X2 de velocidades de reloj muy cercanas.

Lo que se observa, sin duda, es que la nueva plataforma supone un avance en prestaciones respecto a los equipos hasta ahora disponibles. Máxime si tenemos en cuenta que, a diferencia del modelo de Packard Bell, el MSI ya contaba con un motor gráfico dedicado de prestaciones bastante destacadas para tratarse de un portátil.

En las pruebas de PCMark Vantage podemos observar cómo los nuevos Puma obtienen resultados globalmente más altos que sus predecesores, prinicpalmente el Asus, gracias a su gráfica más potente.

Ahora bien, quizá lo más llamativo sean las cifras de 3DMark 06, donde podéis ver los resultados de cada máquina centrándonos exclusivamente en el apartado gráfico. Debido a que ambos contaban con el sistema Hybrid CrossFireX, hemos procedido a pasar las pruebas con y sin conexión a la corriente, de manera que hemos obtenido los resultados de sumar los dos motores gráficos o de sólo usar el integrado en el chipset, y aquí vienen las sorpresas. 

Lo primero que vemos es que un equipo como el Asus, con un precio objetivo por debajo de los 1.000 euros, ofrece unos resultados gráficos sorprendentes que, hoy por hoy, muchos equipos de sobremesa no son capaces de entregar. De hecho, repasando nuestra base de datos, comprobamos que son las cifras más altas que nunca hemos logrado en un portátil en el apartado gráfico, lo que nos da una idea de a qué nos enfrentamos: potencia suficiente para jugar a los últimos títulos, y potencia gráfica suficiente para las aplicaciones más exigentes en este aspecto.

Lo que sí observamos es una bajada drástica de las prestaciones al desconectar la corriente, algo lógico. Aun así, el motor gráfico ATI Radeon HD 3200 integrado en el chipset 780G ofrece resultados que triplican los obtenidos por los motores integrados de Intel, e incluso se igualan o superan a los chips gráficos de empresas como Nvidia que hemos visto hasta la fecha integrados en los portátiles.

Ahorro de energía y disipación

Y todo ello a cambio de reducir el consumo energético. En el caso concreto del Asus, además de contar con una versión de los controladores de ATI capaz de conmutar manualmente entre el motor gráfico integrado o la combinación de ambos, pudimos medir su autonomía con el Battery Eater Pro: nada menos que 104 minutos, una cifra destacada para esta prueba que es realmente exigente con el equipo, y que dilapida la energía al desactivar cualquier ahorro de energía y someter a las CPU y GPU a un trabajo permanente hasta el agotamiento de la carga.

Respecto a la disipación de calor, tenemos opiniones encontradas. Siempre teniendo en cuenta que existen grandes diferencias de unos fabricantes a otros por el diseño elegido por cada uno, hemos observado un calentamiento medio inferior, pero, en zonas concretas, realmente elevado. 

El hecho de integrar y exprimir dos motores gráficos, situados muy cerca del procesador, hace que en el Asus llegásemos a medir 48ºC en un mismo punto de su parte inferior, cifra que en el Acer alcanzó los 51ºC. Como siempre, estas medidas fueron tomadas tras dos horas de trabajo intensivo, por lo que en la práctica probablemente no llegarán a tanto. Aun así, ahí están, y se encuentran en línea con las que hemos podido medir en el pasado en otros equipos con AMD o Intel dotados de gráficos dedicados.

Panasonic lanza pantalla de plasma con soporte para IPTV


Parece que Panasonic está entendiendo hacia donde nos movemos con la tecnología. Lejos de empujar a la gente que solo dependan de las señales tradicionales para ver televisión, deciden hacer de su modelo de Plasma TH-50PZ850, compatible con IPTV o televisión por protocolo de internet por medio de la función Viera Link, por lo que servicios como YouTube se podrán disfrutar en sus 50″.


Además este modelo soporta resoluciones 1080p FullHD y tiene un rango de contraste dinámico de 1.000.000:1. Su vida útil, según sus fabricantes, es de 100.000 horas. En cuanto a conectividad tienen cuatro puertos HDMI, una entrada VGA y ranura para tarjetas SD.

El diseño destaca por tener un cristal de una sola pieza al frente, por lo que la pantalla y los bordes se unen con una armonía pocas veces vista en un televisor.

Siguiendo la tendencia de hacer productos verdes, estas pantallas de Panasonic son producidas libres de plomo y se ha optimizado el consumo de energía, además de que la pantalla de cristal y el metal del arco inferior son reciclables.

El precio de la TH-50PZ850 es de USD$2.721,60 y ya está disponible en Latinoamérica.

miércoles, 19 de noviembre de 2008

¿Puede su computadora usar el Windows 7?

Circula por la web una aplicación no oficial que analiza los componentes de las computadoras para determinar si éstas son compatibles con el nuevo sistema
InfoWorld puso a disposición de los internautas una práctica herramienta que analiza a fondo los componentes de una computadora y finalmente le dice al usuario si su sistema es capaz de utilizar el Windows 7.

El sucesor del Windows Vista -considerado por muchos como una gran actualización- estará disponible recién a fines del próximo año. Esta herramienta analiza los requerimientos de la pre-beta del Windows 7.

Se espera que los usuarios con una computadora capaz de hacer correr el Windows Vista sin problemas de velocidad también puedan utilizar el próximo sistema operativo.

El programa se llama Windows Sentinel y puede ser descargado gratuitamente desde el sitio de InfoWorld, aunque es necesario registrarse antes de poder utilizarlo.

Una vez superado ese paso es necesario descargarse e instalar el DMS Clarity Tracker Agent de la página de Windows Sentinel en InfoWorld. El programa comienza a recopilar una serie de datos –puede tardar unas horas- mientras se usa normalmente la computadora.

Terminado ese paso, se debe descargar el widget para saber si la computadora supera la prueba.

La idea de InfoWorld es contar con un indicador independiente del fabricante. Para el lanzamiento del Windows Vista, Microsoft puso a disposición de los usuarios una herramienta que medía el rendimiento de las computadoras y determinaba si el equipo era capaz o no de utilizar el sistema operativo.

A pesar de que los equipos pasaban la prueba, las pocas ventas y la gran cantidad de usuarios que hicieron un downgrade a Windows XP demostraron que el Vista no era la mejor opción para la mayoría de las computadoras.

La crisis llegó a Wikipedia


El creador de la enciclopedia online, Jimmy Wales, pide "por favor" a los usuarios que donen dinero para "sostener los proyectos de Wikimedia". Recaudó más de u$s2 M de los 6 que puso como "meta"

La enciclopedia interactiva online Wikipedia parece haber comenzado a sentir los efectos de la crisis financiera internacional y su creador, Jimmy Wales, no dudó en poner un aviso en la página para pedir solidaridad a sus usuarios para "sostener los proyectos de Wikimedia" 

"Imagina un mundo donde cada persona del planeta tiene acceso libre a la suma de todo el conocimiento humano", dice el título de la portada donde Wales llama a los lectores y articulistas de la enciclopedia a donar dinero o equipos de informática. 

Wikipedia fue definida por su fundador como una enciclopedia "libre y políglota" basada en la colaboración de sus contribuyentes por medio de la tecnología Wiki, lo cual permite que cualquier persona con acceso a internet pueda modificar la gran mayoría de los 417 mil artículos sólo en español y millones en otros nueve idiomas.  

"La fundación de Wikimedia agradece cada donación hecha al proyecto, sea tiempo, dinero o hardware", sostiene el mensaje que dejó Wales en la página que dispone donaciones por tarjeta de crédito, vía email o deposito en una cuenta bancaria, entre otras. 

Si bien Wikipedia recibe donaciones desde diciembre de 2006, tras la crisis financiera mundial su propietario decidió colocar un link en rojo que reza "Dona ahora" e informa que lleva recaudado u$s2.790.011 de los u$s6 millones que se han colocado como "meta". 

Esos fondos, según Wales, serán utilizados para "la ayuda con los costes de Wikipedia, en el reconocimiento de su logro notable en difundir conocimiento y facilitar el acceso a él sobre una base mundial”

Google lanza su aplicación para búsquedas por voz desde móviles


La herramienta de Google permite ejecutar acciones de búsqueda sólo con la voz, registrando además la geolocalización del usuario para búsquedas más ajustadas.

Google ha lanzado finalmente su aplicación mejorada para búsquedas en internet desde el móvil, con la particularidad de que integra reconocimiento de voz, lo que permite al usuario no tener que teclear la búsqueda, sino solamente activar el buscador y hablar.

Es posible descargarse esta herramienta para prácticamente todos los modelos de terminales del mercado, el T-Mobile G1 (por supuesto), iPhone, BlackBerry, Motorola, Samsung, Sony Ericsson, algunos modelos de Nokia y los smartphones que funcionan con Windows Mobile y Symbian S60.

Google ha adaptado su buscador para aprovechar al máximo las características de cada teléfono. Por ejemplo, en los terminales con acelerómetro, una vez expresada en voz alta la búsqueda, sólo con bajar el móvil, Google comienza indizar el resultado.

La nueva función permite también ubicar la localización del usuario, para hacer búsquedas más concretas sobre el parte meteorológico, tiendas, restaurantes, museos cercanos y cartelera del cine de la ciudad, entre otras cosas.

Entre los resultados mostrados en las búsquedas, Google ofrece también la información de los contactos, por lo que es posible acceder a un contacto de la agenda directamente desde el buscador.

Puede ver un vídeo de Google mostrando el funcionamiento de esta nueva aplicación en un iPhone:

Microsoft planea ofrecer seguridad gratuita al usuario


Llamado en clave Morro, la nueva oferta estará disponible en la segunda mitad de 2009 y protegerá al usuario frente a virus, spyware, rootkits y troyanos.

La llegada de Morro llevará a Microsoft a dejar de vender el servicio Windows Live OneCare, a pesar de que ambos servicios no son iguales. A Morro, que protegerá al usuario frente a virus, spyware, rootkits y troyanos le faltan algunos servicios de OneCare, si bien no relacionados con la seguridad, como compartir impresoras. Por otro lado, una de las principales diferencias es que Morro utiliza menos recursos que la oferta basada en suscripción, lo que le convierte en una suite ideal para sistemas con menos ancho de banda y ordenadores menos potentes.

Microsoft ha decidido cambiar a aun producto gratuito porque todavía hay demasiados ordenadores que no tienen software antivirus. En su comunicado Microsoft afirma que al no estar preocupados por el malware “el número de personas que no tienen antivirus o no lo mantienen actualizado supera el 50 por ciento en los mercados desarrolladores y es peor en los mercados emergentes”.

La compañía también ha anunciado que dejarán de vender OneCare “porque protegerán a más consumidores con la solución gratuita”. Por otra parte ha afirmado que los que quieran más características que las que ofrezca Morro tendrán a su disposición alternativas de terceros.

Microsoft ha estado vendiendo Windows Live OneCare por 49,95 dólares anuales, con lo que se cubrían tres ordenadores y se ofrecía una copia de seguridad centralizada y características de optimización, además de las capacidades de seguridad.

Windows Live OneCare se continuará vendiendo para Windows XP y Vista hasta junio de 2009. Morro, que estará disponible para su descarga a través de Internet, funcionará con Windows XP, Windows Vista y el próximo Windows 7.

Intel Centrino 2 vs AMD Puma


AMD lucha por ganar cierta cuota de mercado en portátiles e Intel pretende mantener o superar su liderazgo en un segmento donde Centrino es el rey

Vivimos en un momento convulso en lo económico y político, y desde luego no menos agitado en el ámbito tecnológico. Los PCs de sobremesa tocan definitivamente a su fin y los portátiles se afianzan como la solución preferida por millones de consumidores por precio, tamaño y prestaciones.

Además, en los últimos meses esta tendencia se ha visto reforzada por la llegada de los netbooks o miniportátiles (Asus EeePC, MSI Wind, Acer Aspire one, etc.) y los MID (Mobile Internet Devices), moderna visión de los defenestrados UMPC que por precio y tecnología terminaron quedándose por el camino.

Estos pequeños compañeros de potencia y prestaciones más limitadas, serán los preferidos por muchos usuarios profesionales y residenciales para acceder a Internet, llevar consigo documentos a cualquier parte, gestionar el correo electrónico o irse de vacaciones/fin de semana. Es decir, las tareas que hasta la fecha han venido desempeñando los portátiles.

Esta tendencia es inevitable y mientras los fabricantes están desarrollando procesadores como el Intel Atom para estos nuevos, pequeños y baratos productos, también están trabajando para que los portátiles tradicionales sigan acortando sus distancias respecto a los sobremesas, fundamentalmente en el aspecto gráfico y de potencia de proceso, donde las diferencias aún son notables.

De esta forma el futuro más cercano se presenta bastante claro para los grandes actores del mercado. Intel, por ejemplo, tiene clara la presencia de tres claros segmentos: el de portátiles (multimedia, profesionales o ultraportátiles) para el que busca potencia, el de los netbooks para el que busca portabilidad máxima y bajo precio a costa de renunciar a prestaciones, y los MID para los que buscan un dispositivo de acceso a Internet de bolsillo que cubra las carencias que actualmente tienen en este aspecto incluso los móviles más avanzados.

AMD e Intel, eternos rivales

Como decíamos antes, en el ámbito de los portátiles lo que los usuarios más están demandando es poder olvidarse definitivamente de los clásicos equipos de sobremesa. Los menos exigentes, dedicados a tareas ofimáticas y navegar por Internet, ya lo han conseguido sin muchos problemas. En cambio, los jugones o aquellos que por imagen, audio o vídeo necesitaban prestaciones de alto nivel, sobre todo en el aspecto gráfico, aún requieren algo más.

Aquí es donde entran en acción las nuevas plataformas de AMD e Intel, los dos actores del mercado del PC. En el caso de AMD durante el mes de junio lanzó Puma, nombre en clave de su nueva plataforma para portátiles que, por extraño que parezca, comercialmente no ha recibido ningún nombre concreto.

Tan sólo un nuevo sello identificativo, evolución del ya conocido programa Better By Design que AMD ha venido utilizando en los últimos años. Intel, por su parte, ha tenido que retrasar hasta finales de julio el lanzamiento de Montevina, nombre en clave de la revisada plataforma Centrino 2.

Ambas plataformas han sido lanzadas durante el tercer cuarto de año, esencialmente para encarar la campaña de la vuelta al colegio, pero, sobre todo, la jugosa temporada de navidades. En los dos casos, las promesas de los fabricantes son claras: menor consumo energético para alargar la autonomía de las baterías, mejores prestaciones de proceso y, sobre todo, mayor rendimiento gráfico.

A muchos usuarios estas mejoras quizá les dejen un poco fríos, no obstante, hemos de tener presente que estos avances lograrán mejorar las posibilidades de sistemas como Windows Vista, que, hoy por hoy, devora hasta un 30% más de energía que Windows XP precisamente por sus mejoras visuales. Por ello, cualquier optimización en este aspecto debería ser bien recibida por todos.

Metidos en el Laboratorio

A finales de julio ya tuvimos en el Laboratorio algún prototipo de Puma y Centrino 2, sin embargo, preferimos esperar un poco a sacar conclusiones, pues se trataba de máquinas muy preliminares, donde se apreciaban fallos en controladores o carecían de algunas de las características finales.

En cambio, en septiembre, con máquinas llegando al canal de distribución y que previsiblemente estarán disponibles para cuando esta revista llegue a la calle, podemos presentaros sin miedo a equivocarnos las primeras pruebas exhaustivas de ambas plataformas de las que se extraen interesantes conclusiones.

Hemos trabajando a fondo para valorar prestaciones del procesador, sistema gráfico, consumo energético e incluso disipación de temperatura. Todos esos datos los hemos comparado, por supuesto, con nuestros históricos de pruebas para, de esta forma, tener una visión real de las mejoras y avance que suponen las nuevas soluciones.

Cómo probamos las plataformas
Como base inicial para realizar todas las pruebas, hemos recurrido a nuestro habitual PCMark Vantage, una batería de pruebas de casi 2 horas de duración que analiza de manera exhaustiva diversos apartados y vertientes a los que puede enfrentarse un PC en su día a día.

Para valorar con detalle el aspecto gráfico hemos recurrido a 3DMark 06. A pesar de haberse presentado la nueva versión Vantage, aún preferimos no usarla debido, fundamentalmente, a que sus exigentes pruebas aún se llevan mal con ciertos motores gráficos no demasiado potentes. Además, preferimos poder comparar las cifras obtenidas con las que ya tenemos en nuestra base de datos.

Continuamos con Battery Eater Pro, que mide la autonomía real de un portátil. Los datos que arroja son poco reales, pues se desactivan los ahorros de energía y se obliga a la máquina a generar indefinidamente imágenes en 3D que requieren un gran uso de CPU y GPU. Aun así, es una buena alternativa para comparar consumos.



Por último, hemos capturado las medidas de temperatura gracias a nuestro termómetro láser tras someter al portátil a más de dos horas de ejecución de una demo de altos requerimientos gráficos y de proceso. Así, garantizamos que el procesador, la memoria, la GPU o el disco duro han alcanzado una temperatura estable de trabajo.

Un interfaz cerebro-ordenador permite comunicarse a personas con lesiones cerebrales


El dispositivo lee el pensamiento gracias a un ordenador y a un sofisticado algoritmo

El informático de la universidad británica de Portsmouth Paul Gnanayutham ha creado un interfaz cerebro-máquina que permite manejar un ordenador a personas que tienen una lesión cerebral y son incapaces de hablar o moverse, usando únicamente los pocos sentidos de los que disponen. El dispositivo consiste básicamente en una serie de electrodos que recogen señales cerebrales, oculares o musculares. Después, esas señales son pasadas a un ordenador portátil, que las “lee” y las convierte en movimientos de cursor. El prototipo permite que el cursor se desplace hacia mensajes muy básicos, como “sí”, “no” o “gracias”. Las primeras pruebas ya han demostrado la efectividad de este sistema y varias personas que llevaban meses o años incomunicadas han podido interactuar con los demás. Por Raúl Morales.

La gente que haya sufrido operaciones quirúrgicas traumáticas en el cerebro y que son incapaces de hablar o moverse va a poder comunicarse por primera vez únicamente con el poder de sus pensamientos gracias a un ordenador portátil y a un sofisticado algoritmo.

Este avance ha sido desarrollado por el informático de la Universidad de Portsmouth, en el Reino Unido, Paul Gnanayutham, que ha dedicado gran parte de su carrera profesional a este campo. Aunque su sistema funciona y ya ayuda a varios privilegiados, su trabajo se centra ahora en conseguir la financiación para ponerlo a disposición de la mayor cantidad de gente posible.

El dispositivo usa las ondas cerebrales de los pacientes y los movimientos oculares y musculares para mover el cursor del ordenador portátil. El prototipo ahora presentado permite que el cursor se dirija a objetivos como “sí”, “no”, “gracias”, así como a encender una televisión o navegar por una página de Internet. Esos objetivos pueden ser cambiados en función de lo que la persona quiera hacer, ver o decir.

No es la primera vez que los informáticos encuentran maneras de usar las ondas cerebrales para dirigir el cursor de un ordenador, pero sí que es la primera vez que se usan en casos reales y no sólo en el laboratorio.

“Esta tecnología ya existía, pero muy poca gente lo ha usado para algo útil. He trabajado con personas que han sufrido operaciones cerebrales traumáticas para darles voz y la habilidad de decir “si” o “no” en una pantalla de ordenador”, comenta Gnanayutham en un comunicado.

Ocho meses de trabajo

Aprender a navegar usando los músculos faciales o las ondas cerebrales no es una tarea sencilla. Este informático ha trabajado durante ocho meses con un joven incapaz de comunicarse después de haber sufrido un accidente.

“Los trabajadores de los hospitales cuidan de estas personas, los dan de comer, los lavan, pero no tienen voz. No tienen manera de decir, por ejemplo, que no quieren que apaguen la luz o que no quieren recibir visitas”, dice Gnanayutham.

El sistema no es invasivo y funciona obteniendo pruebas a partir de una cinta con electrodos adosada a la cabeza para captar las ondas cerebrales (electroencefalografía), el movimiento de ojos (electrooculografía) o movimientos musculares (electromiografía). Estas señales alimentan un amplificador que puede “borrar” los sonidos externos y escuchar sólo esas ondas emitidas por la persona que lleva puestos los electrodos. Después, las señales pasan al puerto de serie del ordenador, de tal modo que éste sólo ve la conexión cerebro-cuerpo y el control del cursor.

El sistema, advierte este informático, no puede ser usado con pacientes muy sedados, pero si, por ejemplo, una persona mueve mover sus ojos de izquierda a derecha puede manejar el cursor también de izquierda a derecha. Del mismo modo, si tiene la capacidad de levantar los párpados, puede accionar el cursor de arriba abajo.

En última instancia, si se les enseña a imaginar que sus ondas cerebrales pueden ser “leídas” por un ordenador, serán capaces de aprender a usar el cursor gracias al poder de sus pensamientos. De esta manera, dice Gnanayutham, algunos pacientes han podido comunicarse por primera vez en meses o en años con las personas que les rodean.

Desconectados del mundo

“Estas personas tienen pensamientos y preferencias, como nosotros, sólo que no los pueden comunicar. No pueden decir lo que están pensando y se ven obligados a ver el mundo y, al mismo tiempo, a estar desconectados de él. Todo funciona en sus mentes, pero no pueden dejar salir lo que hay en ellas, lo cual es muy frustrante tanto para ellos como para quienes les cuidan”, dice Gnanayutham.

Es cierto que las opciones de comunicación son todavía muy limitadas, pero es la primera vez que tienen la posibilidad de comunicarse. “El sistema es muy práctico, por lo que puede ser utilizado por cualquiera. No es un experimento de laboratorio, funciona para la gente real; les da la voz”, comenta

Por el momento, Gnanayutham sólo ha fabricado un de estos dispositivos y está siendo utilizado por pacientes con situaciones más extremas. El sueño de este informático es que pueda ser utilizado por cualquier persona gracias a un sencillo manual. “Mucha gente estudia esto en el laboratorio, pero nadie lo pone a disposición de quienes realmente lo necesitan. Quiero que los enfermos puedan usarlo sin la intervención de nadie, sólo entonces habré tenido éxito”.

La NASA prueba con éxito un sistema de comunicación interplanetario similiar a Internet


El protocolo DTN, desarrollado hace 10 años por el vicepresidente de Google Inc., envía información a través de un método distinto al TCP/IP
Podrían darse dificultades cuando una nave se desplace detrás de un planeta o durante las tormentas solares

Ya se ha dado el primer paso para crear un Internet interplanetario. La NASA ha completado con éxito las pruebas de este sistema de comunicación espacial similar a la Red de redes. El pasado mes de octubre, un equipo de ingenieros del Laboratorio de Propulsión a Chorro (JPL, por sus siglas en inglés), de Pasadena (Calif), envió docenas de imágenes espaciales desde y hacia una nave localizada a cerca de 32 millones de kilómetros de la Tierra mediante un 'software' especial llamado DTN.
"Se trata del primer paso para crear una nueva red espacial de comunicaciones, un Internet interplanetario", ha asegurado el director de tecnología y redes espaciales de la NASA en Washington y líder del equipo de investigación, Adrian Hooke.
El protocolo DTN, desarrollado hace diez años por el vicepresidente de Google Inc. Vint Cerf, envía información a través de un método distinto que usa el "Internet común", el TCP/IP. Este nuevo sistema de comunicación debería solucionar las demoras, alteraciones y las desconexiones en el espacio.
Aún así, podrían darse dificultades cuando una nave se desplace detrás de un planeta o durante las tormentas solares. Estos retrasos en el envío o recibo de datos desde Marte podrían ser de entre 3,45 y veinte minutos a velocidad de la luz, aunque no se plantea la posibilidad de sufrir desconexiones. Al contrario del sistema de Internet, el DTN no descarta la información en caso de no hallar un destinatario o nódulo: la mantiene hasta encontrarlo.

Turbo Pascal cumple 25 años


Para aquellos que estamos relacionados al mundo de la programación desde hace años, no podemos olvidar aquellos lenguajes con los que aprendimos a realizar nuestros primeros programas.

El caso de Turbo Pascal es uno de ellos. Muchos dieron sus primeros pasos en este mundo utilizando Turbo Pascal, un IDE que funcionaba bajo MS-DOS y que permitía generar aplicaciones bajo este ambiente.

Durante este mes se celebra el aniversario número 25 de Turbo Pascal, siendo más específicos un 20 de Noviembre de 1983 Borland liberó Turbo Pascal 1.0.

Su facilidad de uso y su programación limpia lo convirtieron en el lenguaje ideal para aquellos que daban sus primeros pasos en la programación.

En lo personal recuerdo mis primeros programas realizados en Turbo Pascal, sería interesante que nuestros lectores nos contaran sus historias con este lenguaje.

LCDs más eficientes para el 2009


Para muchos el futuro de las pantallas planas viene de la mano de la tecnología OLED, sus ventajas sobre los actuales LCD los hace un candidato ideal para ser su reemplazante.

Pero esto no quiere decir que la tecnología LCD va a morir, ya que existen empresas que actualmente se encuentran investigando diversas mejoras que pueden ser introducidas a los actuales LCD.

Es el caso de la compañía Funai, que ha desarrollado una pantalla LCD que no requiere utilizar una fuente de iluminación en la parte posterior del panel LCD. Con lo anterior se lograrían pantallas con un consumo de sólo un 1% de lo que actualmente consume un panel LCD. Para lograrlo la empresa ha desarrollado una capa que cambia de color cuando se le aplica una corriente eléctrica.

Junto con disminuir el consumo la tecnología desarrollada por Funai permite que las pantallas posean una reflectividad del 80%, por lo que pueden ser vistas incluso bajo la luz directa del sol y por si fuera poco, su costo de fabricación es menor al costo que actualmente poseen los paneles LCD.

Se espera que ya el próximo año veamos las primeras pantallas fabricadas con esta tecnología, claro que por el momento sólo han construido paneles con tamaños de entre siete y 14 pulgadas.

Google hará teléfonos móviles junto con la japonesa NTT Docomo


El nuevo sistema operativo de Google para teléfonos móviles, Android

TOKIO (AFP) — La mayor compañía de telecomunicaciones móviles de Japón, NTT Docomo, aliada con Google para prestar algunos servicios desde hace varios meses, anunció el miércoles que van a desarrollar conjuntamente, con terceros fabricantes, uno o varios teléfonos móviles de aquí a mediados de 2009.

"Trabajamos con Google y vamos a diseñar terminales basados en el sistema de explotación Android con varios socios", declaró a la AFP un portavoz de NTT Docomo. "Estamos actuando para poder lanzar este tipo de teléfono en la primavera o el verano de 2009". El pasado mes de enero, NTT Docomo y Google sellaron una gran alianza que concierne cuatro terrenos.

La integración del motor de búsqueda Google en el portal móvil NTT DoCoMo, la inclusión progresiva de otras apliaciones de Google en la plataforma de servicios 'i-mode' de NTT DoCoMo, la creación de nuevas herramientas de mercadotecnia y el codesarrollo de teléfonos basados en el sistema de explotación móvil Android.

Microsoft da el pistoletazo de salida a la 'Nueva Experiencia Xbox'


Microsoft ha estrenado su servicio de avatares.
Han renovado completamente la interfaz gráfica de la consola.
Se estrena la herramienta de creación de avatares.
También han inaugurado el servicio de alquiler de películas.

El 19 de noviembre, Microsoft inaugura en su consola Xbox 360 lo que han decidido llamar 'Nueva Experiencia Xbox', un lavado de cara de la imagen de la consola en el que destacan la nueva interfaz, una herramienta de creación de avatares y el servicio de alquiler de películas.

Microsoft divide la experiencia en varios apartados:
Xbox LIVE Party: Xbox 360 permite crear una fiesta virtual en tu televisión con un máximo de siete amigos. Con LIVE Party, el usuario puede participar en chats de voz mientras juega y comparte fotos en tiempo real con jugadores de todo el mundo.
Imagen personalizada: Ahora es posible crear un avatar animado y personalizable que aparecerá en el mundo de Xbox LIVE. El avatar representa al jugador y le permite participar directamente tanto en un LIVE Party como en una partida a Scene It? Grandes Éxitos de Taquilla o en los chats.
Sala recreativa: Xbox LIVE Arcade permite jugar a juegos clásicos como Pac-Man, Galaga o el más reciente Portal: Still Alive, junto a títulos pensados para poner a los avatares en acción, como Bomberman LIVE o UNO.
Juegos por y para la comunidad: Estarán disponibles al público miles de juegos desarrollados por la comunidad creativa. El canal de Juegos de la Comunidad de Xbox LIVE incluirá juegos realizados por todo tipo de usuarios y serán exclusivos para Xbox LIVE.
Acceder a Xbox LIVE desde cualquier ordenador: Los usuarios de Xbox LIVE podrán acceder al Bazar desde cualquier ordenador a través de Xbox.com. De este modo, se podrá navegar a través de todo el contenido de Xbox LIVE, ver las últimas novedades, observar el estado de la cuenta personal, comprar Puntos Microsoft y ordenar descargar contenidos.
Alquiler de películas: El Bazar de Vídeo de Xbox LIVE ofrecerá un amplio catálogo de películas en alta definición, incluyendo grandes éxitos de Hollywood y algunas de las películas españolas más conocidas. Entre los primeros títulos se citan Sweeney Todd, No es País para Viejos o Las Crónicas de Spiderwick entree otras.

Además, a finales de este mes de noviembre Xbox 360 vivirá otro momento importante de su existencia: la cifra de consolas Xbox 360 vendidas en todo el mundo alcanzará los 25 millones, superando así el número total de consolas vendidas en toda la vida de la primera Xbox.

lunes, 17 de noviembre de 2008

Flash para 64 bits llega primero a Linux


Los papeles se han cambiado dramáticamente. Ahora es linux el primero en recibir soporte Flash para 64 bits, antes que Windows y Mac e incluso Solaris. El software libre ha ayudado a Linux a ser el sistema con más soporte para 64 bits del momento, gracias a que los controladores y aplicaciones pueden ser compilados por las distribuciones sin las molestias de licencias o patentes. El 'plugin' de Flash ha sido una de las limitantes pues solo existe en 32 bits lo que obliga a usar Firefox de 32bits. Gnash ha sido una opción para estos sistemas aunque un tanto incompleta. En la Adobe Max Conference anunciara y entregara la primera alpha de su versión 64bits de Flash 10 así como una demostración de Flash corriendo en un 'smart phone'. Adobe espera dar soporte a Windows y Mac muy pronto

miércoles, 12 de noviembre de 2008

Se confirma Windows 7 para navidad de 2009


Microsoft ha confirmado en una conferencia de prensa que Windows 7 será lanzado comercialmente tres años después de Windows Vista; es decir, a fines de 2009. Aunque la compañía anteriormente ha dado a entender que el lanzamiento de Windows 7 sería a fines de 2009, esta es la primera vez que lo confirma oficialmente.

Doug Howe, director de producto en Microsoft, comentó que "el enfoque navideño del próximo año estará en Windows 7", confirmando además que Windows 7 y Windows Server 2008 R2 comparten la misma base de código.

La versión pre-beta de Windows 7 llegó hace tiempo a las redes de intercambio ilegal. En los foros sobre el tema se coincide en que el próximo sistema operativo de Microsoft ha impresionado positivamente, de una forma que Windows Vista nunca alcanzó.


Entre otras cosas, ha sorprendido sobremanera el interfaz táctil y las avanzadas funciones del escritorio de Windows 7. el próximo sistema operativo de Microsoft incorpora soporte para la totalidad de los formatos usados en redes de intercambio.

El sistema operativo traerá pre instalados, y posiblemente con actualización automática, los codecs de DivX, Xvid y h.264 (el formato usado para la visualización de películas en iPod). En términos de audio, Windows 7 incorporará soporte para AAC, haciendo innecesaria la instalación de iTunes u otro software. Esto llama la atención debido a que es el formato usado por Apple en iTunes y en los reproductores iPod/iPhone.

La excepción serán los archivos con protección anti copia AAC comercializados mediante el sitio de iTunes, que sólo podrán ser ejecutados en esa plataforma. Sin embargo, los archivos comprados con el logotipo de iTunes Plus no tienen protección anticopia, por lo que pueden ser ejecutados sin inconvenientes en Windows Media Player, si el usuario lo prefiere.

Microsoft explica su decisión de incorporar soporte directo señalando que los codecs independientes encontrados en Internet contienen a menudo software espía, y en el peor de los casos, virus informáticos. Esto potencia el riesgo de epidemias ocasionadas por el intercambio de material audiovisual infectado.

Asimismo, el usuario tiene poco control con qué versión está usando, con lo que corren el riesgo de tener una versión antigua incompatible con la película o la música que desean reproducir.

No es la primera vez que Microsoft decide incorporar formatos populares en el mundo de la piratería, por razones de seguridad. De hecho, la consola Xbox 360 incorpora soporte para Xvid/Divx

Google incorpora el videochat a Gmail


El servicio de correo del buscador, Gmail, estrena las funciones de chat y vídeo
Madrid. (EFECOM).- El operador de internet Google ha incorporado a su servicio de correo electrónico Gmail las funciones de chat y vídeo, lo que permite hablar con los contactos y verlos simultáneamente.

Para utilizar esta nueva función, el usuario tiene que tener una webcam y acceder a un programa de navegación desde el propio correo.

Según informó Google para utilizar el servicio basta con abrir Gmail e iniciar una sesión de chat. Entonces aparecerá un pequeño icono verde junto al nombre de la persona con la que se contacta, que indica que está conectado por vídeo.

Se hace clic en el menú "vídeo y más" situado en la parte inferior de la ventana de Gmail y se selecciona "empezar videochat".

martes, 11 de noviembre de 2008

Lanzamiento de Adobe CS4


Hace unos días nos invitaron al lanzamiento de toda la suite CS4 de Adobe que abarca los ya conocidos software como Phosotshop, Flash, After Effects y demases.

La reunión fue para mostrar los cambios y mejoras en los programas, donde si bien algunos fueron más de estética o para solucionar quejas puntuales, otros se han visto alterados a niveles gigantescos que implican casi aprender el programa de nuevo.

Para un resumen amigable, sigan leyendo.


De lo que nos compete, podemos centrar los cambios a Photoshop, After Effect, Premiere y Flash.

En general todo ahora consta de una integración mucho más profunda para procesadores de 64 bits lo que hace que corra mucho más rápido, y una integración entre programas más completa, corrigiendo problemas como no poder importar cosas desde un programa con todas sus capas disponibles y teniendo que perder tiempo corrigiendo detalles o rehaciendo las cosas que se quedaron en el camino de la importación. Además, Adobe está sumamente enfocado en facilitar todo lo que sea metadata, dando campos para su introducción en todos los programas audiovisuales y de edición.

After Effects sigue básicamente intacto, siendo parte de sus mejoras una mejor integración con Photoshop, permitiendo una integración completa de lo que son las capas 3D.

Sin duda el cambio más fuerte no viene dentro del programa, sino que en su exportación. Adobe ha anunciado que irá con todo para jubilar los formatos fla y swf para reemplazarlos con una nueva variante llamada XFL. Para esto han trabajado extra duro en una integración fácil y completa de Flash y After Effects, permitiendo por ejemplo, hacer todos los trabajos, efectos y animaciones en AE, exportarlos en XFL para que cuando Flash los importe, sean respetadas todas las lineas de tiempo y efectos en la nueva interfaz de flash que discutiremos más abajo. Sin duda será un salvavidas de tiempo, contando en la presentación que el feedback de estudios señalaba que mejoras como esta les reducían en semanas los tiempos de trabajo.

Sobre Photoshop podemos hablar de muchas mejoras puntuales y unas cuantas novedades gigantes. En lo que se ha mejorado bastante es la integración con los elementos 3D, permitiendo pintar directamente sobre los archivos importados sin romper el 3D para luego remandarlo al programa de su elección. Igual de bienvenidas son mejoras que ayudan a hacer más cómodo el flujo de trabajo como una mejora al sistema de Zoom, que se convierte en progresivo (como ocurre con cámaras digitales) en vez del tradicional zoom-absoluto-instantaneo de toda la vida. y una nueva opción para rotar el lienzo en forma más amigable para aquellos que necesitan alterar su punto de vista pero sin tener que rotar todo el proyecto.

Son mejoras que pueden parecer un tanto abstractas pero cuando se ven en movimiento sin duda serán agradecidas por diseñadores y aficionados por igual.

Sin duda lo que se robó los aplausos fue el nuevo sistema de escalado inteligente que traerá esta versión, para el cual pediré prestado un vido del equipo de Lynda, donde gracias a un nuevo algoritmo, tienen unas pautas sobre que cólores de pixeles no tocar cuando se escala una imagen, con parametros como el comparar bloques de píxeles iguales con píxeles color piel, como podría ser una foto en el mar y evitando que el escalado afecte la figura humana mientras que todo el resto se agranda o achica de acuerdo a nuestras necesidades.

Premiere viene hartas mejoras, algunas enfocadas a segmentos bastante específicos y otras que todos disfrutarán. Premiere se ha convertido (según Adobe) en el programa de video con mayor compatibilidad del mercado, añadiendo soporta nativo para formatos de cámara sin cintas como AVCHD, P2, XDCAM EX y HD sin tener que pasar por ningún proceso previo de lectura o decodificación.

Pero sin duda la mayor sorpresa hará que todos los equipos de Fansubs del mundo chillen de entusiasmo como colegialas, pues CS4 traer una funcionalidad de lectura e interpretación de voz, básicamente un OCR de audio y que estará disponibles en 12 idiomas. El mayor beneficio será sin duda las transcripciones de texto, pues el video dará una interpretación del sonido (con factores como modulación y ruido obviamente) y uno podrá ir rellenando y editando lo que sobre o esté errado.

De todas los programas, sin duda Flash fue el más alterado. De partida, todos los que se peinen en Action Script 2, pueden parar de leer esto y vayan a aprender AS 3 si quieren usar CS4 pues ahora todo se mueve bajo este lenguaje. Descontando esto y el nuevo soporte al formato XFL mencionado arriba, el cambio más fuerte se ve en lo que es animación, donde ahora todas las animaciones son enfocadas hacia el objeto y dejando de lado el tradicional sistema de animación global con la linea de tiempo. Esto hace bastante más navegable los proyectos pues cada animación ira en cada objeto, permitiendo borrarlos de las escena y linea de tiempo sin por eso perder todas sus características ya que están guardados en la biblioteca, permitiendo de la misma forma introducir el mismo objeto muchas veces sin tener que repetir cada vez la animación o terminar con una linea de tiempo interminable hacia abajo.

Visualmente Flash ahora es mucho más parecido a After Effects, tomando prestado de esta herramienta muchas opciones como un editor de movimientos en curvas y posibilidad de animación en 3D mucho más rica, sencilla y rápida que en versiones anteriores.

Y para terminar, quiza lo que más le sirva a los animadores, Adobe ha decidido responder a la amenaza de softwares como Toon boom studio añadiendo un sistema de huesos al programa, permitiendo animar de forma mu-chi-si-mo más fluida y rápida los clips de película que componen los elementos a animar.

Dentro de todo, Adobe Cs4 viene bastante sólido en cualquiera de sus programas en forma independiente pero sin duda esta versión aspira a crear una sensación de fuerza en los números, dando a entender de que todo el potencial de cada programa sólo es alcanzable en conjunción a otros softwares de esta suite.

Alerta: virus informático en el programa AVG


Desde hace unos días el antivirus viene detectando a un tal "Trojan Horse PSW.Banker4.APSA" que posiblemente sea, no un troyano como parece serlo, sino una falsa alarma del AVG
En algunas computadoras el programa anti-virus AVG 8.0 free Edition está recibiendo desde hace ya varios días, un “Trojan Horse PSW.Banker4.APSA que aunque parece un troyano, sería una falsa alarma.

Según se supo, y aunque se está recopilando información, se dice que el Ad-Aware lo elinima, pero no es cierto. También se dice que el SpyBot lo elimina y también es mentira.

Por ahora solo queda poner "Ignorar" cuando AVG lo detecta ya que al borrarlo o eliminarlo los archivos "user32.dll" o el "user.exe" la cosa se complica, al punto que Windows deja de funcionar.

Por lo tanto, cuidado, precaución, y a no borrar o eliminar nada a menos que se este muy seguro de lo que se va a hacer.

lunes, 10 de noviembre de 2008

Dell SP2309: Un nuevo monitor ultra-widescreen


Hace algunos días comentábamos el extraño monitor 2342BWX de Samsung y su aún más extraña resolución de 2048×1152 píxeles, y hoy parece que Dell se sumará a la fiesta con su SP2309, con exactamente la misma resolución y tamaño de 23″ que su hermano oriental, pero sin modelo incluida.

Sus especificaciones incluyen un contraste dinámico de 80.000 : 1 (tómenselo con escepticismo), 2 milisegundos de tiempo de respuesta, rango cromático del 98% y cámara de 2 MP. Sus entradas de video cuentan DVI, VGA y HDMI.

Esta delicia del trabajo de ofimática se empezará a vender en el sitio de Dell Canadá con un precio de USD$420 en las próximas semanas.

YouTube podría transmitir películas completas


Los directivos del sitio negocian con los grandes estudios de Hollywood para comenzar a hacerlo en breve. Buscan alimentar los ingresos publicitarios
El fenómeno YouTube podría crecer aún más si se confirman los rumores acerca de que comenzarían a emitir películas completas.

De acuerdo a CNET, los responsables de Google están negociando con los grandes estudios de cine para incorporar algunas de sus producciones al popular sitio de videos.

De confirmarse esto, YouTube se encontraría en una posición importante para competir con Hulu.com, sitio que domina el sector.

La intención de los directivos de YouTube es generar más ingresos publicitarios. Además de las campañas de AdWords -anuncios de Google-, esperan insertar publicidad en las películas que se emitan dentro del sitio.

Si bien numerosas cadenas de televisión alrededor del mundo entablaron demandas contra YouTube por la difusión de material con copyright, la creciente de popularidad del video online está obligándolas a cambiar la manera de mirar a la empresa de Google.

sábado, 8 de noviembre de 2008

El celular del futuro según Nokia

Se llama Nokia 888, es un concepto totalmente innovador de como serán los celulares de la marca, mirando hacia un futuro no muy lejano.Las ganas para tener uno de estos nos sobrepasan e imaginas las millones de funciones que pueda llegar a tener.


jueves, 6 de noviembre de 2008

Un USB diez veces más rápido que el actual


En pocos días la industria revelará los detalles de la próxima generación de USB, la 3.0. Sus principales características
Entre el 17 y el 18 de noviembre se llevará a cabo la SuperSpeed USB Developer Conference, en San José, California. Allí se podrá escuchar por primera vez los detalles de la nueva generación de USB, de boca de sus creadores.

Hablamos del USB 3.0, la próxima generación del estándar de conexión de alta velocidad que empezará a verse en 2009. Su principal característica es que ofrecerá una velocidad en la transmisión de datos diez veces superior a la actual. Se pasará entonces de los 480Mbps actuales a 4,8Gbps.

Intel, una de las empresas que ayudó a desarrollar este estándar, puso como ejemplo que transferir a un dispositivo una película HD de 27GB tomará 70 segundos con USB 3.0. En la actualidad, hacer lo mismo tomaría 15 minutos.

Por otro lado, los cables del USB 3.0 son más gruesos, lo que permitirá soportar más equipos en un mismo HUB y cargarlos más velozmente.

Otro de los puntos destacables es que utilizará electricidad centralizada inteligente. Así no se desperdiciará energía, como sucede con el estándar USB 2.0.

El USB 3.0 será completamente compatible con USB 2.0.

Entre las compañía que respaldan la nueva especificación ya se sabe que figuran Hewlett Packard, Intel, NEC, NXP Semiconductors, Microsoft y Texas Instruments. Recién a mediados de 2009 o comienzos de 2010 se podrá acceder a esta tecnología.

PAQUETE DE COMPATIBILIDAD DE MICROSOFT OFFICE


Office 2007 supuso varios saltos con respecto a las versiones anteriores de la conocida suite ofimática de Microsoft. Uno de ellos consistió en la adopción de nuevos formatos, una medida impopular que dificultó la migración a la última versión de Word, Powerpoint y Excel, los tres programas más usados.


Previendo el problema, Microsoft lanzó el Paquete de compatibilidad de Office, una serie de modificaciones para Office 2000, XP o 2003 que permiten abrir ficheros DOCX, XLSX y PPTX sin dificultad. El paquete de compatibilidad de Office incluye también las nuevas tipografías de Microsoft, como Calibri, Candara y Cambria.

Con el Paquete de compatibilidad de Office 2007 los usuarios de otras versiones ya no tendrán excusas para abrir los nuevos documentos.

Paquete de compatibilidad de Office soporta los siguientes formatos:
DOCX, XLSX, PPTX

Para utilizar Paquete de compatibilidad de Office necesitas:
Sistema operativo: Win95/98/98SE/Me/2000/NT/XP/2003/Vista

Requisitos mínimos:
Espacio libre en disco: 150 MB
Se requiere Microsoft Office 2000, XP o 2003

http://rapidshare.com/files/153567898/compatibilidad2007.rar

martes, 4 de noviembre de 2008

Que es un Webmaster


En una página pequeña, el Webmaster será típicamente el dueño, diseñador, desarrollador y programador, además de actuar como el encargado en la redacción, edición y publicación del contenido. En sitios más grandes, las funciones del Webmaster serán mayores, actuando este como coordinador y supervisor de las actividades de todos los integrantes que colaboran con él. En ocasiones es también un empleado del dueño del sitio web, por lo que, en virtud de lo antes mencionado, podemos considerar al Webmaster como aquella persona que puede ejercer solo una ocupación dentro del proyecto.

A menudo se usa la dirección de correo electrónico del webmaster como forma de contacto con el sitio, con webmaster@ejemplo.com usado comúnmente en la parte final de cada página web.


Estudios y habilidades

La labor de un Webmaster es multidisciplinar debido a la gran cantidad de tareas que realiza y a la complejidad de las habilidades para ejecutarlas, por lo que es muy importante una capacitación constante. Sin embargo hay algunos puntos básicos que un Webmaster debería conocer para realizar mejor su trabajo.

Es común que un Webmaster sea alguien con formación técnica, de perfil tecnológico, como ingenieros o licenciados en computación, ciencias informáticas, cibernética, telecomunicaciones, mecatrónica o mecánica, y sin embargo no es un requisito.

Un Webmaster debe tener habilidades de análisis de problemas, capacidad para razonamiento abstracto, proyección a futuro y resolución de problemas. No es necesaria una gran habilidad matemática pero es muy útil tener cierta habilidad para el análisis de procesos.

Para un Webmaster es importante desarrollar sus habilidades de redacción e incluso las de diseño gráfico, de organización del tiempo, el dominio del inglés (que es el lenguaje de trabajo en la Web de facto) y las relaciones personales: por lo general un Webmaster tiene que relacionarse con muchas personas.

Hay ciertos conocimientos que son básicos para un Webmaster, como:
Conocimiento del Lenguaje de Marcado de Hipertexto (HTML).
Debe de hacer el uso y aplicación de los estándares propuestos por la W3C como lo son: XHTML y CSS
Conocimiento de protocolos de Internet (FTP, POP, SMTP, HTTP como mínimo).
Principios de programación en algún lenguaje para CGI (Perl, Python, PHP, ASP o Ruby, por ejemplo).
Manipulación de imágenes digitales.
Utilización del correo electrónico.
Configuración básica del servidor Web (Apache, Tomcat, IIS, etc.).

Dependiendo del rol que juegue, se especializará en un área en particular o deberá ir adquiriendo pericia en algunas de siguientes tareas:
Administración y configuración de servidores (Linux, Solaris, Windows Server, etc).
Administración de la seguridad (firewalls).
Conocimiento del funcionamiento del conjunto de protocolos de la suite TCP/IP.
Programación de aplicaciones (en Perl, PHP, Java, Python, ASP, .NET, etc.)
Administración y diseño de bases de datos (MySQL, PostgreSQL, Oracle, etc.)
Diseño gráfico y animaciones (con las herramientas de su preferencia).
Coordinación de proyectos de desarrollo.
Elaboración de estrategias de mercado.
Redacción de políticas y procedimientos para su área.
Habilidades de redacción de contenido para sitios Web.

Código de ética

Un Webmaster debe:
Respetar los sitios web ajenos y nunca intentar crackear o estropear la web de otro webmaster.
Mostrar respeto a la profesión como industria con honestidad y cortesía, para merecer una reputación de alta calidad de servicio y de trato justo.
Incrementar la base de conocimiento de la profesión a través del estudio constante y de compartir este conocimiento con otros colegas.
Construir una relación constante de confianza y buena voluntad con el público usuario y sus empleadores con equilibrio, mesura y cooperación constructiva.
Llevar una conducta laboral de la manera más ética y competente posible cuando se solicite un servicio profesional o busque empleo, en honor a su conocimiento e integridad.
Aceptar nuestra parte de responsabilidad en un servicio constructivo a la comunidad, estado o nación y a la comunidad global.
Proteger la propiedad intelectual de otros confiando en el esfuerzo propio y en sus capacidades de innovación, asegurando así que los beneficios conceden con su autor.
Esforzarse en lograr y expresar un carácter sincero que enriquecerá sus contactos humanos, apuntando siempre hacia ése ideal,
Trabajar siempre con su grupo de desarrollo y coordinar las miras de la empresa.

Día Internacional del Webmaster

El Día Internacional del Webmaster se celebra el 25 de septiembre de cada año