jueves, 20 de noviembre de 2008

La NASA probó con éxito un tipo de Internet en el espacio

Enviaron imágenes desde y hacia una nave que se encuentra a más de 32 millones de kilómetros de la Tierra gracias a una red similar a la Web.
Wi-fi intergaláctica podría llamarse. Es lo último en comunicaciones en el espacio y fue probada con éxito por la NASA.

Según un informe del Laboratorio de Propulsión a Chorro (JPL, por sus siglas en inglés) de la NASA, sus ingenieros usaron en octubre un software especial para transmitir docenas de imágenes hacia y desde una nave que se encuentra a más de 32 millones de kilómetros de la Tierra gracias a una red de comunicaciones diseñada siguiendo el modelo de Internet.

Para ello, los ingenieros de JPL recurrieron a la red "Deep Space Network" de la NASA utilizando como enlace a la sonda Epoxi que se desplaza a un encuentro del cometa Hartley que sucederá dentro de dos años.

"Este es el primer paso hacia la creación de una capacidad de comunicaciones del espacio totalmente nueva, una Internet Interplanetaria", manifestó Adrian Hooke, director de tecnología y redes espaciales de la NASA en Washington.

La transmisión se basa en el software llamado "Disruption-Tolerant Networking" (Red de Tolerancia Disruptiva o DTN, por sus siglas en inglés), cuyo protocolo fue desarrollado hace diez años, según informó JPL en un comunicado.

La DTN envía información utilizando un método diferente a los protocolos que usa Internet, pero siguiendo su modelo. Esta "web" interplanetaria debe ser lo suficientemente robusta como para resolver demoras, alteraciones y desconexiones en el espacio.

Al igual que Internet en la Tierra, esta red puede tener problemas de transmisión, por ejemplo cuando una nave espacial pasa detrás de un planeta y se interrumpe el contacto o cuando las comunicaciones se ven alteradas por las tormentas solares.

Una demora en recibir o enviar datos desde Marte, por ejemplo, puede ser de entre 3,5 y 20 minutos a la velocidad de la luz. Pero, al contrario del sistema de Internet, no plantea la posibilidad de una desconexión. En su diseño, si no puede encontrar un destinatario, o lo que JPL califica como "un nódulo", la información no se descarta y la mantiene hasta encontrarlo.

"En esta red interplanetaria inicial hay 10 nódulos", indicó Scott Burleigh, ingeniero de JPL. "Uno de ellos es Epoxi y los otros nueve, que están en JPL, representan a los vehículos en Marte, los orbitadores y los centros de control de operaciones en Tierra", añadió.

Para explicar el sistema JPL utiliza la analogía del básquetbol y señala que es como el jugador que pasa la pelota al compañero que se encuentra más cerca de la canasta."En última instancia, la información será entregada al usuario", agrega.

viernes, 14 de noviembre de 2008

Nueve consejos prácticos sobre Video Digital

Para aquellos que se interesan por la tecnología y las infinitas posibilidades que ella ofrece, y aún no sabiendo por dónde comenzar, aquí una guía para orientar a los principiantes en la producción de sus propios filmes.



1.- ¿Cómo paso mis videos de la cámara a la computadora?
Es preciso tener un hardware (placa interna o dispositivo externo) equipado con conexiones de video analógica y digital. Para efectuar una captura en la computadora, es preciso utilizar un software que reconozca ese hardware. Con esos dos componentes, basta escoger la opción de captura, hacer las combinaciones de entrada de videos y formatos (AVI, MPEG1, MPEG2, etc.) y entonces iniciar una conversión de video VHS, S-VHS o DVD para la computadora.

2.- ¿Por qué necesito de un hardware de captura?
El hardware es el que hace la conexión entre un video-cassette o una video cámara y la computadora. La placa o dispositivo externo ayuda a preservar la calidad cuando es necesario convertir el video analógico en digital.

3.- ¿Puedo pasar a un iPod los videos que grabe con mi cámara digital? Sí, siempre y cuando el usuario utilice soluciones que permitan hacer estas conversiones. En este caso, utilizando, por ejemplo, el software Pinnacle Studio 11, es posible transformar el video digital en un formato MPEG4, compatible con iPod o Playstation portátil (PSP), así como PDA’s y teléfonos celulares que reproducen videos.

4.- Los videos que hice con mi celular… ¿puedo editarlos en la computadora?
Sí, sólo es preciso que el software de edición acepte el formato del celular, que en la mayoría de los casos es 3GP (MPEG4 de baja compresión y calidad). El programa Pinnacle Studio 11 también acepta esos formatos.

5.- ¿Como hago para publicar mis videos en You Tube?¿Qué otros sitios brindan ese servicio?
En You Tube el servicio para compartir videos es gratuito y basta que el usuario se registre para enviar videos en formato AVI, que él mismo se encarga de convertir al formato de visualización del sitio. Los sitios MySpace, Videolog TV, Yahoo! Video, Google Video también ofrecen servicios similares.

6.- ¿Es posible agregar efectos especiales a mi película casera? ¿E Insertar una banda sonora?
Sí. Hoy, inclusive, la inserción de efectos es mucho más rápida y fácil que hace algunos años, cuando este tipo de trabajo era hecho en modo analógico con la utilización de tres VHS. Utilizando un programa de edición como Pinnacle Studio 11, es posible colocar títulos, leyendas, música, efectos 2D y 3D, hacer cámara lenta y dejar imágenes en blanco y negro. Esas posibilidades de manipulación son una de las mayores ventajas del video digital, hoy en día.

7.- Tengo en casa varias cintas VHS antiguas y me gustaría transformarlas en DVD. ¿Puedo hacer eso en casa?
Sí, siempre y cuando tengas una computadora con los requisitos necesarios. Es preciso tener un hardware y un software de captura de video y una computadora con los requisitos mínimos pedidos por el fabricante para que funcione esa función. Por ejemplo, Dazzle DVD Recorder proporciona una forma sencilla, asequible y rápida para guardar rápidamente sus videos domésticos en DVD que podrá compartir con la familia y los amigos. Asimismo, Dazzle Video Creator Platinum proporciona una forma rápida y sencilla de grabar los videos domésticos con la mayor calidad. Permite convertirlos directamente a formato DVD o transformarlos en películas antes de archivarlos en DVD o de pasarlos a dispositivos portátiles.

8.- Me gustaría grabar programas de TV en la PC, como si fuese un video cassette digital. ¿Existe alguna aplicación fácil y accesible para eso?
Sí. Pinnacle ofrece una línea completa de productos llamada PCTV. Los productos de la misma permiten asistir y grabar imágenes tanto de TV abierta como de TV por cable. Además de eso, dependiendo de la versión del software incluida en el producto, es posible capturar en formatos para iPod, PSP y MPEG2.

9.-¿Cuál debe ser la configuración mínima de mi computadora para poder hacer una captura de video?
Esa cuestión depende del formato de video que desea capturar. Si tomamos como ejemplo el formato MPEG2, uno de los mas utilizados, el ideal sería trabajar con procesadores (CPUs) con capacidad de 2.4 Ghz, pues la conversión para MPEG2 utiliza muchos recursos de la máquina para poder ser ejecutada en tiempo real. Para capturar en formato MPEG1, un procesador de 1.5 Ghz será más que suficiente.

Es preciso comprender que por estar compuesto de imágenes en movimiento y audio, el video es uno de los tipos de archivos que más potencia demanda de una PC. Como referencia es preciso contar con aproximadamente 12 GB de espacio en disco para almacenar 1 hora de video en formato AVI digital (DV). Por lo tanto para hacer funcionar un archivo de ese tamaño y editar y manipular éste, será necesario tener una PC con una configuración de excelente desempeño. Entonces, partiendo del formato más utilizado, que es MPEG2, podemos
ejemplificar las características necesarias:

- Procesador Pentium 4 de 2.4GHz (de preferencia HT) o AMD equivalente
- 512MB o 1GB de memoria RAM
- Placa VGA (de vídeo) de 128MB
- Disco rígido de 80GB para vídeo (captura y almacenamiento)
- Quemador de CD o DVD
- Mother Board con buen desempeño de Chipset. (Intel, Nforce2 o Via)
- Windows XP con Service Pack 2 instalado


* Sergio Correa es Country Manager de México para Pinnacle Systems.

45 consejos para diseñar un buen logotipo

El diseño de logotipos es, indudablemente, una de las ramas del diseño más importantes y valorables. Un logotipo de calidad, en combinación con la imagen de marca de una organización o compañía, puede incluso llegar a convertirse en una poderosa influencia a escala social. He aquí un listado de 45 consejos para diseñar un buen logotipo.

-No use nunca más de 3 colores.

-Deshágase de todo aquello que no resulte absolutamente necesario. La simplicidad es la clave cuando se trata de logotipos.

-Elija una fuente tipográfica que pueda leer incluso su abuela.

-Procure que el logotipo sea fácil de reconocer y familiarizarse con él.
Cree una única forma o diseño general para el logotipo.

-Ignore completamente lo que sus padres y/o pareja opinen sobre su diseño.

-Confirme que el logotipo resulte atractivo al menos para 3 o mas personas distintas.

-No combine y reutilice elementos de otros logotipos populares y pretenda hacerlo pasar por un trabajo original.

-No se le ocurra utilizar cliparts bajo ninguna circunstancia.

-El logotipo deberá verse bien en blanco y negro.


-Compruebe que el logotipo sigue siendo reconocible cuando invierta los colores.

-Compruebe que el logotipo permanece reconocible cuando cambie sus dimensiones.

-Si el logotipo incluye algún icono o símbolo además de texto, colóquelos de manera que cada uno complemente al otro.

-Evite copiar y seguir las tendencias recientes en cuanto a logotipos. En su lugar, procure diseñar un logotipo que pueda resistir el paso del tiempo o que tenga un look atemporal.

-No use efectos especiales (como por ejemplo: degradados, sombras paralelas, reflejos y destellos de luz).

-Haga encajar el logotipo dentro de un marco cuadrado o rectangular si es posible y evite los diseños oscuros.

-Evite detalles intrincados.

-Tenga en cuenta en su diseño los diferentes lugares y maneras en que se presentará el logotipo.

-Trate de provocar sentimientos de audacia y seguridad, nunca aburrimiento ni debilidad.

-Sea consciente que no va a diseñar un logotipo perfecto, es imposible.
Use líneas atrevidas para negocios dinámicos y mas suaves para el resto.

-El logo debe tener alguna conexión con lo que representa.
Una foto no es un logo.

-Tiene que sorprender a los clientes cuando se lo presente.
No use mas de dos fuentes tipográficas.

-Cada elemento del logo necesita estar alineado. Izquierda, derecha, centrado, arriba o abajo.

-El logotipo ha de transmitir solidez y equilibrio, sin elementos que agreguen inestabilidad visual al mismo.

-Antes de comenzar a desarrollar ideas para el logotipo, piense un poco en los destinatarios a quién va dirigido.

-Siempre anteponga funcionalidad a innovación.

-Si el nombre de la marca es memorable, el nombre de la marca debería ser el logotipo.

-El logotipo debe seguir siendo reconocible cuando lo ponga frente a un espejo.

-Incluso las grandes compañías necesitan logotipos pequeños, tenga esto siempre presente.

-Debe de gustar a todo el mundo, no solo a un nicho concreto.

-Cree variaciones. Cuantas mas variaciones haga del mismo logotipo, mas se acercará al resultado que busca.

-Mantener la coherencia cuando se vea el logotipo en distintas plataformas.

-El logotipo ha de ser sencillo de describir.

-No utilice slogans o taglines en el logotipo

-Plasme algunas ideas en papel antes de empezar a trabajar delante de la computadora.

-Mantenga el diseño simple y limpio.

-No use en el logotipo símbolos del tipo “swoosh” (cómo el logo de nike) ni “globos terráqueos”, están demasiado vistos. Aparecen en infinidad de logotipos y se ha abusado tanto de ellos que lo único que conseguirá es un logo poco original y cansino.

-El logo no debería distraer la atención de otros elementos.

-Debe ser honesto en lo que representa.

-El logotipo ha de ser visualmente equilibrado.

-Evite los colores brillantes, neón, y también colores oscuros y aburridos.

-El logotipo debe respetar todas las reglas anteriores.
(Fuente: Tanner Christensen)

Las grandes innovaciones tecnológicas de 2008

La revista Popular Mechanics presentó su nueva lista anual de productos con los avances tecnológicos más importantes del 2008. Los ganadores incluyen tecnologías que permiten leer libros en un pequeño dispositivo digital, o ver alrededor del auto mientras se estaciona, o explorar el espacio exterior con la imaginación. A continuación, sólo algunos de los dispositivos destacados por la publicación.

Kindle de Amazon. El lector de libros aparece en la lista porque permite un acceso de alta velocidad para que los usuarios puedan libros rápidamente, desde casi cualquier lugar.


Livescribe Pulse Smartpen. El bolígrafo inteligente utiliza un micrófono integrado y un revolucionario método para registrar y recuperar el audio. El dispositivo graba el audio que el usuario escucha mientras toma apuntes. Si uno no entiende sus propias notas, selecciona la palabra y la lapicera reproduce el audio en el momento preciso en que se escribió la palabra.



Craftsman Nextec Multi-Saw. Sierra eléctrica flexible, portátil y versátil, lo que le permite trabajar en espacios incómodos.



Potenco PCG. Dispositivo que al tirar de un cordón genera energía que puede ser utilizada para cargar portátiles o gadgets.



Procesador Intel Atom. Además de ser una maravilla de la miniaturización), el procesador Atom es brillantemente eficaz, con una potencia de especificaciones que van desde por debajo de 1 vatio a 2,5 vatios.



Around View de Nissan. Es un sistema de estacionamiento que permite a un conductor ver en 360 grados alrededor del coche. Otros sistemas de aparcamiento mostrar sólo lo que está detrás del automóvil.



Milwaukee M-Specto. Cámara portátil que inspecciona los espacios de más difícil acceso. Es útil para una amplia variedad de profesiones.



Spore de Electronic Arts. Para la publicación, su importancia radica en la exitosa fusión de ciencia y tecnología dentro de un videojuego. No se basa en caracteres de existencias almacenadas en una biblioteca de animaciones ya que el software utiliza la lógica para que las creaciones de los jugadores puedan interactuar espontáneamente.



Para ver todos los productos, acceda aquí a la lista completa.

Por Universia Tech

miércoles, 3 de septiembre de 2008

Google lanza su bomba: Chrome



Con un día de adelanto sobre el calendario previsto, debido en parte a las filtraciones publicadas en Internet, Google, la empresa responsable del buscador más popular de la Red, acaba de lanzar la versión de pruebas de su nuevo navegador Chrome. El navegador es la aplicación necesaria para visualizar páginas web en los sistemas informáticos y Chrome surge como la respuesta de Google para mejorar la experiencia de navegación en Internet. Este sistema competirá cara a cara con los navegadores más utilizados, como Internet Explorer de Microsoft, Firefox de Mozilla o Safari de Apple.

"Los cambios producidos en Internet nos han hecho entender que era necesario ofrecer nuestra propuesta", asegura Hugo Barra, director de productos de Google y responsable de la presentación del sistema en España. "Los contenidos en Internet evolucionan mucho más rápido que los nevegadores y por ello muchos ofrecen problemas a la hora de ejecutar o visualizar contenidos complejos, como vídeos, animaciones o gráficos. Es necesario que entre todos desarrollemos aplicaciones que puedan amoldarse fácilmente a lo que vaya surgiendo", aclara Barra, animando al desarrollo de aplicaciones de código abierto. Este responsable no oculta que Chrome está elaborado sobre la base de lo establecido en WebKit, la plataforma de desarrollo en la que están presentes también Mozilla y Apple. Además, en Chrome, Google ha incorporado muchas de las aplicaciones que actualmente están presentes en el buscador u otros servicios de la compañía.

Chrome nace para ser más estable, rápido e intuitivo que las otras propuestas en navegadores. Sus bazas para conseguirlo se centran en la mejora de los sistemas de búsqueda, el desarrollo de un motor (V8 en JavaScript) ligero y veloz y la compatibilidad entre sistemas, algo que se consigue en parte gracias a su desarrollo sobre código abierto.

"El hecho de que muchas páginas web no funcionen bien en navegadores como Firefox o Safiri, o incluso en Chrome, es debido a que no utilizan sistemas de código abierto", argumenta Barra.

Código abierto

Google ha unificado en Chrome la barra de direcciones y la del buscador, por lo que desde el mismo lugar el usuario puede teclear una dirección web o una palabra para su búsqueda. Además, han añadido la funcionalidad Google Suggest, que sugiere criterios de búsqueda al introducir sólo unas pocas letras de una palabra. También han realizado un esfuerzo importante en la mejora del Historial de navegación, para que los usuarios puedan encontrar rápidamente páginas que ya visitaron.

Su navegador se presenta como una aplicación de código abierto, cuyas principales ventajas se centran en la velocidad de navegación, la facilidad de uso y la estabilidad.

La respuesta de Google en el terreno de los navegadores surge pocos días después de que Microsoft presentara la versión de pruebas de su navegador Internet Explorer 8 y dos mes y medio después de que Mozilla lanzará la tercera versión de su navegador Firefox. Actualmente, esta guerra entre navegadores sitúa a Explorer con un 72% de cuota de mercado, a Firefox con el 20% y a Safari con el 6,4%. Aunque existen otras alternativas desarrolladas también en código abierto.

La versión de pruebas que se distribuye puede resultar muy sencilla para muchos usuarios y Google no oculta que sólo es el inicio de una estrategia centrada en la creación de aplicaciones on-line. "El objetivo de Google es crear aplicaciones que funcionen totalmente en la web", finaliza Barra.

Aunque Chrome está desarrollado para funcionar en los principales sistemas operativos, la versión de prueba disponible de momento sólo es compatible con Windows, aunque está disponible en 40 idiomas.

Novedades no tan novedosas

Más velocidad


Chrome promete ser entre 5 y 10 veces más rápido que Firefox 3 y hasta 100 veces más rápido que Explorer 7, al menos en lo que a operaciones JavaScript se refiere, con su nuevo motor V8.

Estabilidad

Consigue que cada pestaña funcione de forma independiente, por lo que el fallo en una de ellas no obliga a cerrar todo el navegador. Así, es posible cerrar una ventana de forma aislada e incluso administrar todas las pestañas y plug-ins abiertos.

Búsquedas mejoradas

Chrome unifica la barra de direcciones y la de búsqueda en una sola barra, por lo que es posible introducir una palabra o una dirección web y el sistema lo identifica automáticamente. Además, sugiere términos en las búsquedas y ofrece autocompletado. De este modo se mejora la búsqueda de páginas que ya se han consultado.

Historial al minuto


El usuario podrá revisar todo su historial de navegación organizado de forma minutada.

Modo 'de incógnito'

Chrome permite la navegación sin rastro. Si el usuario activa esta opción podrá navegar sin que se almacenen en el ordenador las páginas web visitadas, las búsquedas realizadas, ni ningún dato personal.

Pestañas avanzadas


Google ha recogido también el sistema de pestañas que están presentes en los demás navegadores. Las ha situado en la parte superior de la ventana para aprovechar al máximo la visión del contenido. Permite su agrupación y su arrastre de forma gráfica para formar grupos.

Una página de inicio diferente


Cuando el usuario abre una nueva pestaña en Chrome puede ver una página que recoge instantáneas de los sitios más visitados, las búsquedas más recientes y los marcadores del usuario.

Código abierto


El código de Chrome está disponible para la comunidad de desarrolladores. "Hemos creado Chrome basándonos en otros proyectos de software libre y lo lógico es devolverlo a la comunidad", aclara Linus Upson, director de ingeniería de Google.

De Publico.es

viernes, 29 de agosto de 2008

Descubren el “santo grial” de la computación óptica


De cara al futuro, la computación óptica es una de las tecnologías consideradas como un reemplazo de alta velocidad a la tradicional computación basada en electricidad. Si bien la computación cuántica es considerada por muchos como el futuro más probable de la informática, la computación óptica es más factible en el futuro cercano.
Los componentes de computación óptica ya han sido llevados a la realidad con los servicios ópticos disponibles en ciertas partes de EE.UU. para computación de alta velocidad. Sin embargo, dispositivos más exóticos, tales como el almacenamiento basado en luz o las CPUs compuestas por transistores luminosos, son necesarios para construir una computadora ciento por ciento óptica, pero por ahora se mantienen en el reino de la conjetura.

Un importante descubrimiento en computación óptica podría llevar esos exóticos dispositivos más cerca de la realidad. Investigadores de la Universidad de California Berkley desarrollaron un método novedoso para comprimir la luz en espacios extremadamente pequeños. Anteriormente, los investigadores consiguieron que la luz cupiera en espacios tan pequeños como 200 nm; 400 veces más chicos que el grosor de un cabello humano. Este tamaño ayuda a dictar las dimensiones de las fibras ópticas más pequeñas, las cuales por varias razones son aproximadamente cinco veces este ancho, o sea, 1 µm (micrómetro) de ancho.

Con el nuevo hallazgo, los investigadores consiguieron achicar la luz para que cupiera en un espacio de apenas 10 nm, es decir, 20 veces menos de lo que se había logrado anteriormente. Tal espacio es apenas cinco veces el ancho de una pieza individual de DNA; un tamaño al que hasta el momento se creía imposible achicar la luz. Rupert Oulton, investigador asociado en el grupo conducido por el profesor en ingeniería mecánica Xiang Zhang, comentó acerca del hallazgo: “esta técnica puede darnos un gran control sobre la luz, y eso posibilitaría cosas sorprendentes para el futuro, en términos de lo que podríamos hacer con esa luz”.

Oulton teoriza que el avance puede derivar en logros clave, debido a las propiedades de la electricidad y el magnetismo. Para lograr una computadora óptica, se necesitarían al menos algunos componentes eléctricos. Sin embargo, la gran diferencia de escalas entre electricidad y luz implica que ambas no interactúan o se comportan de formas similares. El científico cree que comprimiendo la luz hasta longitudes de onda similares al tamaño de los electrones de las computadoras tradicionales se podrían lograr numerosos avances.

El problema clave es que la luz no cabe en espacios tan pequeños normalmente. Por eso Oulton desarrolló una nueva estrategia: un sistema óptico “híbrido” que consiste de un cable semiconductor colocado muy próximo a una placa de plata muy delgada y lisa. Normalmente, la luz debería viajar por debajo del centro del cable. Pero en el nuevo diseño, la luz viaja a través de la pequeñísima brecha entre el semiconductor y el metal. Esto arroja una onda de luz de tamaño muy similar a las ondas plasmónicas superficiales, pero con una longevidad cercana a la de las ondas normales. Estas minúsculas ondas de luz pueden llegar 100 veces más lejos que las más avanzadas ondas plasmónicas superficiales.

Según el profesor Zhang, la estrategia ofrece lo mejor de ambos mundos, en términos de tamaño versus distancia de propagación. Oulton cree que la investigación es un gran paso para conquistar el mayor desafío de la computación óptica: lograr la unidad entre luz y electricidad. “Estamos empujando a la óptica hasta escalas de onda del tamaño de electrones, y eso significa que potencialmente podemos hacer cosas que nunca antes hemos hecho”, opinó el científico.

Una computadora detecta emociones colectivas y potencia los equipos



El laboratorio nacional Sandia, en Estados Unidos, ha desarrollado una computadora capaz de registrar las emociones de las personas. Su finalidad es vigilar el estado emocional de un equipo para ayudar a los miembros que lo integran a controlar sus reacciones emotivas y al directivo a orientar mejor un grupo de trabajo.

De esta forma se consigue, mediante una computadora personal, dirigir una reunión de varias personas controlando en todo momento la concentración de los participantes, así como supervisar las críticas decisiones que deben tomar sobre los campos de batalla los mandos militares, que son muchas veces presa del miedo o la angustia.

En un sentido más práctico, esta computadora es capaz de advertir a una persona que está hablando demasiado en una reunión o indicar a los demás miembros de su equipo que alguien tiene algo importante que decir.

Tal como explica el laboratorio Sandia en un comunicado, el proyecto se llama Personal Assistance Link (PAL) y consiste en un sistema de percepción de las emociones a través de sensores adheridos al cuerpo que miden en todo momento el pulso y el ritmo de la respiración.

Una cámara y un micrófono completan el “input” de este programa, ya que registran las expresiones del rostro y las entonaciones de voz para combinar esta información con los datos de los sensores y componer un estado emocional preciso de la persona analizada.

El resultado es un “antroposcopio” que puede conocer en tiempo real si una persona está nerviosa o tranquila, estresada, desconcentrada o alterada, a través de una computadora debidamente equipada. La información puede ser transmitida al interesado, al equipo del que está participando o a ambos.

El inventor de este programa se llama Peter Merkle y ha diseñado un juego de computadora basado en una idea del novelista Tom Clancy, que detecta las emociones de los distintos jugadores y las comunica a todos ellos, que de esta forma pueden valerse del estado emocional de sus competidores para obtener ventajas en la puntuación.

Sin embargo, la principal finalidad de este programa es mejorar el trabajo en equipo. Los primeros resultados de las aplicaciones experimentales son muy satisfactorios: los voluntarios que participaron en estas pruebas mejoraron sus capacidades, se optimizó el tiempo de las reuniones y el trabajo en equipo resultó mucho más efectivo.

La demanda experimentada por los primeros prototipos evidencia el interés del mercado por este producto. Por ejemplo, un equipo capaz de obtener estos resultados fue construido en sólo 71 días para la empresa MindTel, utilizando únicamente un ordenador personal, un programa de reconocimiento facial y algunos sensores.

La vocación industrial de este producto se desprende también de la naturaleza del laboratorio Sandia, que depende de la empresa Lockheed Martin, especializada en investigaciones de vanguardia que abarcan desde la electrónica a lo nuclear. Unos 200.000 dólares se han invertido hasta ahora en el proyecto.

Los artífices de esta computadora sostienen que estamos al inicio de un proceso tecnológico que, combinando elementos mecánicos con la psicología y los sentimientos humanos, puede ayudarnos a entender mejor la complejidad personal y a mejorar las relaciones sociales e interpersonales.

De hecho, el PAL puede mejorarse con una serie de tecnologías que ya están operativas y que miden la actividad muscular, el pulso cardiaco, la presión sanguínea, el nivel de oxígeno en la sangre, la intensidad de la respiración, sin olvidar los programas de reconocimiento facial.

Sólo algunos de ellos se han integrado de momento en este proyecto, pero las posibilidades de perfeccionarlo con estos recursos está abierta de cara al futuro. Este año se experimentará con cuatro personas que registrarán hasta 128 sensores diferentes, en un intento de explorar nuevas posibilidades.

¿Quiere eso decir que la máquina humana es más predecible cuanta más información se procese sobre sus diferentes estados? Los creadores de PAL son más bien modestos: no se consideran reduccionistas y señalan que esta tecnología sólo ayuda a mejorar relaciones sobre la base del estudio de los estados emocionales reflejados por las personas

Por Universia Tech

martes, 19 de agosto de 2008

Guardar información no es un capricho de una mente diabólica


Por Ignacio Pan (Infobae.com)Alberto Arébalos, director de comunicaciones de Google, explicó qué hace el megabuscador con los datos de los usuarios que utilizan sus herramientas

“El problema es pensar que tenemos el nombre y el apellido de una persona”, disparó Arébalos durante un encuentro con la prensa en donde se analizó de manera profunda la política de privacidad de Google, buscador que canaliza el 85% de las búsquedas que hacen los argentinos en la web.

En palabras de Arébalos, “la privacidad cobra cada vez más importancia”. ¿Por qué? De manera cotidiana, los usuarios de internet le confían información personal a compañías en la web pero pocas veces –o nunca- se detienen a leer las políticas de privacidad… esos extensos documentos en letra chica que aceptamos sin siquiera saber qué dicen.

Incluso, la Justicia de los EEUU obligó a las empresas de ese país a ubicar en su página de inicio un apartado sobre las políticas de privacidad. Así, Google modificó su tradicional carátula y ahora se puede clickear sobre Privacidad para conocer esa información.

Guardar información no es un capricho de una mente diabólica"

Alberto Arébalos, director de comunicaciones de Google, explicó qué hace el megabuscador con los datos de los usuarios que utilizan sus herramientas

Permite, por ejemplo, mejorar el servicio. Ayuda a crear datos y estadísticas, incluso en nuestras herramientas públicas”, dice Arébalos y pone como ejemplo el sistema de publicidad de la empresa y el riesgo al “fraude de los clicks”.

Qué guarda Google
Según lo explicado por Arébalos, la empresa almacena:
*La dirección IP desde donde se conecta el usuario
*La fecha de la consulta realizada
*La o las palabras consultadas
*El navegador (browser) utilizado
*El sistema operativo
*La cookie, un archivo de seguimiento de actividad de la persona que el sitio descarga en la PC del usuario

Por ejemplo, cuando una persona ingresa la palabra “automóviles” en el motor de búsqueda, la solicitud es enviada desde la computadora de ese usuario a través de internet a las computadoras de Google, que buscan los resultados acertados para la búsqueda.

Una vez que los equipos de la empresa hayan encontrado los resultados, los envían de regreso a la computadora del usuario en milisegundos.

“Al igual que prácticamente todos los sitios en la web, nosotros mantenemos estos registros de acceso (logs) en nuestros registros”, indicó la empresa.

Así se ve un registro de acceso en Google:
el URL solicitado, incluyendo la consulta en la búsqueda
la fecha y la hora de la consulta
Dirección en el Protocolo de Internet asignada al usuario por el ISP del usuario
123.45.67.89 - 25/Mar/2007 10:15:32 - http://www.google.com/search?q=cars-
Firefox 2.0.0.7; Windows NT 5.1 - 740674ce2123e969
el cookie ID único que se le asignó a esta computadora específica la primera vez que accedió a Google
el browser y el sistema operativo que se está utilizando

“Es importante anotar que las direcciones IP y los cookies no pueden, de por sí solos, identificar a las personas. No nos dicen ni donde vive alguien ni de quién se trata. De hecho, algunos proveedores de servicios de internet les asignan a los usuarios una dirección IP diferente cada vez que ingresan a la web. En el mejor de los casos, todo lo que podría saber Google a partir de una dirección IP es su ubicación general (por ejemplo, Londres). Es únicamente el proveedor de servicios, que de hecho controla la cuenta del usuario, el que puede cotejar a la persona con la dirección IP”, indicó la empresa.

Esa información se almacena por 18 meses y se elimina de manera permanente los últimos dos dígitos de la dirección IP y “asignamos, al azar, un nuevo número de cookie. Esto rompe el vínculo entre la consulta de búsqueda y el browser a partir del cual ingresó. Es algo similar a la forma en la que los recibos para las transacciones con tarjeta de crédito reemplazan dígitos con el símbolo para número (#), con el fin de fortalecer la seguridad para el cliente”.

Mejorar el servicio
En la presentación se dieron un par de ejemplos acerca de por qué se almacena cierta información del usuario. “Si fueras a buscar “David Beckam” y Google te preguntara “¿Quieres decir: David Beckham?”, esa característica de corrección en la ortografía es el resultado del análisis de los registros”.

“Aquellas personas que están buscando “Paris Hilton”, ¿están buscando un hotel en Francia o chismes? Un algoritmo no puede proporcionar todas estas respuestas, pero sí puede considerar las búsquedas anteriores que ha hecho una persona, al igual que la navegación (el browsing) que ha hecho antes, se obtiene una certeza mucho mayor de qué es lo que esa persona está buscando, cerrando la brecha entre lo que ha escrito y el resultado que efectivamente desea”, indicaron.

La empresa recalca que “diseña productos para darle el control al usuario” y pone como ejemplo a Web History, herramienta que puede brindar detalles sobre el historial de navegación. “Si una persona no desea que ciertos accesos se almacenen, los puede eliminar. Lo mismo sucede en Google Talk: si los usuarios desean que sus conversaciones sean “extraoficiales”, todo lo que tienen que hacer es un clic en un botón”.

Por Infobae

viernes, 1 de agosto de 2008

Un mouse futurista, de la mano de Microsoft


No todos los días se tiene la oportunidad de ver un diseño de mouse que merezca un segundo vistazo. A pesar de que varias compañías enfocadas en el desarrollo de accesorios para juegos han lanzado mouses especiales con peso ajustable, escaneo de alta precisión y botones adicionales, la mayoría de los mouses se ven sumamente parecidos. Con su nuevo lanzamiento, Microsoft se propuso romper esta tendencia.

Microsoft posee una línea bastante aceptada de accesorios para PC orientados tanto a la productividad como a los juegos. Con el nuevo integrante de esta línea, la empresa se propone ir en una dirección nueva, más radical, presentando un diseño novedoso y diferente.

La empresa lo denomina “Arc mouse”, y se trata de un mouse inalámbrico de forma curvada que es hueco en su parte inferior, permitiendo que se pliegue para adoptar un formato ultra compacto que permite guardarlo en cualquier lado.

“Con un revolucionario nuevo diseño delineado como una luna creciente, Arc se cierra plegándose para reducir su tamaño a casi la mitad, dando a los consumidores el confort de un mouse de tamaño completo y la portabilidad de un mouse de notebook”, señala el comunicado de Microsoft. “Arc busca el costado fashion, con un micro transceptor estilizado que puede dejarse conectado a la computadora y está disponible en dos colores: rojo y negro”.

Si bien el Arc funciona como cualquier otro mouse, es su aspecto lo que realmente se destaca. A simple vista, su diseño lo deja a uno pensando si el mouse se caerá de costado o si tendrá problemas de balance durante el uso. Pero si su diseño demuestra ser práctico y cómodo, es posible que Microsoft haya encontrado el iPod de la industria de los mouses.
Por Universia Tech

¿Se viene una nueva consola Wii?



Los controladores de juegos sensibles al movimiento de la consola Nintendo Wii atrajeron inmediatamente la atención de los jugadores ocasionales hacia las consolas de juegos, dado que nada parecido había estado disponible anteriormente. Ahora Asustek Computer busca reproducir esa experiencia de juegos con su set de controladores Asus Eee Stick GMC-1.

El conjunto Asus Eee Stick GMC-1 consta de dos controladores –uno para cada mano–, además de un conector USB, una guía de inicio rápido y un CD de soporte con drivers, manual y otras herramientas útiles. El dispositivo Eee Stick puede usarse con diversos títulos de software, si bien su uso ideal será como controlador de juegos de tipo “arcade”, suponiendo que pueda calibrarse para cada título en particular.

Hasta el momento no se conoce el precio de venta del producto Asus Eee Stick GMC-1, ni tampoco está claro si Asustek planea venderlo como controlador de juegos por separado, o si será un dispositivo exclusivo vendido junto con PCs de escritorio y portátiles Eee. Ya sea que el fabricante decida incorporar los Eee Stick con placas gráficas o venderlos por separado, los controladores tienen muchas chances de volverse populares. Pero si este producto sólo se entregará junto con las PCs Eee, sus chances de llegar a los jugadores serán mucho menores.
Por Universia Tech

miércoles, 30 de julio de 2008

Crean un sistema para detectar alumnos desatentos


Si en un futuro el número de vocaciones docentes desciende y los candidatos a dar clases escasean, quizá habría que recurrir a robots educadores. En la Universidad de San Diego (EE UU) ya están trabajando en ello, y acaban de resolver un gran problema: hacer que la máquina detecte el aburrimiento de los alumnos por su expresión facial. Tras ser probado con ocho personas, el sistema ha demostrado ser capaz de alertar a la computadora cuándo los alumnos muestran signos de no aguantar más.

"Imagina que soy un estudiante que se encuentra ante un robot profesor y estoy completamente confuso, pero el robot sigue su explicación. Eso no me resultará muy útil. Si en lugar de eso el robot dice 'oh, a lo mejor no has entendido algo' la cosa mejora", explica el responsable de esta investigación, Jacob Whitehill.

No hay que imaginar a androides frente a pizarras virtuales en tres dimensiones para dar con un posible uso de esta herramienta, para la que ya se avanzan usos relacionados con los vídeos educativos. Las películas, con el sistema desarrollado por Whitehill, modularían la velocidad de reproducción automáticamente en función de la cara que pone quien la está visionando.

Se trata de los primeros pasos para la creación de sistemas educativos inteligentes, en los que se busca tanto la creación de algoritmos para que los robots puedan reaccionar a diferentes estados emocionales del alumno como el desarrollo de sistemas que les permitan percibir los sistemas de comunicación más espontáneos.

Por Universia Tech

Seis claves para sobrevivir a los cambios tecnológicos


La tecnología avanza y se modifica a una velocidad de vértigo. Y lo único claro es que el que no se suba al carro se quedará fuera. Lograrlo es resultado de la confluencia de diversos factores - como el talento, la innovación o la socialización, entre otros - que, en definitiva, determinarán el futuro del sector IT de aquí al 2012. Según los autores de esta investigación, lo fundamental para sobrevivir a los cambios del mercado será "traducir esas claves en acción y ser primeros en adaptarse al cambio".

1 - Talento
Es un concepto a redefinir. Parece que será necesario un mayor número de licenciados en ingeniería informática. Y que los que triunfarán son los denominados nativos digitales. Jóvenes que ahora mismo tienen menos de 24 años y se han criado entre Internet y los más modernos gadgets. Son esa generación que no aprendió a usar la Red, sino que nació con ella. Ellos serán los directivos del mañana.

2 - Contexto
¿Cuál será el estado de la cuestión? Los internautas se encontrarán con una red cada vez más humana. Además, su disociación de la computadora jugará un papel fundamental. Las conexiones a través del móvil llegarán incluso a superar al pc en 2010. La consultora estima que habrá 1.200 millones de teléfonos que ofrezcan este servicio. La publicidad segmentada se convertirá en el gran negocio y servicios de internet, operadoras telefónicas, marcas de software y fabricantes de equipamiento lucharán por llevarse su parte.

3 - Global
"En 2015, el origen de la tecnología será irrelevante", explicó Partha Iyengar, vicepresidente de Gartner. La tecnología se ajustará a una demanda global y no local. Y los países de capital emergente llevarán la voz cantante.

4 - Estandarización
Es necesario que un sistema tan amplio y global acabe teniendo el mismo modo de proceder. Existirán modelos estandarizados de compra gestión y entregas de software. Otro punto importante por el que las empresas deberán apostar es la tecnología verde.

5 - Innovación
Será la pieza que realmente determine la supervivencia en esta vorágine digital. El primer paso será girar hacia el cloud computing, tendencia que hace mirar de frente a las plataformas web en la que Google y Amazon entre otros ya tienen la voz cantante y a la que Microsoft o IBM ya se han sumado. El segundo es implantar la tecnología táctil al mayor número de artilugios posibles. El ordenador de HP Touch Smart 1Q500 constituye todo un referente en este campo. Otras aplicaciones como la web semántica también intentarán popularizarse.

6 - Socialización
Qué duda cabe de que ha cambiado de manera considerable desde la aparición de las comunidades virtuales. Los mundos virtuales y el aprendizaje online no sólo han cambiado el modo de relacionarse en el terreno personal, sino también en el ámbito corporativo.


Por Universia Tech

Los aspectos que generan confusión en Windows 7




¿Alguien sabe en qué consiste realmente Windows 7, más allá de las simpáticas pantallas táctiles? Es de esperar que el equipo a cargo de su desarrollo sí lo sepa, pero en todo caso serían los únicos. El problema es que la escasa información sobre el nuevo sistema operativo genera gran cantidad de especulación y confusión. Por eso, en esta nota se analizan cinco aspectos clave sobre Windows 7 que suelen dar lugar a malentendidos.

Windows 7, el sucesor de Windows Vista (y también de Windows Server 2008, en la forma de Windows 7 Server), ha estado en desarrollo bajo el liderazgo de Steven Sinofsky, vicepresidente senior del grupo de ingeniería de Windows y Windows Live de Microsoft, desde 2007. A fines del año pasado, la empresa entregó Windows 7 versión Milestone 1 a un selecto grupo de socios, pero de acuerdo a la política de Sinofsky, muy pocos detalles del nuevo sistema operativo se han hecho públicos o se han dejado filtrar. Es por ello que hay tanta confusión con respecto a diversos aspectos de Windows; confusión que se intenta despejar en esta nota.

1 - El kernel de Windows 7

Luego de jugar a las escondidas con el kernel MinWin, Microsoft se las arregló para crear un nivel consistente de confusión en torno al núcleo del sucesor de Windows Vista. No está claro si Windows 7 incluirá a MinWin o a un nuevo kernel, o si estará basado en el mismo kernel que Vista. La verdad es bastante simple: en primer lugar, nunca se habló de un kernel completamente nuevo, construido desde cero; y MinWin nunca pretendió ser el kernel de Windows 7, sino más bien su núcleo (que no es lo mismo). Esto significa que Microsoft tomó el kernel existente más un conjunto de componentes de núcleo y lo trabajó para “adelgazarlo”.

Lo que está haciendo el gigante de Redmond es básicamente continuar la evolución de Windows Server 2008, en lo que se refiere al núcleo del sistema operativo. El núcleo del sucesor de Vista es una evolución de lo que está disponible hoy, y es una nueva versión principal del kernel; de ahí la etiqueta de Windows 7. Windows Vista fue la sexta versión de Windows, pero Microsoft cuenta según las distintas versiones del kernel, y no según las distintas versiones de Windows.

2 - El mito de la renovación total

Algunos querrían que Windows 7 fuera creado desde cero, argumentando que Microsoft necesita comenzar de nuevo. Tal escenario es algo imposible. Windows 7 no será creado desde cero, simplemente porque no se puede. Imaginemos un Windows 7 completamente nuevo, sin ninguna conexión con ninguna versión anterior de Windows. Nada funcionaría. Ni el software, ni el hardware, nada.

3 - Windows Vista R2

Debido a que Microsoft indicó que Windows 7 usaría a Vista como sus cimientos, las críticas comenzaron a emerger, señalando que el nuevo sistema operativo sería equivalente a Windows Vista Release 2. Nadie (a excepción de Sinofsky y su equipo) sabe qué terminará siendo Windows 7. Quienes le tiran tierra cuando ni siquiera la primera beta está en el horizonte están esperando que Microsoft falle. Las críticas deberán posponerse hasta que una versión palpable de Windows 7 esté en la calle.

4 - Un SKU para controlarlos a todos

El feedback de los usuarios apunta cada vez más a la necesidad de Microsoft de simplificar la multiplicidad de variantes de Windows 7, y de evitar ofrecer el mismo abanico de SKUs que ofreció con Windows Vista. Sin embargo, la compañía de Redmond sabe que un único SKU no es el camino a seguir. Si bien la simplificación es necesaria, copiar el modelo Mac OS X no es una solución correcta para ofrecer un balance para los usuarios hogareños y empresariales. Y aún con Windows Vista, todos los SKUs se entregan en un mismo medio de instalación, estando la instalación real gobernada por la clave de licencia.

5 - El silencio es ensordecedor

El ultimo aspecto malentendido de Windows 7 está del lado contrario de la barricada, para decirlo de alguna manera. El silencio en torno a Windows 7 es ensordecedor. Microsoft se las arregló para ofrecer unos pocos detalles sobre las capacidades de interfaces táctiles que se avecinan, y se supone que dará más detalles en la conferencia de desarrolladores profesionales en octubre de este año.

Por Universia Tech

¿Cómo combatir el exceso de información?



La abundancia de llamadas, correos electrónicos y mensajes de texto está golpeando muy duramente la productividad de los trabajadores. Por eso, algunas de las empresas tecnológicas más importantes del mundo se han unido en la iniciativa “Information Overload Research Group” para estudiar este problema. En la partida están Microsoft, Intel y Google, entre otras, que lo sufren en sus propias carnes.

Es una queja cada vez más extendida. Ahora, algunas de las empresas tecnológicas más grandes del mundo, entre las que se encuentran Microsoft, Intel, Google o IBM se han unido para luchar contra este exceso de información. La semana pasada formaron un grupo sin ánimo de lucro para estudiar este problema y ayudar a los trabajadores a superarlo o a sobrellevarlo. El grupo intentará buscar soluciones tecnológicas y culturales.

Este esfuerzo, llamado “Information Overload Research Group”, viene del hecho constatable estadísticamente de que las mismas herramientas tecnológicas que han propiciado un aumento de la productividad llevan a una baja productividad si se usan profusamente.

El fabricante de chips Intel ha descubierto, en un estudio efectuado a lo largo de ocho meses, que algunos empleados que fueron animados a limitar sus interrupciones digitales aumentaron su productividad y su creatividad.

Según informa el New York Times, la propia Intel y otras empresas están ya experimentando con algunas soluciones. Unidades creadas específicamente animan a los trabajadores a chequear su correo electrónico con menos frecuencia o a mandar mensajes de grupo con más juicio.

Google introdujo hace poco lo que han llamado “E-Mail Addict”, una opción para el servicio de correo electrónico de la empresa que permite a los empleados “coartarse” a ellos mismos de consultar su bandeja de entrada sólo cada 15 minutos.

Esta herramienta es un instrumento abrupto. Haciendo “clic” en el link “Tomate un descanso”, la pantalla se pone en gris y aparece un mensaje en el que se puede leer: “Date un vuelta, trabaja o tómate un snack. Hasta dentro de 15 minutos”.

A Michael Davidson, el ingeniero que tuvo esta idea, se le ocurrió después de hablar con sus amigos sobre su constante tentación de chequear sus mensajes de correo electrónico. En definitiva, es una herramienta que dice al trabajador que no tiene autodisciplina y le ofrece la posibilidad de cerrar su correo durante un rato.

Las empresas tecnológicas se han tenido que unir para “matar” un monstruo que ellos mismos han creado. Un trabajador tipo de una empresa del sector de las tecnologías de la información comprueba su correo electrónico unas 50 veces a lo largo de su jornada laboral, además usa la mensajería instantánea 70, según datos de la empresa Rescue Time, especializada en el análisis de nuestros hábitos frente al ordenador. RescueTime, que ha sacado sus datos estudiando el software en las computadoras de 40.000 personas, también ha descubierto que los trabajadores se detienen en 40 sites a lo largo del día.

Esta fractura en la atención de los trabajadores tiene un costo. Según datos de Basex, sólo en los Estados Unidos, las interrupciones innecesarias cuestan a las empresas 650 mil millones de dólares al año. Esta empresa afirma que la mayor parte de esas pérdidas proviene del tiempo que el trabajador usa en recuperar la atención y volver a su tarea después de cada interrupción.

Lo curioso de todo esto es que las propias empresas que han creado el problema se están dando cuenta de que hay negocio en ayudar a la gente en reducir su “glotonería” digital. Grandes corporaciones de todo el mundo están buscando soluciones para mantener a sus trabajadores alejados de estas distracciones.

En la iniciativa “Information Overload Research Group” también hay algo de campaña de comunicación. Las empresas que forman parte del grupo se niegan a hablar de “bancarrota del e-mail” y responden con firmeza frente a las idea de eliminar este instrumento y volver a empezar. Otro término relativamente nuevo es del “apnea del e-mail”, creado por la escritora Linda Stone, y que se refiere al modo en que la gente se agobia cuando comprueba el volumen de correo que recibe en su bandeja de entrada.

En este sentido, Intel ha iniciado dos experimentos el pasado mes de septiembre con 300 ingenieros y otros empleados de su sede central, en Austin, Texas, y con algunos grupos en Chandler, Arizona. En el primer experimento, los empleados tuvieron cuatro horas los martes por la mañana en las que fueron animados a limitar tanto los contactos digitales como los cara a cara.

Durante esos periodos, se colocaba unas tarjeras en los cubículos de los trabajadores que decían “Tiempo de descanso”. Pasadas unas semanas, los empleados consideraron el sistema demasiado restrictivo. Las tarjeras fueron retiradas y los trabajadores empezaron a usar el correo electrónico, pero con más juicio y siendo más cuidadosos con sus hábitos. Otros, sin embargo, siguieron con el régimen más estricto.

En una encuesta llevada a cabo entre los participantes, tres cuartas partes de éstos consideraron que esta iniciativa debería extenderse al resto de la empresa.

Intel esperaba mucho menos de este experimento, en el que lo que ha quedado claro es que cuando la gente no es interrumpida, se pueden sentar después de descansar y seguir diseñando chips.

En el otro experimento, llamado “Viernes sin e-mail”, la finalidad era animar a los empleados a que los viernes se comunicaran más cara a cara. La idea gustó, pero se siguió usando el correo electrónico porque se consideraba esencial. El 30% de los trabajadores aprobaron la iniciativa y otro 60% recomendó extenderlo al resto de la empresa, pero con modificaciones

Por Universia Tech

viernes, 18 de julio de 2008

¿Cómo serán las pantallas del futuro?



Las computadoras de mañana tendrán un formato muy distinto al que hoy imaginamos. Pero no solo en el tamaño del procesador, sino también en cómo mostrarán la información en los displays o pantallas. Por ejemplo, podremos ver información en una lata de gaseosa, en la pantalla de un velador o en cualquier pared. Y esos monitores serán flexibles y plegables, por lo que podrán llevarse en el bolsillo.

Ver Nota

Por Universia Tech

Google lanza un servicio de medición de ancho de banda




Con el fin de identificar la discriminación de tráfico digital, Google desarrollará una herramienta que indicará a los consumidores la velocidad de su conexión a Internet. Richard Whitt, director jefe de políticas corporativas de Google comentó que esta herramienta fue creada para que los usuarios sepan que ocurre con sus conexiones de banda ancha y puedan reclamar –si así fuera necesario- ciertas irregularidades a sus proveedores de Internet, pero no informó la forma en que esta herramienta funciona ni tampoco su fecha de lanzamiento.

Ver Nota

Por Universia Tech

Cuatro consejos para elegir la memoria de una cámara digital


Hoy, los ya desaparecidos rollos de 36 son reemplazados por memorias con gran capacidad de almacenamiento y calidad de imagen. Pero al momento de elegir una, los usuarios deben tomar en consideración una serie de características, como qué uso se le da a la cámara, si es familiar o más profesional y qué calidad y cantidad de fotografías se quieren almacenar. A continuación, una pequeña guía para que sus clientes puedan reconocer las principales características que deben determinar la decisión.

Ver Nota

Por Uniuversia Tech

Hay que apostar más al talento grupal que al individual



Según el Estudio Global de Capital Humano 2008, realizado por IBM y The Economist Intelligence Unit, las firmas siguen centradas en la conquista del talento individual, cuando lo que diferencia a los líderes es gestionarlo en forma integrada. En efecto, a pesar de que 75% de los entrevistados consideró importante desarrollar el liderazgo de sus ejecutivos, sólo 6% reconoció gestionar el talento de los equipos


Ver Nota


Por Universia Tech

viernes, 4 de julio de 2008

Intel apuesta a WiMAX para expandir el alcance de Internet


Sean Maloney, vicepresidente ejecutivo y gerente general del Grupo de Ventas y Marketing de Intel, dijo que de la mano de procesadores más poderosos y redes inalámbricas WiMAX de alta velocidad, el mundo llegará a una nueva era de Internet total en dispositivos móviles: computación móvil, conectada e individual. Lo hizo al inaugurar la feria tecnológica Computex, celebrada en Taipei.

“La convergencia de las computadoras portátiles, la banda ancha inalámbrica WiMAX y poderosas tecnologías de cómputo enriquecidas con alta definición (HD) apuntan a una oportunidad de crecimiento enorme —señaló Sean Maloney, vicepresidente ejecutivo y gerente general del Grupo de Ventas y Marketing de Intel, en la feria tecnológica Computex, celebrada en Taipei (Taiwan)—. Los individuos (no los hogares) darán origen a la próxima era de crecimiento donde las personas poseerán uno o más dispositivos de cómputo. Las personas tienen un deseo innato de estar ‘conectadas’ todo el tiempo y ven la tecnología móvil personalizada como la forma de satisfacer esa necesidad”.

Intel fue la encargada de abrir el encuentro, que aprovechó también para presentar los nuevos chipsets que van a mejorar el entretenimiento en alta definición y las capacidades de almacenamiento en PCs de escritorio.

Con la aparición de la nueva categoría de “netbooks” este año, Intel piensa que en el 2008 se van a vender más dispositivos informáticos portátiles que ordenadores de escritorio. En este marco, Navin Shenoy, vicepresidente del Grupo de Ventas y Marketing y director general en la región de Asia Pacífico de Intel y Noury Al-Kahledy, director general de informática para “nettops” y “netbooks” en el Grupo de Plataformas Móviles de Intel, presentaron el procesador Intel Atom, conocido hasta la fecha con el nombre de código “Diamondville”.

Maloney también afirmó que el acceso ubicuo e inalámbrico a Internet resulta necesario para extender y hacer aún más móvil el uso actual de Internet que se precisa para realizar tareas como, por ejemplo, la creación y visualización de vídeos, la participación en juegos y la distribución de fotografías. El vicepresidente ejecutivo de Intel comentó que la tecnología WiMAX móvil va a permitir el disfrute de una era de Internet abierta, rápida y móvil, una época que progresa rápidamente y que va a dejar una huella beneficiosa a escala mundial. En este sentido, la compañía Informa Telecoms estima que las operadoras ya están desplegando más de 281 redes WiMAX fijas o móviles en estos momentos.

“La tecnología móvil WiMAX es la solución más adecuada que ya se encuentra a disposición de los usuarios —agregó Maloney—. Las redes inalámbricas van a ser las más utilizadas para conectar a los usuarios, y deben tener capacidad para ofrecer todos los servicios que puede proporcionar la Web 2.0. Esto significa que resulta esencial contar con un gran ancho de banda para permitir el envío de datos a altas velocidades desde o hacia los dispositivos”.

Intel está desarrollando una solución integrada WiMAX/Wi-Fi, con nombre de código Echo Peak, que estará disponible como una opción para varios portátiles basados en la tecnología de procesador Intel Centrino 2. El objetivo de la compañía es permitir la disponibilidad inicial en varios portátiles con WiMAX en los Estados Unidos en la segunda mitad del año, dependiendo de los planes de los fabricantes y la disponibilidad de redes WiMAX, que se espera crezca durante el año 2009.

Chii-ming Yiin, Ministro de Asuntos Económicos de Taiwán, también ofreció a la audiencia un discurso a través de video, manifestando que la tecnología WiMAX representa la próxima oportunidad de crecimiento comercial para el sector tecnológico de Taiwán, gracias a la capacidad del país asiático para contar con compañías locales especializadas en hardware, servicios e infraestructuras de red encargadas de desarrollar soluciones WiMAX completas que pueden ser utilizadas en todo el mundo.


Por Universia Tech



Las empresas, centros educativos, organismos gubernamentales y otras organizaciones por todo el mundo están migrando sus equipos a Linux, dejando a un lado las soluciones de Microsoft a un ritmo cada vez mayor. ¿Cuáles son los motivos? Ingrese a la nota y conózcalos.

1 - Debido a que está licenciado bajo licencia GPL, GNU/Linux (así como todo el software libre) está disponible sin ningún costo. Puede ser descargado de Internet de forma gratuita, y puede ser adquirido en formato CD o DVD con un coste muy trivial. Una copia puede ser utilizada en tantas PCs como queramos sin restricciones.

2 - Debido a que es software libre, GNU/Linux también es gratuito ya que cualquiera está autorizado a modificar, incluso su código fuente, de cualquier forma deseada. Si las versiones modificadas no son re-distribuidas, los cambios pueden mantenerse en secreto. Esto también choca bastante con Microsoft Windows, ya que las modificaciones no están permitidas. El código fuente es la versión original de un programa tal y como lo haya escrito un programador usando un lenguaje de programación y antes de ser compilado de forma que sus instrucciones puedan ser entendidas directamente por una computadora. Por lo que es necesario tener el código fuente para poder realizar cambios en un determinado programa. Esta capacidad de experimentar con el código fuente, y hacerlo sin necesidad de dar a conocer las modificaciones a terceros ha sido muy importante para un gran número de organizaciones.
3 - GNU/Linux cuenta con un soporte de alta calidad disponible de forma gratuita a través de Internet, en grupos de noticias y foros. Algunas personas afirman que este soporte es al menos tan bueno como en el software privativo, que además funciona, evidentemente, pagando. Este sistema puede adquirirse si se desea de forma comercial. Existen empresas que basan su negocio del software libre en negocio de servicios, dando soporte de instalación de aplicaciones, parches para hacer frente a nuevas amenazas de seguridad y parches para arreglar bugs descubiertos recientemente. En GNU/Linux estos 2 últimos son relativamente infrecuentes.

4 - Hay muy pocas posibilidades de que el soporte técnico para algún sistema GNU/Linux se elimine porque el software haya quedado obsoleto o por cualquier otro motivo. Esto se debe a que el código fuente estará siempre disponible para cualquier persona que lo desee, incluidas aquellas personas que prestan dicho soporte de forma gratuita en Internet y también para las empresas que basan su negocio en los servicios. Por el contrario, en el caso de los programas privativos cuyo código fuente es mantenido en secreto, la obtención de soporte técnico se complica si la compañía que lo vende decide retirar el software con el fin de tratar de obligar al usuario a pagar por la nueva versión, por ejemplo.

5 - No existe ningún temor a que las aplicaciones se queden obsoletas con GNU/Linux. Esto se debe a que la arquitectura UNIX en la que se basan ha sido exhaustivamente probada y refinada durante más de 35 años y ha demostrado ser extremadamente eficaz, robusta y segura. Las mejoras se realizan a un ritmo rápido, pero las nuevas versiones siguen siendo compatibles con la arquitectura UNIX subyacente.

6 - No hay actualizaciones obligatorias para los usuarios de GNU/Linux. Esto se debe a que las versiones antiguas siguen siendo soportadas (por ejemplo, con el desarrollo de nuevos parches de seguridad y controladores de dispositivo) y porque las nuevas versiones, si así lo desean, están disponibles de forma gratuita y suelen ser compatibles con versiones anteriores. Los desarrolladores de software propietario, sin embargo, tienen fuertes incentivos financieros para planificar el que una determinada versión quede obsoleta. Su objetivo será inducir a los usuarios de versiones anteriores a gastar dinero para comprar o actualizar a las nuevas versiones.

7 - En caso de que un usuario decida actualizar a una versión más reciente de GNU/Linux, no hay derechos de licencia de software u otros gastos si el usuario selecciona una distribución libre. Por otra parte, la formación, modificaciones, adquisición de hardware y otros costos relacionados con una actualización a una nueva versión son también relativamente bajos debido a la compatibilidad con versiones anteriores.

8 - GNU/Linux no tiene complicados requisitos para hacer cumplir las licencias. En una empresa con cientos o miles de PCs, será necesario tener a un gran número de personal solo para asegurarnos de que todos los ordenadores esten cumpliendo con las complejas condiciones de autorización de uso (EULAs) para Microsoft Windows, Microsoft Office y otras aplicaciones propietarias. Con GNU/Linux no hay temor a auditorias sorpresa con posibles sanciones por violación de licencias.

9 - GNU/Linux es mucho más seguro con una muy baja tasa de infección por virus, troyanos, gusanos, software espía y otros códigos maliciosos. Esto se debe a que UNIX y todos sus descendientes (incluyendo GNU/Linux) fueron diseñados desde un principio con la seguridad en mente, en lugar de tratar de parchear graves fallos de seguridad cuando ya es demasiado tarde. Por ejemplo, los usuarios no acostumbran a usar el sistema con permisos de administración, a fin de proteger los principales archivos del sistema. Incluso en el caso de la existencia de un código malicioso, este no poseería permisos suficientes para hacer mucho daño. Además un sólido firewall se incluye en las principales distribuciones y es activado por defecto. Otro factor a tener en cuenta es la libre disponibilidad del código fuente, lo que permite a miles de personas de todo el mundo poder buscar vulnerabilidades de seguridad.

10 - GNU/Linux es altamente resistente a los fallos de sistema y raramente necesita reiniciar. Esto puede ser muy importante para las grandes organizaciones para las que unos minutos de tiempo de inactividad puede suponer un coste sustancial. La razón es que GNU/Linux ha sido diseñado desde cero para ser un sistema operativo estable y robusto, incorporando todo lo aprendido en 35 años de historia de UNIX.

11 - Aunque el número y la variedad de programas para GNU/Linux aún no es tan grande como para el sistema operativo de Microsoft, ya existe una extensa selección que aumenta continuamente y cada vez más rápido a medida que más desarrolladores empiezan a crear programas para GNU/Linux. La mayoría de programas para GNU/Linux también son software libre y muchos de ellos tienen las mismas características y rinden igual o mejor que las ya existentes para Microsoft Windows. De hecho, los usuarios se encuentran a menudo con que todas las aplicaciones que necesitan están disponibles gratuitamente en Internet y que ya no necesitan comprar ningún software comercial.

12 - Existe una numerosa variedad de distribuciones GNU/Linux (varios cientos), cada una con su propio conjunto único de características, pero básicamente todas compatibles entre sí. Esto permite a los usuarios seleccionar las versiones que mejor respondan a sus necesidades específicas. También significa que, si un distribuidor de GNU/Linux dejará de operar, todavía habría muchos otros para elegir. Por otra parte, fomenta una sana competencia entre ellas, contribuyendo así a la mejora continuada de la calidad y el rendimiento de GNU/Linux. La elección parece abrumadora pero por lo general es difícil cometer un error seleccionando una de las más populares, como Red Hat, Suse o Ubuntu.



13 - GNU/Linux cuenta con un alto grado de flexibilidad de configuración. Se puede lograr una alta personalización muy fácilmente y sin tener que modificar el código fuente. Es muy sencillo configurar GNU/Linux durante la instalación y optimizarlo para su uso como estación de trabajo, ordenador de escritorio, ordenador portátil, servidor web, servidor de base de datos, etc. Del mismo modo el aspecto y el comportamiento del escritorio, incluyendo iconos y menús puede ser configurado con un numero casi infinito de posibilidades y formas. Incluso puede hacerse parecido a Windows... Si esto no fuera suficiente, la capacidad de libre acceso al código fuente permite un grado de personalización "ilimitado".

14 - GNU/Linux utiliza formatos abiertos y estándares. Estos son aquellos que se ajustan a las normas de la industria y que pueden ser utilizados por cualquier desarrollador de software para crear programas compatibles. Es el caso de los formatos para el procesamiento de textos, hojas de calculo y otros tipos de archivos. En comparación con los formatos privativos (véase el formato DOC), el uso de estándares elimina el problema del apego a las normas privadas, con la consecuente dificultad y coste a la hora de cambiar a otro software en un futuro. El uso de formatos abiertos permite al usuario tener el control total de sus datos, en particular en el caso de que el vendedor de software decida dar por obsoleta la versión del programa, obligando al usuario a migrar todos sus datos a la nueva versión, previo pago, por supuesto...

15 - GNU/Linux es generalmente más rápido para un determinado conjunto de especificaciones de hardware. Esto es debido a una mayor optimización del código fuente.

16 - GNU/Linux cuenta con un alto grado de compatibilidad con otros sistemas operativos. Por ejemplo, se puede escribir, leer, copiar, borrar y manipular los datos existentes en una partición para Microsoft Windows, actuar como servidor para una red que contenga clientes en Windows, formatear discos duros para el uso con Windows, e incluso ejecutar los programas de Windows directamente si fuera necesario. En comparación, los sistemas operativos de Microsoft no pueden acceder a particiones de disco que contengan otros sistemas, no pueden formatear discos duros para otros sistemas, etc, etc...

17 - La ética y la moral se mantienen muy altas en el mundo GNU/Linux y en el resto del software libre debido a la gran apertura de su proceso de desarrollo y a la libre disponibilidad del código fuente. GNU/Linux nunca ha sido condenado en un tribunal por violación de leyes antimonopolio u otros delitos, ni ha tenido que pagar sanciones por la copia no autorizada de tecnología desarrollada por otras empresas. Las políticas gubernamentales antimonopolio regulan o rompen monopolios con el fin de promover la libre competencia. Los beneficios por alcanzar dicha competencia afectan a la economía y a la sociedad en su conjunto.

18 - GNU/Linux reduce la necesidad de actualizar o sustituir hardware cuando se actualiza a una nueva versión. Esto se debe a que su código fuente es muy eficiente y compacto, lo que permite que funcione en computadoras antiguas que no son adecuadas para las versiones más recientes de Microsft Windows.

19 - GNU/Linux es capaz de operar en una amplia variedad de plataformas y no solo se limita a equipos con procesadores Intel o AMD. Funciona perfectamente en una vasta variedad de equipos que van desde los superordenadores a los robots industriales, equipos médicos, teléfonos móviles (puede ejecutarse incluso en un reloj de pulsera)

20 - GNU/Linux es una mejor elección para su uso en las instituciones académicas por una serie de razones. Entre ellas se encuentra el hecho de que no hay secretos (en marcado contraste con el software privativo), con lo que los estudiantes tendrán la oportunidad de estudiar como funcionan realmente los ordenadores en lugar de simplemente aprender a usarlos. Muchos profesores están convencidos de que es mucho más importante aprender los fundamentos prácticos de la informática que aprender el uso de aplicaciones especificas (como Microsoft Word o Power Point). Una de las razones es que los fundamentos prácticos de la informática seguirán siendo validos después de muchos años, mientras que las aplicaciones (especialmente las propietarias) están en constante cambio y los conocimientos adquiridos quedarán obsoletos en pocos tiempo.

21 - Para los organismos gubernamentales, GNU/Linux permite la transparencia de los datos, ya que los almacena en formatos compatibles con toda la industria. Todo lo contrario al software comercial. Esta transparencia es importante para mantener una democracia efectiva. Esto permite a cualquier usuario acceder a los datos sin tener que comprar caros programas privativos. Por otra parte, mantenerlos en formatos estándar es mucho más seguro que hacerlo usando formatos propietarios.

22 - En GNU/Linux hay muy pocas razones para temer la existencia de puertas traseras, en parte porque todo el código fuente está disponible para su inspección. Una puerta trasera es un método secreto para obtener acceso remoto a un ordenador. Existe una (muy justificada) preocupación por parte de los gobiernos y las corporaciones de que dichas puertas traseras se han insertado de forma encubierta en el software propietario, permitiendo a los desarrolladores y a otros gobiernos a acceder a sus datos confidenciales.

23 - El uso y la promoción de GNU/Linux ayuda a fomentar una sana diversidad y aumento de competencia en toda la industria del software. Esa competencia puede promover el avance tecnológico, mejorar el rendimiento y disminuir los costes del software libre y del software propietario por igual. Tanto la teoría económica como los cientos de años de real experiencia en el mundo demuestran claramente que los monopolios no necesitan innovar, tienden a producir productos de mala calidad, inflan los precios y tienden a corromper el sistema político.

24 - GNU/Linux y el software libre no solo han alcanzado, o en algunos casos superado al software privativo, sino que también desarrollan más rápido. Esta tendencia irá a más, dado que la demanda para este tipo de software sigue creciendo y cada vez más personas y organizaciones participan activamente en su desarrollo.

25 - GNU/Linux ofrece la oportunidad de que los usuarios puedan contribuir al avance de la tecnología del software, debido a que el código fuente está disponible gratuitamente para ser estudiado, mejorado, ampliado y redistribuido. Un notable ejemplo de ello a nivel empresa ha sido IBM.

26 - Existen en realidad más de 25 razones por las que organizaciones de todo el mundo están migrando a GNU/Linux. Un vigésimo sexto motivo es que con GNU/Linux no hay necesidad de desfragmentar los discos duros a diferencia de Windows. La fragmentación, que es la difusión de datos en lugares no contiguos puede reducir la eficacia del almacenamiento de datos y ralentizar el funcionamiento de la máquina. Desfragmentar no es difícil, pero puede ser una molestia tener que hacerlo periódicamente, y no es necesario si tienes un sistema operativo bien diseñado.


Por Universia Tech

miércoles, 25 de junio de 2008

San Luis avanza y ofrece Wi-Fi gratis

Wi-Fi gratis

El Gobierno de la provincia de San Luis firmó en la Universidad de La Punta (ULP) el contrato correspondiente a la licitación pública que permitirá el acceso del sistema Wi-Fi a distintas localidades de la provincia: El Trapiche, Juana Koslay, Luján, Nueva Galia, Potrero de los Funes, San Martín, Justo Daract, La Toma, Santa Rosa del Conlara, Tilisarao, Unión y Villa de la Quebrada. El servicio será gratuito.


El Gobierno de la provincia de San Luis firmó en la Universidad de La Punta (ULP) el contrato correspondiente a la licitación pública que permitirá el acceso del sistema Wi-Fi a distintas localidades de la provincia. El contrato fue rubricado por la rectora de la ULP y ministra del Progreso, Alicia Bañuelos y por la firma Xiden SACI, sus directivos, Gabriel Apel y Martín Matos.

Bañuelos dijo que el gobierno de San Luis, a través de ese ministerio y de la Universidad de La Punta, "brindará este servicio en forma gratuita" y que "la idea es que a fines del 2009, todas las localidades que no son grandes centros urbanos tengan este servicio".

Si bien en el contrato firmado se especifica que el plazo de ejecución es de 115 días a partir de ese momento, Bañuelos aclaró que "esperamos que en menos de ese tiempo varios pueblos cuenten ya con conexión wi fi, lo que permitirá que unas 40.000 personas cuenten con este dispositivo para la inclusión digital".

Las localidades que abarcan el proyecto son El Trapiche, Juana Koslay, Luján, Nueva Galia, Potrero de los Funes, San Martín, Justo Daract, La Toma, Santa Rosa del Conlara, Tilisarao, Unión y Villa de la Quebrada.

Durante la jornada se realizó una conferencia sobre las tecnologías convergentes, Metro Wi-Fi, voz sobre IP, multiplay, y otros temas afines. Los disertantes fueron los ingenieros Pablo Brenner y Ariel Scaliter.

Cabe recordar que al principio de este año, Xiden fue adquirida en su totalidad por la española Prosegur.

Por Universia Tech

Una página web es infectada cada cinco segundos



Desde enero hasta finales de marzo de 2008, los investigadores de la empresa Sophos identificaron una media de más de 15.000 nuevas páginas infectadas cada día. Una de las conclusiones más alarmantes es el hecho de que la mayoría de estos sitios infectados (el 79%) se encuentran en webs legítimas que han sido vulneradas.

Según se desprende del informe, Sophos descubrió y bloqueó un drástico incremento de nuevas páginas web infectadas. La compañía encontró una página web infectada cada cinco segundos, comparado con el índice de una página web infectada cada 14 segundos en 2007, lo que supone que se descubren unas 15.000 páginas al día, el triple que en 2007.

Este estudio revela interesantes cambios desde el último Informe de Seguridad publicado por Sophos. Estados Unidos experimentó un crecimiento sin precedentes, pasando de alojar menos del 25% de las páginas infectadas durante todo el 2007, a alojar el 42% durante el primer trimestre de 2008.

China demostró un notable cambio, pasando de albergar más de la mitad de todas las páginas web infectadas durante el pasado 2007, a tan sólo alojar el 30,1% durante el primer trimestre de 2008. Por otro lado, hubo una nueva entrada, la de Tailandia, como responsable de alojar el 1% de páginas web.

“Estados Unidos y China no son extraños en este capítulo, ya que son los dos países habituales en las primeras posiciones en este tipo de amenazas", explicó Carole Theriault, Consultor de Seguridad de Sophos. “Sin embargo, el restante porcentaje de países que alojan malware hace recordar que los usuarios necesitan permanecer en alerta, y los proveedores de servicios web necesitan asegurarse de que ellos tienen los parches adecuados frente a vulnerabilidades y evitar ser parte del problema".



Por Universia Tech


Un nuevo display de Brother usa la retina como pantalla



Aunque el dispositivo parece captado de una película de ciencia ficción, el primer prototipo funcional ya ha sido presentado. El display «Retinal Imaging Display» (RID) permite que la luz sea proyectada directamente en la retina. Los haces de luz son tan débiles que no dañan al ojo, pero, al ser proyectados a gran velocidad, el cerebro percibe la imagen como si estuviera frente a la persona. El prototipo ya fue instalado en unas gafas corrientes.

El dispositivo consiste de tres módulos; el display, un escáner óptico y una unidad de fuente luminosa. La resolución del prototipo RID es de 800x600 puntos.

“Se trata de un prototipo que muestra el uso que puede darse a la técnica RID a futuro, y además exhibe uno de los resultados de los laboratorios de desarrollo de Brother. La empresa aún no ha decidido si el display RID se convertirá en un producto de Brother a futuro”, dice Brother en un comunicado.

El display RID es transparente, de forma que el usuario también puede ver lo que ocurre en la sala donde se encuentra. Otra ventaja potencial de RID es que es adecuado para la visualización de información confidencial ya que, al contrario que las pantallas convencionales, no es posible para curiosos asomarse por encima del hombro del usuario y reconocer lo exhibido

Por Universia Tech

La supercomputadora que rompe el récord de performance




Una nueva supercomputadora adquirida por el Ejército de EE.UU. rompió una barrera que muchos pensaban que sería infranqueable durante varios años. Denominada Roadrunner (correcaminos), la máquina logra una performance del orden de los petaflops. Está compuesta por 12.960 chips y 116.640 núcleos de procesamiento y es asombrosa: hace en un día cálculos que a 6.000 millones de personas juntas les llevaría 46 años

La supercomputadora Roadrunner fue diseñada por ingenieros y científicos de IBM en el Laboratorio Nacional de Los Alamos, en EE.UU. El destino final de la máquina será un entorno confidencial en donde se usará para simular los efectos que causa el añejamiento sobre las armas nucleares que EE.UU. posee en su arsenal. El problema en el que trabajará la máquina consiste en simular cómo se comportarán las armas nucleares añejas en la primera fracción de segundo durante una explosión. Antes de comenzar su investigación relacionada con armas nucleares, Roadrunner se utilizará para simular los efectos del calentamiento global.

Roadrunner cuesta U$S 133 millones y está construida en base a chips utilizados en productos electrónicos de consumo y procesadores de servidores.

La máquina está compuesta por 12.960 chips que constituyen una versión mejorada del chip Cell empleado en la consola de juegos PlayStation 3, de Sony. Estos procesadores Cell actúan como un turbocargador para ciertas partes de los cálculos que procesa Roadrunner. La computadora también utiliza una cantidad menor (no especificada) de procesadores Opteron de AMD.

Horst Simon, del Laboratorio Nacional Lawrence Berkley, señaló que “Roadrunner nos señala lo que ocurrirá durante la próxima década. La tecnología está viniendo del mercado de productos electrónicos de consumo, y las innovaciones están ocurriendo primero en el rubro de teléfonos celulares y electrónica embebida”. Esta aseveración cambia el orden en que se desarrollan las innovaciones, ya que tradicionalmente éstas se daban primero en entornos científicos y de investigación, y en última instancia llegaban hasta la electrónica de consumo.

En total, Roadrunner posee 116.640 núcleos de procesamiento, los cuales imponen a los programadores el desafío de cómo mantener a todos esos núcleos en uso simultáneamente para obtener la máxima performance. El consumo energético de la computadora es de 3 megawatts, lo que equivale a la cantidad de electricidad necesaria para abastecer a un shopping center.

Para poner en perspectiva el poder de Roadrunner, Thomas P. D’Agostino, de la Administración Nacional de Seguridad Nuclear de EE.UU. dijo que si 6.000 millones de personas realizaran cálculos con una calculadora durante 24 horas al día y 7 días a la semana, les llevaría 46 años hacer lo que Roadrunner puede hacer en un solo día.







Por Universia Tech

viernes, 6 de junio de 2008

16 Trucos Para Word 2007

.



Ver Artículo

Nota de Pc Actual

Más de 20 programas gratis para editar fotografías online




Todas las tecnologías están condenadas a ser sustituidas en un momento dado por otras que cumplen la misma función de forma más eficiente y barata. Algunas tardarán años en dejarnos, otras pueden desaparecer de las tiendas en unos meses y, pese a ello, languidecer en su casa acumulando polvo durante años. Aquí, una lista de diez aparatos, soportes y medios de comunicación condenados a desaparecer.
Adobe lanzó Photoshop Express, una herramienta online de edición fotográfica con la que se puede editar fotos sin necesidad de tener ningún software instalado en la PC. Pero muchos no saben que este no es el primer programa para editar fotos directamente desde el navegador. En este artículo encontrarás más de 20, todos gratuitos, para que elijas el que más te guste

Ver Nota

Por Universia Tech

Windows 7 - Adelantos


Video: Multi-Touch in Windows 7

jueves, 5 de junio de 2008

Conocé las primeras imágenes de Windows 7

Un software que te puede hacer más inteligente




Ya comenzaron a circular imágenes inéditas sobre cómo será el próximo sistema operativo de Microsoft - sucesor de Vista - Windows 7. Bill Gates adelantó que habrá un efecto “genio de la lámpara”, consistente en un inicio de programas mediante grandes símbolos situados en la base de la pantalla. Acá te presentamos algunas capturas de pantalla que muestran el aspecto que podría tener el futuro Windows 7 que se han filtrado en Internet

Ampliar Información

Por Universia Tech

lunes, 2 de junio de 2008

Un adelanto del nuevo Windows 7



Bill Gates y Steve Ballmer presentaron los primeros detalles del próximo sistema operativo de Microsoft, que tendrá controles de pantalla táctil; aquí, un video demostración

Ver Nota

miércoles, 28 de mayo de 2008

Plan de Conectividad de Scioli

Brindan detalles sobre el Plan de Conectividad de Scioli

Como respuesta a un requerimiento de Fundación Vía Libre, el Director de Cultura y Educación de la Provincia, Mario Oporto, redactó una carta en donde comentó las características del proyecto

Ver Nota

miércoles, 21 de mayo de 2008

Bill Gates asegura que Windows 7 será mucho más eficiente que Vista



El cofundador de Microsoft ha hablado recientemente sobre las novedades prevista para el sucesor de Windows Vista, del que ha asegurado que necesitará menos recursos y mejorará mucho la eficiencia.

LD (Daniel Rodríguez Herrera) En una conferencia en Tokio durante un simposio de la Windows Digital Lifestyle Consortium, Bill Gates habló de la próxima versión del sistema operativo de Microsoft, que por el momento recibe el nombre de Windows 7. Afirmó que este nuevo producto será más eficiente que Vista, necesitando menos memoria y consumo eléctrico, algo que seguramente sea la mayor necesidad actual de sus clientes empresariales ante la inminente desaparición de Windows XP.

"Estamos trabajando mucho en la próxima versión, a la que llamamos Windows 7 –aseguró Gates en la conferencia–. Estoy impresionado por todo lo que se está haciendo. Tendrá un menor consumo eléctrico, menos uso de memoria, mejorará la eficiencia y dispondrá de varias conexiones simultáneas al teléfono móvil. Son escenarios que harán que Windows 7 sea, además, una gran plataforma para juegos, para conectarse con cualquier cosa que se haga en internet de modo que, por ejemplo, si se tienen dos ordenadores personales, los ficheros estarán sincronizados en ambos, de modo que no haya que mover datos continuamente de uno a otro."

Se ha especulado que esta última característica podría llamarse Windows HomeGroup.

El cofundador de Microsoft también anunció que habrá una nueva versión de Windows cada dos o tres años, lo que daría más peso a la predicción de que Windows 7 tiene prevista su salida en enero de 2010, tres años después de Vista.

El analista Paul Thurrott ya ha evaluado una versión de diciembre de 2007, a la que no ha encontrado aún grandes novedades, lo que le hace compararla con la versión de Windows 98 enviada por Microsoft a los probadores allá por 1996; básicamente parece igual que Windows Vista, funciona bien y hay que fijarse en los detalles para encontrar las diferencias, que se centran sobre todo en el reproductor Media Player y en el Media Center.

Por Libertad Digital.es