miércoles, 30 de julio de 2008

Crean un sistema para detectar alumnos desatentos


Si en un futuro el número de vocaciones docentes desciende y los candidatos a dar clases escasean, quizá habría que recurrir a robots educadores. En la Universidad de San Diego (EE UU) ya están trabajando en ello, y acaban de resolver un gran problema: hacer que la máquina detecte el aburrimiento de los alumnos por su expresión facial. Tras ser probado con ocho personas, el sistema ha demostrado ser capaz de alertar a la computadora cuándo los alumnos muestran signos de no aguantar más.

"Imagina que soy un estudiante que se encuentra ante un robot profesor y estoy completamente confuso, pero el robot sigue su explicación. Eso no me resultará muy útil. Si en lugar de eso el robot dice 'oh, a lo mejor no has entendido algo' la cosa mejora", explica el responsable de esta investigación, Jacob Whitehill.

No hay que imaginar a androides frente a pizarras virtuales en tres dimensiones para dar con un posible uso de esta herramienta, para la que ya se avanzan usos relacionados con los vídeos educativos. Las películas, con el sistema desarrollado por Whitehill, modularían la velocidad de reproducción automáticamente en función de la cara que pone quien la está visionando.

Se trata de los primeros pasos para la creación de sistemas educativos inteligentes, en los que se busca tanto la creación de algoritmos para que los robots puedan reaccionar a diferentes estados emocionales del alumno como el desarrollo de sistemas que les permitan percibir los sistemas de comunicación más espontáneos.

Por Universia Tech

Seis claves para sobrevivir a los cambios tecnológicos


La tecnología avanza y se modifica a una velocidad de vértigo. Y lo único claro es que el que no se suba al carro se quedará fuera. Lograrlo es resultado de la confluencia de diversos factores - como el talento, la innovación o la socialización, entre otros - que, en definitiva, determinarán el futuro del sector IT de aquí al 2012. Según los autores de esta investigación, lo fundamental para sobrevivir a los cambios del mercado será "traducir esas claves en acción y ser primeros en adaptarse al cambio".

1 - Talento
Es un concepto a redefinir. Parece que será necesario un mayor número de licenciados en ingeniería informática. Y que los que triunfarán son los denominados nativos digitales. Jóvenes que ahora mismo tienen menos de 24 años y se han criado entre Internet y los más modernos gadgets. Son esa generación que no aprendió a usar la Red, sino que nació con ella. Ellos serán los directivos del mañana.

2 - Contexto
¿Cuál será el estado de la cuestión? Los internautas se encontrarán con una red cada vez más humana. Además, su disociación de la computadora jugará un papel fundamental. Las conexiones a través del móvil llegarán incluso a superar al pc en 2010. La consultora estima que habrá 1.200 millones de teléfonos que ofrezcan este servicio. La publicidad segmentada se convertirá en el gran negocio y servicios de internet, operadoras telefónicas, marcas de software y fabricantes de equipamiento lucharán por llevarse su parte.

3 - Global
"En 2015, el origen de la tecnología será irrelevante", explicó Partha Iyengar, vicepresidente de Gartner. La tecnología se ajustará a una demanda global y no local. Y los países de capital emergente llevarán la voz cantante.

4 - Estandarización
Es necesario que un sistema tan amplio y global acabe teniendo el mismo modo de proceder. Existirán modelos estandarizados de compra gestión y entregas de software. Otro punto importante por el que las empresas deberán apostar es la tecnología verde.

5 - Innovación
Será la pieza que realmente determine la supervivencia en esta vorágine digital. El primer paso será girar hacia el cloud computing, tendencia que hace mirar de frente a las plataformas web en la que Google y Amazon entre otros ya tienen la voz cantante y a la que Microsoft o IBM ya se han sumado. El segundo es implantar la tecnología táctil al mayor número de artilugios posibles. El ordenador de HP Touch Smart 1Q500 constituye todo un referente en este campo. Otras aplicaciones como la web semántica también intentarán popularizarse.

6 - Socialización
Qué duda cabe de que ha cambiado de manera considerable desde la aparición de las comunidades virtuales. Los mundos virtuales y el aprendizaje online no sólo han cambiado el modo de relacionarse en el terreno personal, sino también en el ámbito corporativo.


Por Universia Tech

Los aspectos que generan confusión en Windows 7




¿Alguien sabe en qué consiste realmente Windows 7, más allá de las simpáticas pantallas táctiles? Es de esperar que el equipo a cargo de su desarrollo sí lo sepa, pero en todo caso serían los únicos. El problema es que la escasa información sobre el nuevo sistema operativo genera gran cantidad de especulación y confusión. Por eso, en esta nota se analizan cinco aspectos clave sobre Windows 7 que suelen dar lugar a malentendidos.

Windows 7, el sucesor de Windows Vista (y también de Windows Server 2008, en la forma de Windows 7 Server), ha estado en desarrollo bajo el liderazgo de Steven Sinofsky, vicepresidente senior del grupo de ingeniería de Windows y Windows Live de Microsoft, desde 2007. A fines del año pasado, la empresa entregó Windows 7 versión Milestone 1 a un selecto grupo de socios, pero de acuerdo a la política de Sinofsky, muy pocos detalles del nuevo sistema operativo se han hecho públicos o se han dejado filtrar. Es por ello que hay tanta confusión con respecto a diversos aspectos de Windows; confusión que se intenta despejar en esta nota.

1 - El kernel de Windows 7

Luego de jugar a las escondidas con el kernel MinWin, Microsoft se las arregló para crear un nivel consistente de confusión en torno al núcleo del sucesor de Windows Vista. No está claro si Windows 7 incluirá a MinWin o a un nuevo kernel, o si estará basado en el mismo kernel que Vista. La verdad es bastante simple: en primer lugar, nunca se habló de un kernel completamente nuevo, construido desde cero; y MinWin nunca pretendió ser el kernel de Windows 7, sino más bien su núcleo (que no es lo mismo). Esto significa que Microsoft tomó el kernel existente más un conjunto de componentes de núcleo y lo trabajó para “adelgazarlo”.

Lo que está haciendo el gigante de Redmond es básicamente continuar la evolución de Windows Server 2008, en lo que se refiere al núcleo del sistema operativo. El núcleo del sucesor de Vista es una evolución de lo que está disponible hoy, y es una nueva versión principal del kernel; de ahí la etiqueta de Windows 7. Windows Vista fue la sexta versión de Windows, pero Microsoft cuenta según las distintas versiones del kernel, y no según las distintas versiones de Windows.

2 - El mito de la renovación total

Algunos querrían que Windows 7 fuera creado desde cero, argumentando que Microsoft necesita comenzar de nuevo. Tal escenario es algo imposible. Windows 7 no será creado desde cero, simplemente porque no se puede. Imaginemos un Windows 7 completamente nuevo, sin ninguna conexión con ninguna versión anterior de Windows. Nada funcionaría. Ni el software, ni el hardware, nada.

3 - Windows Vista R2

Debido a que Microsoft indicó que Windows 7 usaría a Vista como sus cimientos, las críticas comenzaron a emerger, señalando que el nuevo sistema operativo sería equivalente a Windows Vista Release 2. Nadie (a excepción de Sinofsky y su equipo) sabe qué terminará siendo Windows 7. Quienes le tiran tierra cuando ni siquiera la primera beta está en el horizonte están esperando que Microsoft falle. Las críticas deberán posponerse hasta que una versión palpable de Windows 7 esté en la calle.

4 - Un SKU para controlarlos a todos

El feedback de los usuarios apunta cada vez más a la necesidad de Microsoft de simplificar la multiplicidad de variantes de Windows 7, y de evitar ofrecer el mismo abanico de SKUs que ofreció con Windows Vista. Sin embargo, la compañía de Redmond sabe que un único SKU no es el camino a seguir. Si bien la simplificación es necesaria, copiar el modelo Mac OS X no es una solución correcta para ofrecer un balance para los usuarios hogareños y empresariales. Y aún con Windows Vista, todos los SKUs se entregan en un mismo medio de instalación, estando la instalación real gobernada por la clave de licencia.

5 - El silencio es ensordecedor

El ultimo aspecto malentendido de Windows 7 está del lado contrario de la barricada, para decirlo de alguna manera. El silencio en torno a Windows 7 es ensordecedor. Microsoft se las arregló para ofrecer unos pocos detalles sobre las capacidades de interfaces táctiles que se avecinan, y se supone que dará más detalles en la conferencia de desarrolladores profesionales en octubre de este año.

Por Universia Tech

¿Cómo combatir el exceso de información?



La abundancia de llamadas, correos electrónicos y mensajes de texto está golpeando muy duramente la productividad de los trabajadores. Por eso, algunas de las empresas tecnológicas más importantes del mundo se han unido en la iniciativa “Information Overload Research Group” para estudiar este problema. En la partida están Microsoft, Intel y Google, entre otras, que lo sufren en sus propias carnes.

Es una queja cada vez más extendida. Ahora, algunas de las empresas tecnológicas más grandes del mundo, entre las que se encuentran Microsoft, Intel, Google o IBM se han unido para luchar contra este exceso de información. La semana pasada formaron un grupo sin ánimo de lucro para estudiar este problema y ayudar a los trabajadores a superarlo o a sobrellevarlo. El grupo intentará buscar soluciones tecnológicas y culturales.

Este esfuerzo, llamado “Information Overload Research Group”, viene del hecho constatable estadísticamente de que las mismas herramientas tecnológicas que han propiciado un aumento de la productividad llevan a una baja productividad si se usan profusamente.

El fabricante de chips Intel ha descubierto, en un estudio efectuado a lo largo de ocho meses, que algunos empleados que fueron animados a limitar sus interrupciones digitales aumentaron su productividad y su creatividad.

Según informa el New York Times, la propia Intel y otras empresas están ya experimentando con algunas soluciones. Unidades creadas específicamente animan a los trabajadores a chequear su correo electrónico con menos frecuencia o a mandar mensajes de grupo con más juicio.

Google introdujo hace poco lo que han llamado “E-Mail Addict”, una opción para el servicio de correo electrónico de la empresa que permite a los empleados “coartarse” a ellos mismos de consultar su bandeja de entrada sólo cada 15 minutos.

Esta herramienta es un instrumento abrupto. Haciendo “clic” en el link “Tomate un descanso”, la pantalla se pone en gris y aparece un mensaje en el que se puede leer: “Date un vuelta, trabaja o tómate un snack. Hasta dentro de 15 minutos”.

A Michael Davidson, el ingeniero que tuvo esta idea, se le ocurrió después de hablar con sus amigos sobre su constante tentación de chequear sus mensajes de correo electrónico. En definitiva, es una herramienta que dice al trabajador que no tiene autodisciplina y le ofrece la posibilidad de cerrar su correo durante un rato.

Las empresas tecnológicas se han tenido que unir para “matar” un monstruo que ellos mismos han creado. Un trabajador tipo de una empresa del sector de las tecnologías de la información comprueba su correo electrónico unas 50 veces a lo largo de su jornada laboral, además usa la mensajería instantánea 70, según datos de la empresa Rescue Time, especializada en el análisis de nuestros hábitos frente al ordenador. RescueTime, que ha sacado sus datos estudiando el software en las computadoras de 40.000 personas, también ha descubierto que los trabajadores se detienen en 40 sites a lo largo del día.

Esta fractura en la atención de los trabajadores tiene un costo. Según datos de Basex, sólo en los Estados Unidos, las interrupciones innecesarias cuestan a las empresas 650 mil millones de dólares al año. Esta empresa afirma que la mayor parte de esas pérdidas proviene del tiempo que el trabajador usa en recuperar la atención y volver a su tarea después de cada interrupción.

Lo curioso de todo esto es que las propias empresas que han creado el problema se están dando cuenta de que hay negocio en ayudar a la gente en reducir su “glotonería” digital. Grandes corporaciones de todo el mundo están buscando soluciones para mantener a sus trabajadores alejados de estas distracciones.

En la iniciativa “Information Overload Research Group” también hay algo de campaña de comunicación. Las empresas que forman parte del grupo se niegan a hablar de “bancarrota del e-mail” y responden con firmeza frente a las idea de eliminar este instrumento y volver a empezar. Otro término relativamente nuevo es del “apnea del e-mail”, creado por la escritora Linda Stone, y que se refiere al modo en que la gente se agobia cuando comprueba el volumen de correo que recibe en su bandeja de entrada.

En este sentido, Intel ha iniciado dos experimentos el pasado mes de septiembre con 300 ingenieros y otros empleados de su sede central, en Austin, Texas, y con algunos grupos en Chandler, Arizona. En el primer experimento, los empleados tuvieron cuatro horas los martes por la mañana en las que fueron animados a limitar tanto los contactos digitales como los cara a cara.

Durante esos periodos, se colocaba unas tarjeras en los cubículos de los trabajadores que decían “Tiempo de descanso”. Pasadas unas semanas, los empleados consideraron el sistema demasiado restrictivo. Las tarjeras fueron retiradas y los trabajadores empezaron a usar el correo electrónico, pero con más juicio y siendo más cuidadosos con sus hábitos. Otros, sin embargo, siguieron con el régimen más estricto.

En una encuesta llevada a cabo entre los participantes, tres cuartas partes de éstos consideraron que esta iniciativa debería extenderse al resto de la empresa.

Intel esperaba mucho menos de este experimento, en el que lo que ha quedado claro es que cuando la gente no es interrumpida, se pueden sentar después de descansar y seguir diseñando chips.

En el otro experimento, llamado “Viernes sin e-mail”, la finalidad era animar a los empleados a que los viernes se comunicaran más cara a cara. La idea gustó, pero se siguió usando el correo electrónico porque se consideraba esencial. El 30% de los trabajadores aprobaron la iniciativa y otro 60% recomendó extenderlo al resto de la empresa, pero con modificaciones

Por Universia Tech

viernes, 18 de julio de 2008

¿Cómo serán las pantallas del futuro?



Las computadoras de mañana tendrán un formato muy distinto al que hoy imaginamos. Pero no solo en el tamaño del procesador, sino también en cómo mostrarán la información en los displays o pantallas. Por ejemplo, podremos ver información en una lata de gaseosa, en la pantalla de un velador o en cualquier pared. Y esos monitores serán flexibles y plegables, por lo que podrán llevarse en el bolsillo.

Ver Nota

Por Universia Tech

Google lanza un servicio de medición de ancho de banda




Con el fin de identificar la discriminación de tráfico digital, Google desarrollará una herramienta que indicará a los consumidores la velocidad de su conexión a Internet. Richard Whitt, director jefe de políticas corporativas de Google comentó que esta herramienta fue creada para que los usuarios sepan que ocurre con sus conexiones de banda ancha y puedan reclamar –si así fuera necesario- ciertas irregularidades a sus proveedores de Internet, pero no informó la forma en que esta herramienta funciona ni tampoco su fecha de lanzamiento.

Ver Nota

Por Universia Tech

Cuatro consejos para elegir la memoria de una cámara digital


Hoy, los ya desaparecidos rollos de 36 son reemplazados por memorias con gran capacidad de almacenamiento y calidad de imagen. Pero al momento de elegir una, los usuarios deben tomar en consideración una serie de características, como qué uso se le da a la cámara, si es familiar o más profesional y qué calidad y cantidad de fotografías se quieren almacenar. A continuación, una pequeña guía para que sus clientes puedan reconocer las principales características que deben determinar la decisión.

Ver Nota

Por Uniuversia Tech

Hay que apostar más al talento grupal que al individual



Según el Estudio Global de Capital Humano 2008, realizado por IBM y The Economist Intelligence Unit, las firmas siguen centradas en la conquista del talento individual, cuando lo que diferencia a los líderes es gestionarlo en forma integrada. En efecto, a pesar de que 75% de los entrevistados consideró importante desarrollar el liderazgo de sus ejecutivos, sólo 6% reconoció gestionar el talento de los equipos


Ver Nota


Por Universia Tech

viernes, 4 de julio de 2008

Intel apuesta a WiMAX para expandir el alcance de Internet


Sean Maloney, vicepresidente ejecutivo y gerente general del Grupo de Ventas y Marketing de Intel, dijo que de la mano de procesadores más poderosos y redes inalámbricas WiMAX de alta velocidad, el mundo llegará a una nueva era de Internet total en dispositivos móviles: computación móvil, conectada e individual. Lo hizo al inaugurar la feria tecnológica Computex, celebrada en Taipei.

“La convergencia de las computadoras portátiles, la banda ancha inalámbrica WiMAX y poderosas tecnologías de cómputo enriquecidas con alta definición (HD) apuntan a una oportunidad de crecimiento enorme —señaló Sean Maloney, vicepresidente ejecutivo y gerente general del Grupo de Ventas y Marketing de Intel, en la feria tecnológica Computex, celebrada en Taipei (Taiwan)—. Los individuos (no los hogares) darán origen a la próxima era de crecimiento donde las personas poseerán uno o más dispositivos de cómputo. Las personas tienen un deseo innato de estar ‘conectadas’ todo el tiempo y ven la tecnología móvil personalizada como la forma de satisfacer esa necesidad”.

Intel fue la encargada de abrir el encuentro, que aprovechó también para presentar los nuevos chipsets que van a mejorar el entretenimiento en alta definición y las capacidades de almacenamiento en PCs de escritorio.

Con la aparición de la nueva categoría de “netbooks” este año, Intel piensa que en el 2008 se van a vender más dispositivos informáticos portátiles que ordenadores de escritorio. En este marco, Navin Shenoy, vicepresidente del Grupo de Ventas y Marketing y director general en la región de Asia Pacífico de Intel y Noury Al-Kahledy, director general de informática para “nettops” y “netbooks” en el Grupo de Plataformas Móviles de Intel, presentaron el procesador Intel Atom, conocido hasta la fecha con el nombre de código “Diamondville”.

Maloney también afirmó que el acceso ubicuo e inalámbrico a Internet resulta necesario para extender y hacer aún más móvil el uso actual de Internet que se precisa para realizar tareas como, por ejemplo, la creación y visualización de vídeos, la participación en juegos y la distribución de fotografías. El vicepresidente ejecutivo de Intel comentó que la tecnología WiMAX móvil va a permitir el disfrute de una era de Internet abierta, rápida y móvil, una época que progresa rápidamente y que va a dejar una huella beneficiosa a escala mundial. En este sentido, la compañía Informa Telecoms estima que las operadoras ya están desplegando más de 281 redes WiMAX fijas o móviles en estos momentos.

“La tecnología móvil WiMAX es la solución más adecuada que ya se encuentra a disposición de los usuarios —agregó Maloney—. Las redes inalámbricas van a ser las más utilizadas para conectar a los usuarios, y deben tener capacidad para ofrecer todos los servicios que puede proporcionar la Web 2.0. Esto significa que resulta esencial contar con un gran ancho de banda para permitir el envío de datos a altas velocidades desde o hacia los dispositivos”.

Intel está desarrollando una solución integrada WiMAX/Wi-Fi, con nombre de código Echo Peak, que estará disponible como una opción para varios portátiles basados en la tecnología de procesador Intel Centrino 2. El objetivo de la compañía es permitir la disponibilidad inicial en varios portátiles con WiMAX en los Estados Unidos en la segunda mitad del año, dependiendo de los planes de los fabricantes y la disponibilidad de redes WiMAX, que se espera crezca durante el año 2009.

Chii-ming Yiin, Ministro de Asuntos Económicos de Taiwán, también ofreció a la audiencia un discurso a través de video, manifestando que la tecnología WiMAX representa la próxima oportunidad de crecimiento comercial para el sector tecnológico de Taiwán, gracias a la capacidad del país asiático para contar con compañías locales especializadas en hardware, servicios e infraestructuras de red encargadas de desarrollar soluciones WiMAX completas que pueden ser utilizadas en todo el mundo.


Por Universia Tech



Las empresas, centros educativos, organismos gubernamentales y otras organizaciones por todo el mundo están migrando sus equipos a Linux, dejando a un lado las soluciones de Microsoft a un ritmo cada vez mayor. ¿Cuáles son los motivos? Ingrese a la nota y conózcalos.

1 - Debido a que está licenciado bajo licencia GPL, GNU/Linux (así como todo el software libre) está disponible sin ningún costo. Puede ser descargado de Internet de forma gratuita, y puede ser adquirido en formato CD o DVD con un coste muy trivial. Una copia puede ser utilizada en tantas PCs como queramos sin restricciones.

2 - Debido a que es software libre, GNU/Linux también es gratuito ya que cualquiera está autorizado a modificar, incluso su código fuente, de cualquier forma deseada. Si las versiones modificadas no son re-distribuidas, los cambios pueden mantenerse en secreto. Esto también choca bastante con Microsoft Windows, ya que las modificaciones no están permitidas. El código fuente es la versión original de un programa tal y como lo haya escrito un programador usando un lenguaje de programación y antes de ser compilado de forma que sus instrucciones puedan ser entendidas directamente por una computadora. Por lo que es necesario tener el código fuente para poder realizar cambios en un determinado programa. Esta capacidad de experimentar con el código fuente, y hacerlo sin necesidad de dar a conocer las modificaciones a terceros ha sido muy importante para un gran número de organizaciones.
3 - GNU/Linux cuenta con un soporte de alta calidad disponible de forma gratuita a través de Internet, en grupos de noticias y foros. Algunas personas afirman que este soporte es al menos tan bueno como en el software privativo, que además funciona, evidentemente, pagando. Este sistema puede adquirirse si se desea de forma comercial. Existen empresas que basan su negocio del software libre en negocio de servicios, dando soporte de instalación de aplicaciones, parches para hacer frente a nuevas amenazas de seguridad y parches para arreglar bugs descubiertos recientemente. En GNU/Linux estos 2 últimos son relativamente infrecuentes.

4 - Hay muy pocas posibilidades de que el soporte técnico para algún sistema GNU/Linux se elimine porque el software haya quedado obsoleto o por cualquier otro motivo. Esto se debe a que el código fuente estará siempre disponible para cualquier persona que lo desee, incluidas aquellas personas que prestan dicho soporte de forma gratuita en Internet y también para las empresas que basan su negocio en los servicios. Por el contrario, en el caso de los programas privativos cuyo código fuente es mantenido en secreto, la obtención de soporte técnico se complica si la compañía que lo vende decide retirar el software con el fin de tratar de obligar al usuario a pagar por la nueva versión, por ejemplo.

5 - No existe ningún temor a que las aplicaciones se queden obsoletas con GNU/Linux. Esto se debe a que la arquitectura UNIX en la que se basan ha sido exhaustivamente probada y refinada durante más de 35 años y ha demostrado ser extremadamente eficaz, robusta y segura. Las mejoras se realizan a un ritmo rápido, pero las nuevas versiones siguen siendo compatibles con la arquitectura UNIX subyacente.

6 - No hay actualizaciones obligatorias para los usuarios de GNU/Linux. Esto se debe a que las versiones antiguas siguen siendo soportadas (por ejemplo, con el desarrollo de nuevos parches de seguridad y controladores de dispositivo) y porque las nuevas versiones, si así lo desean, están disponibles de forma gratuita y suelen ser compatibles con versiones anteriores. Los desarrolladores de software propietario, sin embargo, tienen fuertes incentivos financieros para planificar el que una determinada versión quede obsoleta. Su objetivo será inducir a los usuarios de versiones anteriores a gastar dinero para comprar o actualizar a las nuevas versiones.

7 - En caso de que un usuario decida actualizar a una versión más reciente de GNU/Linux, no hay derechos de licencia de software u otros gastos si el usuario selecciona una distribución libre. Por otra parte, la formación, modificaciones, adquisición de hardware y otros costos relacionados con una actualización a una nueva versión son también relativamente bajos debido a la compatibilidad con versiones anteriores.

8 - GNU/Linux no tiene complicados requisitos para hacer cumplir las licencias. En una empresa con cientos o miles de PCs, será necesario tener a un gran número de personal solo para asegurarnos de que todos los ordenadores esten cumpliendo con las complejas condiciones de autorización de uso (EULAs) para Microsoft Windows, Microsoft Office y otras aplicaciones propietarias. Con GNU/Linux no hay temor a auditorias sorpresa con posibles sanciones por violación de licencias.

9 - GNU/Linux es mucho más seguro con una muy baja tasa de infección por virus, troyanos, gusanos, software espía y otros códigos maliciosos. Esto se debe a que UNIX y todos sus descendientes (incluyendo GNU/Linux) fueron diseñados desde un principio con la seguridad en mente, en lugar de tratar de parchear graves fallos de seguridad cuando ya es demasiado tarde. Por ejemplo, los usuarios no acostumbran a usar el sistema con permisos de administración, a fin de proteger los principales archivos del sistema. Incluso en el caso de la existencia de un código malicioso, este no poseería permisos suficientes para hacer mucho daño. Además un sólido firewall se incluye en las principales distribuciones y es activado por defecto. Otro factor a tener en cuenta es la libre disponibilidad del código fuente, lo que permite a miles de personas de todo el mundo poder buscar vulnerabilidades de seguridad.

10 - GNU/Linux es altamente resistente a los fallos de sistema y raramente necesita reiniciar. Esto puede ser muy importante para las grandes organizaciones para las que unos minutos de tiempo de inactividad puede suponer un coste sustancial. La razón es que GNU/Linux ha sido diseñado desde cero para ser un sistema operativo estable y robusto, incorporando todo lo aprendido en 35 años de historia de UNIX.

11 - Aunque el número y la variedad de programas para GNU/Linux aún no es tan grande como para el sistema operativo de Microsoft, ya existe una extensa selección que aumenta continuamente y cada vez más rápido a medida que más desarrolladores empiezan a crear programas para GNU/Linux. La mayoría de programas para GNU/Linux también son software libre y muchos de ellos tienen las mismas características y rinden igual o mejor que las ya existentes para Microsoft Windows. De hecho, los usuarios se encuentran a menudo con que todas las aplicaciones que necesitan están disponibles gratuitamente en Internet y que ya no necesitan comprar ningún software comercial.

12 - Existe una numerosa variedad de distribuciones GNU/Linux (varios cientos), cada una con su propio conjunto único de características, pero básicamente todas compatibles entre sí. Esto permite a los usuarios seleccionar las versiones que mejor respondan a sus necesidades específicas. También significa que, si un distribuidor de GNU/Linux dejará de operar, todavía habría muchos otros para elegir. Por otra parte, fomenta una sana competencia entre ellas, contribuyendo así a la mejora continuada de la calidad y el rendimiento de GNU/Linux. La elección parece abrumadora pero por lo general es difícil cometer un error seleccionando una de las más populares, como Red Hat, Suse o Ubuntu.



13 - GNU/Linux cuenta con un alto grado de flexibilidad de configuración. Se puede lograr una alta personalización muy fácilmente y sin tener que modificar el código fuente. Es muy sencillo configurar GNU/Linux durante la instalación y optimizarlo para su uso como estación de trabajo, ordenador de escritorio, ordenador portátil, servidor web, servidor de base de datos, etc. Del mismo modo el aspecto y el comportamiento del escritorio, incluyendo iconos y menús puede ser configurado con un numero casi infinito de posibilidades y formas. Incluso puede hacerse parecido a Windows... Si esto no fuera suficiente, la capacidad de libre acceso al código fuente permite un grado de personalización "ilimitado".

14 - GNU/Linux utiliza formatos abiertos y estándares. Estos son aquellos que se ajustan a las normas de la industria y que pueden ser utilizados por cualquier desarrollador de software para crear programas compatibles. Es el caso de los formatos para el procesamiento de textos, hojas de calculo y otros tipos de archivos. En comparación con los formatos privativos (véase el formato DOC), el uso de estándares elimina el problema del apego a las normas privadas, con la consecuente dificultad y coste a la hora de cambiar a otro software en un futuro. El uso de formatos abiertos permite al usuario tener el control total de sus datos, en particular en el caso de que el vendedor de software decida dar por obsoleta la versión del programa, obligando al usuario a migrar todos sus datos a la nueva versión, previo pago, por supuesto...

15 - GNU/Linux es generalmente más rápido para un determinado conjunto de especificaciones de hardware. Esto es debido a una mayor optimización del código fuente.

16 - GNU/Linux cuenta con un alto grado de compatibilidad con otros sistemas operativos. Por ejemplo, se puede escribir, leer, copiar, borrar y manipular los datos existentes en una partición para Microsoft Windows, actuar como servidor para una red que contenga clientes en Windows, formatear discos duros para el uso con Windows, e incluso ejecutar los programas de Windows directamente si fuera necesario. En comparación, los sistemas operativos de Microsoft no pueden acceder a particiones de disco que contengan otros sistemas, no pueden formatear discos duros para otros sistemas, etc, etc...

17 - La ética y la moral se mantienen muy altas en el mundo GNU/Linux y en el resto del software libre debido a la gran apertura de su proceso de desarrollo y a la libre disponibilidad del código fuente. GNU/Linux nunca ha sido condenado en un tribunal por violación de leyes antimonopolio u otros delitos, ni ha tenido que pagar sanciones por la copia no autorizada de tecnología desarrollada por otras empresas. Las políticas gubernamentales antimonopolio regulan o rompen monopolios con el fin de promover la libre competencia. Los beneficios por alcanzar dicha competencia afectan a la economía y a la sociedad en su conjunto.

18 - GNU/Linux reduce la necesidad de actualizar o sustituir hardware cuando se actualiza a una nueva versión. Esto se debe a que su código fuente es muy eficiente y compacto, lo que permite que funcione en computadoras antiguas que no son adecuadas para las versiones más recientes de Microsft Windows.

19 - GNU/Linux es capaz de operar en una amplia variedad de plataformas y no solo se limita a equipos con procesadores Intel o AMD. Funciona perfectamente en una vasta variedad de equipos que van desde los superordenadores a los robots industriales, equipos médicos, teléfonos móviles (puede ejecutarse incluso en un reloj de pulsera)

20 - GNU/Linux es una mejor elección para su uso en las instituciones académicas por una serie de razones. Entre ellas se encuentra el hecho de que no hay secretos (en marcado contraste con el software privativo), con lo que los estudiantes tendrán la oportunidad de estudiar como funcionan realmente los ordenadores en lugar de simplemente aprender a usarlos. Muchos profesores están convencidos de que es mucho más importante aprender los fundamentos prácticos de la informática que aprender el uso de aplicaciones especificas (como Microsoft Word o Power Point). Una de las razones es que los fundamentos prácticos de la informática seguirán siendo validos después de muchos años, mientras que las aplicaciones (especialmente las propietarias) están en constante cambio y los conocimientos adquiridos quedarán obsoletos en pocos tiempo.

21 - Para los organismos gubernamentales, GNU/Linux permite la transparencia de los datos, ya que los almacena en formatos compatibles con toda la industria. Todo lo contrario al software comercial. Esta transparencia es importante para mantener una democracia efectiva. Esto permite a cualquier usuario acceder a los datos sin tener que comprar caros programas privativos. Por otra parte, mantenerlos en formatos estándar es mucho más seguro que hacerlo usando formatos propietarios.

22 - En GNU/Linux hay muy pocas razones para temer la existencia de puertas traseras, en parte porque todo el código fuente está disponible para su inspección. Una puerta trasera es un método secreto para obtener acceso remoto a un ordenador. Existe una (muy justificada) preocupación por parte de los gobiernos y las corporaciones de que dichas puertas traseras se han insertado de forma encubierta en el software propietario, permitiendo a los desarrolladores y a otros gobiernos a acceder a sus datos confidenciales.

23 - El uso y la promoción de GNU/Linux ayuda a fomentar una sana diversidad y aumento de competencia en toda la industria del software. Esa competencia puede promover el avance tecnológico, mejorar el rendimiento y disminuir los costes del software libre y del software propietario por igual. Tanto la teoría económica como los cientos de años de real experiencia en el mundo demuestran claramente que los monopolios no necesitan innovar, tienden a producir productos de mala calidad, inflan los precios y tienden a corromper el sistema político.

24 - GNU/Linux y el software libre no solo han alcanzado, o en algunos casos superado al software privativo, sino que también desarrollan más rápido. Esta tendencia irá a más, dado que la demanda para este tipo de software sigue creciendo y cada vez más personas y organizaciones participan activamente en su desarrollo.

25 - GNU/Linux ofrece la oportunidad de que los usuarios puedan contribuir al avance de la tecnología del software, debido a que el código fuente está disponible gratuitamente para ser estudiado, mejorado, ampliado y redistribuido. Un notable ejemplo de ello a nivel empresa ha sido IBM.

26 - Existen en realidad más de 25 razones por las que organizaciones de todo el mundo están migrando a GNU/Linux. Un vigésimo sexto motivo es que con GNU/Linux no hay necesidad de desfragmentar los discos duros a diferencia de Windows. La fragmentación, que es la difusión de datos en lugares no contiguos puede reducir la eficacia del almacenamiento de datos y ralentizar el funcionamiento de la máquina. Desfragmentar no es difícil, pero puede ser una molestia tener que hacerlo periódicamente, y no es necesario si tienes un sistema operativo bien diseñado.


Por Universia Tech