Buscar en Catblow:

5/31/2007

Gasolineras y precios, en aplicación web

El otro día se me ocurrió una idea en la gasolinera, y como buen friki me puse manos a la obra, así que hoy nace elpreciodelagasolina.com, una aplicación web para ahorrarse unos euros conociendo las gasolineras más baratas de tu zona en cada momento. El sitio toma los datos oficiales del Ministerio de Economía, sobre los que he añadido cosas nuevas, intentando sobre todo facilitar la vida al usuario. Por ejemplo, incorpora RSS de todas las localidades, URIs semánticas, comentarios sobre las gasolineras, la localización sobre Google Maps de un par de miles de ellas, un buscador tipo "live search" (para encontrar mientras tecleas), gráficas con la tendencia de los precios... Las gráficas son SVG (gráficas vectoriales), así que los sufridos usuarios de Internet Explorer no van a poder verlas (otra razón más para cambiarse a Firefox u Opera).

Fuente: Barrapunto.

5/30/2007

Adiós CrossFire. Hola, QuadFire

Una preview pre-Computex del nuevo chipset RD790 de AMD/ATI revela que algunas placas basadas en la nueva lógica del núcleo permitirán conectar hasta cuatro tarjetas X1x y X2x en configuraciones CrossFire.

Aunque algunos periodistas vieron este prototipo funcionando, tuvieron que firmar esos molestos NDA que a nosotros tanto nos gusta ridiculizar [N. del Ed. particularmente, a nuestros colegas ingleses]. Por lo visto los chicos de OCW no firmaron nada, porque han publicado fotos e imágenes del sistema QuadFire en acción.

La placa de referencia con el RD790 llega con cuatro ranuras PCIe en una configuración 4x8 (que puede ser 2x16) que puede ser utilizada para usar hasta 8 monitores. En OCW dicen que la mejora de rendimiento con 4 tarjetas no será apreciable en la mayor parte de los casos, pero es interesante saber que se puede hacer.

El controlador CrossFire de hecho especifica que "CrossFire... [combina] la potencia de proceso de dos o más Graphics Processing Units", lo que parece confirmar esta nueva solución de AMD/ATI.

Seguro que oiremos hablar mucho del RD790 ahora que se acerca el Computex. Las especulaciones sobre la posibilidad de tener cuatro Radeon HD 2900XT y de que con eso se llegue a alcanzar a las 88000 Ultra de NVIDIA no se confirmó. Porras.

Fuente: the INQUIRER.

Power6 se convierte en el procesador más rápido, usa Rad Hat Linux y SuSE Linux

BM incorporará este nuevo chip, basado en tecnología de 65 nanómetros, en su servidor System p750 y los primeros benchmarks del fabricante lo sitúan muy por encima de máquinas de HP y Sun del mismo rango.

En plena guerra comercial entre Intel y AMD, IBM ha lanzado su procesador Power6, que duplica la velocidad de su antecesor Power5, pero con el mismo consumo energético. El chip incorpora 790 millones de transistores en tecnología de 65 nm, dispone de 8 Mb de caché de segundo nivel y funciona a una velocidad de 4,7 GHz (el Itanium 2 de Intel tiene una velocidad de 1,66 GHz), consiguiendo un ancho de banda de 300 gigas.

Otro aliciente para el nuevo procesador son sus capacidades de virtualización, ya que incluye la nueva tecnología Live Partition Mobility, que permite a los administradores mover máquinas virtuales entre equipos físicos sin tiempos de parada.

El Power6 pronto estará disponible, corriendo en el sevidor System p750 que dispondrá de ocho zócalos para montar un sistema multiprocesador de hasta 16 núcleos. Este equipo ejecutará Rad Hat Linux, SuSE Linux o AIX, la versión de Unix de IBM. Comparado con los equipos de HP y Sun, el nuevo p570 puede correr más rápido que tres máquinas Superdome o una docena de servidores Sun Fire v890, según los becnhmarks aportados por IBM.

Asimismo, desde IBM aseguran que también se utilizará en los servidores System i, que originalmente utilizaban AS / 400 y pueden funcionar con el sistema operativo i5/OS de la compañía además de AIX, Linux y Windows.

El Power6 es el primer chip con capacidad de hacer cálculos en com


Fuente: SomosLibres.org.

La CIA le ponía micrófonos hasta a los gatos

Aunque la guerra fría ya es cosa del pasado - o eso se dice - la CIA ideó formas realmente singulares para espiar las conversaciones del Kremlin, como la de ponerle un micrófono a un inocente gatito.

Según el Telegraph, un gato fue alterado de forma quirúrjica para que pudiera acomodársele un dispositivo de transmisión y control de forma que los espías pudieran escuchar las conversaciones secretas desde todo tipo de localizaciones, incluidos los cubos de basura, claro.

Victor Marchetti, ex-oficial de la CIA, dijo que en el projecto 'Acoustic Kitty' al gato se le operaba para introducirle el micrófono y cableado necesario. La cola se utilizaba como antena.

Sin embargo, la primera prueba fue un desastre, ya que el gato fue atropellado por un taxi. El proyecto de 10 millones de dólares acabó abandonándose.

Todo esto se descubrió al seguir algunos documentos que han dejado de ser clasificados en el Science and Technology Directorate de la CIA.

Fuente: the INQUIRER.

5/29/2007

Teclado que mantiene los dedos calientes

Esta noticia es totalmente inapropiada por la época del año en que estamos, excepto nuestros lectores que nos leen desde el sur del globo terrestre, pero bueno, algún día este trasto puede ser útil y ¿Quién no ha pasado frío en pleno invierno tecleando ante el ordenador? ¿Alguien se ha puesto guantes? Los redactores de N3D en sus inicios pasamos malos días en este aspecto.

Aunque no es demasiado bonito, este teclado emite calor y mantiene nuestros dedos calentitos mientras trabajamos y todos sabemos que la comodidad va antes que la estética. Otra opción es encender la calefacción, pero seguro que resulta más caro y en muchos casos inviable. Naturalmente hay un selector de temperatura y se puede apagar, ya que sino sería la tortura del verano. ¿No podrían crear un teclado mixto, con calor en invierno y frío en verano?

Fuente: Noticias3D.

Java para PSP

Un grupo en Google esta llevando a cabo el proyecto de realizar un máquina virtual para correr programas Java en el PSP (Play Station Portable) de Sony.

Esta máquina virtual tiene el nombre de BLUEKVM con la cuál se podrán correr programas hechos en J2ME con CLDC 1.1

En la página esta la versión demo de la BLUEKVM para descargarla y probarla.

El proyecto aun esta muy verde, esta versión de la BLUEKVM funciona únicamente con la versión 1.5 del firmware del PSP.

Imaginen crear sus propios juegos y jugarlos en esta consola.

http://groups.google.com/group/java4psp

Fuente: javaHispano.

Las 10 novedades de Windows Server 2008

Un artículo de BetaNews destaca las 10 características más novedosas del futuro sistema operativo servidor de Microsoft.

Muchas serán las mejoras introducidas en esta edición llamada Windows Server 2008, que reemplazará la última versión servidora de Windows dentro de poco. La consolidación de servidores, la gestión del hardware y de máquinas remotas y las nuevas opciones de seguridad son aspectos destacados, y en BetaNews han reunido lo que a su parecer serán las 10 características más novedosas.

Por ejemplo, destacan el sistema de ficheros NTFS con capacidad de autoreparación o el apagado del servidor con la ayuda de un servicio de 'limpieza' del sistema que finalizará tareas y procesos pendientes. El nuevo gestor de transacciones del núcleo evitará la corrupción del sistema por el acceso simultáneo de múltiples fuentes a un mismo recurso, y también nos encontraremos con el denominado Windows Hardware Error Architecture, un sistema de informe de errores.

Sin embargo las opciones más importantes son la virtualización de servidores - el proyecto Viridian es cada vez más prometedor - el nuevo Powershell, y sobre todo y ante todo, el nuevo núcleo del sistema operativo: por primera vez los administradores disponen de una solución modular de la que sólo necesitarán instalar los componentes que necesiten, pudiendo partir de una implantación básica.

Fuente: the INQUIRER.

IBM se vuelve ecologista con Zodiac

El Gigante Azul dice ser más verde hoy con la introducción de una herramienta que permitirá a sus clientes medir el tamaño de su huella de carbón.

La herramienta Zodiac de IBM utiliza una gran base de datos para establecer el consumo total de energía y huella de carbón de los servidores de los clientes y de todas sus plataformas.

IBM dice que el ahorro energético en las TI es “algo que hay que tener en cuenta en el sector tecnológico, debido a los beneficios medioambientales y económicos que representa”. Por eso, el servicio Zodiac mejorado incorpora estadísticas sobre la huella de carbón para ayudar a los clientes a ser más eficientes.

La compañía asegura que sus clientes tienen la tendencia a infrautiliza el hardware, con los servidores funcionando a un 10-12 por ciento de su capacidad, lo que les hace malgastar innecesariamente energía.

IBM recomienda reducir el número de servidores que se utilizan a una misma vez, para que así los que se queden encendidos funcionen en toda su capacidad.

Asegura que esto ha ayudado a una empresa a reducir su huella de carbón en 156 toneladas de CO2, lo que significa 516 árboles en la nueva moneda.

“El consumo de energía se ha convertido en el mayor negocio del futuro y las compañías deben tomárselo en serio”, comenta Dave Kay, de IBM.

Fuente: the INQUIRER.

5/28/2007

"Xtreem OS", un proyecto europeo de tecnología Grid basado en software libre

Europa, que pretende convertirse en la economía basada en el conocimiento más dinámica y competitiva del mundo, se propone desarrollar la infraestructura necesaria para impulsar la próxima generación de tecnologías Grid.

Las tecnologías Grid conectan ordenadores e instrumentos científicos, reuniendo a usuarios de todo el mundo y de empresas distintas en una única organización «virtual». A su vez, los miembros de esta organización virtual pueden intercambiar conocimientos de forma instantánea, así como almacenar datos y compartirlos con facilidad.

XtreemOS es un proyecto que la UE está financiando mediante su Sexto Programa Marco (6PM). Su objetivo es diseñar y promover un sistema operativo de fuente abierta que sirva de apoyo a dichas organizaciones virtuales.

Como sistema operativo podría utilizarse para ordenadores personales aislados y para clusters de ordenadores, así como para aparatos móviles, y todos ellos tendrían acceso a los recursos de la Grid.

Partiendo del popular programa de fuente abierta Linux, XtreemOS aspira a convertirse en una alternativa a su rival directo, el conjunto de herramientas estadounidense Globus, y pasar a ser el nuevo estándar de facto de esta crucial tecnología.

Según la coordinadora del proyecto, Sandrine L'Hermitte, «el sistema XtreemOS ofrecerá una alternativa a Globus, que en la actualidad es el sistema de middleware más extendido para administrar redes informáticas a pesar de su complejidad».

«Se espera que el proyecto XtreemOS refuerce la posición de Europa en los campos de investigación de los sistemas operativos y de los sistemas de Grid. Hoy en día, aunque el sistema operativo Linux, el sistema Symbian para teléfonos móviles se concibieron en Europa, Estados Unidos está a la cabeza en todos ellos. Esperamos que el proyecto XtreemOS contribuya a equilibrar el panorama», concluyó.

Este proyecto de cuatro años intentará también promover el sistema XtreemOS para grids a escala internacional. El proyecto, cuyo consorcio cuenta con dos socios chinos, tiene la vista puesta indudablemente en Asia y en su mercado, en rápida expansión.

Fuente: La Flecha.

Longhorn vuelve a la vida

Es posible que algunos recordéis la fecha del 27 de agosto de 2004, el día en el que Microsoft anunció que iniciaba un nuevo camino y abandonaba Longhorn para poder cumplir su fecha prevista de lanzamiento de 2006. Pues bien, el sistema operativo del que partió Windows Vista, vuelve a estar disponible, y entre otras cosas, integra WinFS.

La noticia aparece en SoftPedia, donde se indica que cualquiera puede descargarse la beta de este sistema operativo, que es una versión modificada de la compilación 6.0.4074 de Windows, aquella que se utilizó durante la presentación de Microsoft de agosto de 2004 en el WinHEC.

El proyecto 'Longhorn Reloaded' tratará de revivir esta propuesta de sistema operativo que fue abandonada para poder afrontar una fecha de lanzamiento que se les escapaba de la mano a sus desarrolladores.


De hecho, incluso hacen público el número de serie necesario para poder activar el sistema operativo:

TCP8W-T8PQJ-WWRRH-QH76C-99FBW

Por el momento Microsoft no ha reaccionado ante este anuncio, pero teóricamente la licencia de uso de Longhorn no permitía modificar ni redistribuir el código. Sin embargo, sus responsables afirman que la versión actual - a la que han llamado Longhorn Reloaded M1 - ya está camino de su siguiente etapa, la versión M2. µ

Actualización: Parece que la noticia está sembrando algunas dudas entre nuestros lectores: efectivamente, la versión servidora de Windows había mantenido el nombre de "Windows Longhorn", aunque hace poco se supo que el nombre definitivo sería Windows Server 2008, como comentamos en The Inquirer ES, aquí.

Este proyecto hace referencia a las primeras ediciones de Longhorn, cuando aún era la base para lo que supuestamente sería el nuevo sistema operativo de Microsoft. Finalmente muchas de las características propuestas en Longhorn se acabaron eliminando para seguir otro camino que permitiera a Microsoft lanzar el producto en las fechas prevista de 2006. Cosa que como todos sabemos, nunca ocurrió de todos modos. En este vídeo podéis comprobar qué era lo que Microsoft tenía pensado para Longhorn. No se parece demasiado a lo que tenemos ahora, ¿verdad?

Fuente: the INQUIRER.

5/26/2007

Sun libera el código fuente de Java tal y como había prometido

El proyecto OpenJDK bebe de las fuentes intelectuales de OpenSolaris y tiene como objetivo reunir a su alrededor una comunidad de desarrolladores en código libre que continúen con la plataforma Java.

Guillem Alsina (guillem@imatica.org) - Tal y como prometió hace ya algún tiempo, Sun Microsystems ha liberado la parte principal del código fuente de Java, fundando para ello el proyecto OpenJDK y colocando online todo el código fuente necesario para compilar una versión funcional del JDK de Java SE (Standard Edition).

La cesión de este código fuente se hace bajo la protección de la licencia GPL versión 2, lo que pese a no sorprender en exceso, por lo menos sí puede provocar nuestra sonrisa al haber sido liberado el código de Solaris bajo un tipo de licencia reconocida como libre pero incompatible con la GPL: la CDDL (Common Development and Distribution License), que es la que habitualmente utiliza Sun y que deriva de la licencia Mozilla en su versión 1.1 .

A partir de este punto, la vida de Java será como la de OpenOffice/StarOffice o OpenSolaris/Solaris: por un lado, la comunidad independiente de programadores desarrollará el estándar y todas las herramientas necesarias para trabajar con él. Esto quiere decir que tanto los entornos de ejecución como el kit básico de programación (JDK) serán desarrollados por esta comunidad.

Por la otra parte, Sun Microsystems utilizará el código fuente de estos proyectos para sus propios productos a los que ofrecerá soporte técnico de pago. Además, la multinacional norteamericana ha prometido que hará lo necesario para que sus herramientas se integren al máximo con el nuevo Java, como por ejemplo el entorno integrado de programación (IDE) NetBeans.

Por el momento, la dirección del proyecto OpenJDK ha sido puesta en manos de un comité interino hasta que sea la propia comunidad formada a su alrededor quien esté lo suficientemente consolidada y cohesionada para elegir por ella misma y de forma democrática un comité director.

La importancia de esta decisión

Java es un lenguaje de programación y plataforma muy importante hoy en día. Su presencia en computadoras de sobremesa y dispositivos móviles (especialmente teléfonos) es notable, existiendo entornos de ejecución para los principales sistemas operativos: Windows, Mac OS X, Linux, Symbian,…

Su uso es sobretodo empresarial en las computadoras de sobremesa, aunque también existen numerosas aplicaciones de usuario, y es uno de los reyes indiscutibles de Internet, facilitando la creación de aplicaciones que funcionan online. No obstante, su estrella se ha visto un poco apagada por la irrupción de AJAX.

En el sector de la telefonía móvil son numerosos los programas lúdicos o aplicaciones serias que utilizan Java para ser multiplataforma, ya que hoy en día son pocos los terminales de telefonía que salen de fábrica sin tener instalada la máquina virtual Java.

Con este movimiento, Sun se gana las simpatías del movimiento del software libre (Richard Stallman ya ha apreciado el gesto llevado a cabo por la empresa norteamericana) con toda la cantidad de desarrolladores que ello implica, y que ahora pueden verse tentados por los cantos de sirena de Java y sus posibilidades multiplataforma.

La inclusión de Java en distribuciones GNU/Linux como Debian que hasta ahora no era posible debido a su licencia restrictiva, va a ser ahora factible, lo que implica una mayor penetración de Java en el mercado. Además, ahora ya no nos tendremos que plantear dudas sobre que pasará en el futuro de esta plataforma, pues cualquier cambio va a ser dictado por la comunidad. La continuidad es algo que preocupa al sector empresarial, en el cual -y como he comentado antes- Java tiene un buen mercado, por lo que con este movimiento se tranquiliza a los clientes que puedan estar preocupados por el futuro a medio/largo plazo de la plataforma pese a la solidez demostrada por Sun Microsystems como empresa.

Más información:

OpenJDK
http://openjdk.java.net/

Nota de prensa de Sun anunciando la publicación del código fuente del JDK
http://www.sun.com/aboutsun/pr/2007-05/sunflash.20070508.3.xml

Fuente: Noticiasdot.com.

Gafas nocturnas contra la piratería

La MPA y las autoridades de Malasia entrenan a los acomodadores del cine para que vigilen a los espectadores e impidan grabaciones ilegales

Los cines de Malasia han econtrado una nueva y potente arma en la lucha contra los piratas que se introducen en ellos para grabar de forma ilegal los últimos estrenos: gafas de visión nocturna, al más puro estilo militar. Los acomodadores, después de conducir a los clientes a sus butacas, y en cuanto se apagan las luces, se encargan de colocarse esas gafas. Y comienzan a escudriñar el patio en busca de infractores que intenten grabar el filme en la oscuridad utilizando pequeñas videocámaras.

La Motion Picture Association (MPA), que está entrenando a los acomodadores para esta nueva tarea, asegura que en los últimos dos meses, en los cines donde se utiliza esta técnica, han sido arrestadas un total de 17 personas que intentabamn copiar éxitos de taquilla como Spiderman 3 o Piratas del Caribe. Y y todas ellas fueron avistados gracias a las gafas de visión nocturna.

Gafas, y perros

Malasia es uno de los países sobre los que Estados Unidos ejerció mayor presión para combatir la piratería de filmes y software. Y gracias a ella, las autoridades de EEUU consiguieron el año pasado que las del país asiático se comprometiesen a multiplicar los esfuerzos para encontrar y detener a los miembros de los fabricantes de DVDs piratas.

En esos esfuerzos se enmarca la actividad de la MPA en Malasia, que hace unos meses cedió a dos perros de raza Labrador para la detección de cargamentos de DVDs piratas. Buen olfato el suyo, porque ya han conseguido que la policía malasia se incaute de un millón de copias ilegales. El éxito es tan grande que se rumorea que los piratas han puesto precio a las cabezas de Lucky y Flo, que así se llaman los canes.

Fuente: El Pais.

La IPv6 vendrá de Asia

Tras las últimas noticias que anuncian que la IPv4 se agotarán en 2010, he decidido recuperar este intersante artículo del blog de Velneo:

“Para los no iniciados, diré que IPv6 es a las redes de ordenadores lo que Velneo V7 a los lenguajes de programación y bases de datos, es decir, el presente-futuro, aunque sabemos que Velneo V7 tendrá mejor suerte que la que ha tenido hasta ahora su símil en comunicaciones.

Las motivaciones del desarrollo de IPv6 más comentadas han sido siempre dos, por un lado y principalmente, el número casi ilimitado de direcciones únicas que ponen a disposición los 128 bits del sistema de direccionamiento IPv6 (en comparación con los 32 bits que tiene IPv4), que contrasta con la anunciada saturación de direcciones IPv4 libres disponibles para la comunidad de Internet, y por otro lado la necesidad de unificar y dar soporte dentro de la arquitectura de protocolos a determinados servicios que mejorarían notablemente la calidad de las comunicaciones, como pueden ser servicios de seguridad de los datos, o calidad de servicio (QoS).

No hay nada que añadir, que no sea meramente descriptivo a la segunda razón, salvo que se están desarrollando continuamente soluciones a esas problemáticas de seguridad o QoS dentro del protocolo IPv4, que pueden considerarse por la comunidad de forofos de IPv6 como simples parches más o menos efectivos, pero que están siendo una de las razones de la resistencia a la implantación de IPv6.

En cambio, la primera de las razones referida al número de direcciones IPv4 disponibles en contraste con las direcciones IPv6, está llevando a discusiones bastante más controvertidas. Los 128 bits del campo de direcciones de IPv6 permiten una resolución de direcciones del orden de 66 * 10²² direcciones por metro cuadrado de superficie terrestre, incluyendo mares y océanos (es decir, dos seises seguidos de 22 ceros … ¡¡ por metro cuadrado ¡!), que contrasta con las casi 4300 millones de direcciones IPv4 disponibles incluyendo por simplificar, los rangos reservados; esto sólo da 0′0000084 direcciones disponibles por metro cuadrado de superficie terrestre incluyendo los océanos.

Pero entonces, ¿porqué no despega la implantación de IPv6?, si las necesidades son tan acuciantes. Pues según la mayoría de analistas por varias razones. Para verlas será necesario reconocer inicialmente que el verdadero revulsivo para la migración de los sistemas de comunicaciones a IPv6 es el direccionamiento y la escasez de direcciones IPv4. Entonces ¿porqué cuesta entorno a 12 € al mes disponer de una dirección IP fija en un equipo doméstico?, ¿porqué prácticamente todos los proveedores de Internet dan soluciones de direcciones IP compartidas?.

Después de reconocer el problema del número de direcciones disponibles, basta con conocer el dato de que en EEUU están asignadas el 70% de todas las direcciones IPv4 públicas, por lo que ellos no tienen prisa …. Pero donde sí tienen prisa es en el Asia emergente, ya que en su momento no fueron rápidos para reservar direccionamiento público, o no le dieron en algunos países la importancia que tenía, y paradójicamente es ahora mismo el principal motor en la implantación de IPv6 … por tanto, no nos preocupemos … IPv6 llegará de Oriente.”

Fuente: Chocolores y más colores.

Novell hace públicos los documentos de su acuerdo con Microsoft

El polémico acuerdo de colaboración que Novell firmó con Microsoft fue objeto de muchas críticas, pero ya entonces la empresa responsable de las distribuciones SuSE Linux prometió que haría públicos los documentos del acuerdo. Y ha cumplido su promesa, lo que ha permitido que se empiecen a estudiar esos documentos para saber si Novell está relacionada o afectada por el anuncio de Microsoft de la 'dudosa' violación de patentes por parte de Linux

Fuente: Barrapunto.

5/25/2007

Haz tus juegos personalizados con Pictogame

Llega un fin de semana más, aunque no podriamos decir con buen tiempo. Bueno, no hay problemas ya que nos podemos divertir de otras maneras, como crearnos nuestros propios juegos.

De la mano de Pictogame podemos crearnos nuestros propios juegos, añadirlos en nuestra web o red social y/o compartirlos con nuestros colegas a través del correo electrónico.

Tan sencillo como elegir la imagen, bien desde nuestro sistema o desde uan url, elegir el tipo de juego, donde podemos desde hacer un puzzle hasta dar patadas en el culo, adaptar nuestra imagen a la plantilla y definir una frase opcional. Luego tan sólo guardaremos nuestro juego con lo que obtendremos el enlace para compartirlo, el código html según la red social o blog donde queramos introducirlo e incluso compartirlo por correo electrónico.

Así que ya sabes, nos podemos crear nuestros propios juegos y pasar ratos divertidos, con lo que al mal tiempo buena cara.

Fuente: Genbeta.

Las direcciones IPv4 se agotarán en 2010

El organismo ARIN (American Registry for Internet Numbers) ha confirmado no habrá más direcciones IPv4 en 2010, y que la migración urgente hacia la versión 6 del protocolo es muy necesaria.

Según Ars Technica, hay gente que ofrece información fraudulenta al ARIN para obtener un espacio de direcciones mayor de lo realmente necesario, y a medida que las direcciones IPv4 se van reduciendo, eso ocurre con más frecuencia.

Esta asociación es la que da las direcciones IP en Norteamérica y hay cuatro organizaciones equivalentes para gestionar esas direcciones en el resto del mundo: LACNIC (Caribe y Latinoamérica), AfriNIC (África), APNIC (Asia y Pacífico) y RIPE NCC (Europa y resto del mundo).

El mayor problema para ARIN es que las direcciones IPv6 no ofrecen demasiadas ventajas y hay muy pocos usuarios. Según las estadísticas de ARIN, el 19% del espacio de direcciones IPv4 está aún disponible, con un 13% no disponible y un 68% 'localizado'.

Fuente: the INQUIRER.

5/24/2007

Troyano se hace pasar por un mensaje de Windows

Le informa al usuario que se ha activado una copia de Windows con el mismo código que la suya. Para asegurar que su copia es la legal, solicita se introduzcan ciertos datos para asegurar que su copia es la legal.

KardPhisher.A es un troyano que se hace pasar por un mensaje de Windows para robar información confidencial. El proceso es el siguiente: una vez ha infectado un ordenador, el troyano crea un archivo con nombre “keylog.dll” que se encarga de capturar la información del teclado.

A continuación, y para asegurarse de que el usuario introducirá alguna información “rentable”, el troyano muestra, tras el siguiente reinicio del PC, una ventana que simula ser un mensaje de Windows. En ese mensaje se dice al usuario que se ha activado una copia de Windows con el mismo código que la suya. Para asegurar que su copia es la legal, se le pide al usuario que introduzca ciertos datos.

“La trampa está en que el usuario no se puede negar a introducir los datos. Incluso, si el usuario pulsa sobre la opción “No, I will do it later” (no, lo haré más tarde), el ordenador se apagará, volviendo a mostrar el mismo mensaje, si el usuario lo reinicia”, explica Luis corrons, Director Técnico de PandaLabs.

Si ante la imposibilidad de hacer otra cosa, el usuario decide seguir adelante, el troyano le mostrará una nueva ventana en la que se le pedirán datos personales como el número de la tarjeta de crédito, el e-mail y el código CVV.

El troyano comprobará que la dirección de correo electrónico tiene una arroba o que el número de la tarjeta de crédito tiene el número de dígitos correctos.

“Sin embargo, no es necesario que esos datos sean reales. Es decir, podemos inventarnos la dirección de correo y el número de tarjeta. De esta manera, no estaremos dando datos confidenciales y lograremos utilizar, de nuevo, nuestro ordenador de forma correcta”, asegura Luis Corrons.

“El riesgo está”, continúa el Director Técnico de PandaLabs, “en que alguien mal informado proporcione datos reales, ya que la información suministrada por el usuario es enviada, inmediatamente, al creador del troyano a través de una página web”.

Fuente: Climbo.

Los primeros discos de almacenamiento holográfico llegan al mercado

Los primeros discos de almacenamiento holográfico ya han salido al mercado. Estos sistemas tienen una capacidad de 300 GB y un aspecto parecido a un CD. Su capacidad, sin embargo, va a seguir creciendo y se espera que puedan almacenar en los próximos años hasta 1,6 Tbytes. Por el momento, resulta un sistema caro y son las empresas quienes se están interesando por ellos para guardar la gran cantidad de datos que gestionan. Los expertos piensan que no se impondrá a medio plazo a otros sistemas, sino que convivirá con ellos. Por Paul D. Morales.

El primer sistema de almacenamiento holográfico ha llegado ya al mercado. Tiene una capacidad de 300 gigabytes o GB en un dispositivo del tamaño de un CD. Por el momento, son las empresas las que más interés están demostrando por el nuevo sistema, ya que resulta caro, sobre todo el lector de discos.

La creciente demanda de almacenamiento de datos hace necesario buscar nuevas tecnologías más allá de las ya existentes, como los discos ópticos o las cintas magnéticas. La capacidad de almacenamiento ha crecido constantemente, desde los CD-Roms, en los que caben unos 700 MB de datos, pasando por los DVDs. (18 GB) hasta la próxima generación de formatos, como son Blu-ray y HD-DVD, con capacidades de hasta 25 GB.

El almacenamiento holográfico, sin embargo, va mucho más allá. Se habla de este sistema desde los años 60, pero la tecnología ha tardado cuarenta años en ponerse al día. El primer sistema comercial de almacenamiento holográfico fue anunciado recientemente por la empresa InPhase.

Este primer dispositivo, fruto de trece años de trabajos y desarrollos de diferentes materiales y sistemas, tiene130 mm y una capacidad para 300 GB de almacenamiento con una transferencia de 20 Mbytes/s y una expectativa de vida de cincuenta años.

Este primer disco holográfico integra diferentes formatos, pudiendo emular DVD, CD y VHS. A pesar de sus condiciones, InPhase no espera que el disco sea utilizado sólo para copias de seguridad (como actualmente emplean compañías tales como Turner Broadcasting, Lockheed Martin o la agencia federal Geological Survey).

Capacidad impensable

Para este otoño esperan sacar una versión de 600 GB y el año que viene una versión regrabable. En esta línea, esta empresa espera que estos discos alcancen nada menos que 1,6 Tbytes de capacidad. Para que nos hagamos una idea, todo el texto que contiene la Biblioteca de Congreso de los Estados Unidos ocupa 20 Tbytes, por lo que en algo más de 12 discos podría guardarse toda esa información.

Al contrario que otras tecnologías, que graban un bit cada vez, este sistema graba y lee un millón de datos con un único flash de luz. Esto permite que la media de transferencia sea significativamente mayor que la que ofrecen nuestros discos ópticos actuales.

La luz de un único haz de láser se divide en dos, un haz es la señal (que lleva consigo los datos) y el otro es el haz de referencia. El holograma se forma cuando estos dos haces interactúan. En el punto en el que el haz de referencia y el que lleva la información interseccionan, el holograma es grabado en un medio de almacenamiento sensible a la luz. En ese momento, ocurre una reacción química causando, efectivamente, el almacenamiento del holograma.

Alto precio

Para que los sistemas de almacenamiento holográfico funcionen en el mercado tendrán que ser fáciles de usar y ser accesibles en precio. Este último requisito no parece que se vaya a cumplir. El primer disco duro holográfico de InPhase cuesta unos 180 dólares, no muy caro si pensamos en la capacidad. Sin embargo, el lector de los discos cuesta unos 18.000 dólares.

Demasiado dinero para usuarios domésticos. Por ello, los usuarios potenciales son bancos, bibliotecas, agencias gubernamentales o empresas. Como comenta Kevin Curtis jefe de tecnología de InPhase, en un entrevista concedida a The Guardian, las empresas grandes que, normalmente tardan en acoger nuevas tecnologías, son las más que más interés están demostrando debido a que cada vez les resulta más complicado gestionar sus datos.

Pese a todo, la expansión de esta tecnología a nivel comercial no parece sencilla. Los expertos auguran que será sobre todo un producto para negocios que convivirá con otros sistemas, como el Blu-ray. La consultora IDC estima que en 2011 el mercado de discos holográficos facturará únicamente 200 millones de dólares, una minucia para este sector que factura miles de millones de dólares al año.


Fuente: Tendencias Informaticas.

Dell ya vende PCs con Ubuntu

Tal y como anunciábamos en The Inquirer al comienzo de la semana, hoy es el día que marca una nueva época en la comercialización de Linux: Dell acaba de poner a la venta sus primeras tres máquinas con Ubuntu 7.04 preinstalado.

En The Inq ES llevamos meses hablando del tema, y aunque al principio muchos dudaban de las intenciones reales de Dell con respecto a Linux, finalmente se ha confirmado que la apuesta es seria y que Dell parece tener muy claros sus objetivos en este segmento.

En el blog oficial de la empresa Direct2Dell se confirma la noticia: los clientes estadounidenses de Dell ya pueden comprar cualquiera de los tres sistemas con Ubuntu 7.04 preinstalado.

Se trata de los PCs de sobremesa XPS 410n y Dimension 520n, y del portátil Inspiron E1505n. Los precios, realmente interesantes: 599 dólares para el Dimension y el Inspiron - modelos de consumo - , y 899 849 para el XPS, una máquina de gama media-alta.

Especifican además que el soporte hardware lo proporcionará Dell, y además inauguran una nueva web dedicada a Linux (http://linux.dell.com/ ) desde la cual descargar actualizaciones y parches. Ahora sólo queda ver si la oferta tiene tanto éxito como todos esperamos, y pronto llega al resto del mundo. ¿Marcará este suceso un punto de inflexión en la historia de los sistemas operativos y la informática?

Fuente: the INQUIRER.

La capacidad de Windows Vista llega a los cuatro núcleos

Microsoft ha confirmado que Windows tiene problemas para gestionar procesadores con varios núcleos. La capacidad de Vista llega a los cuatro núcleos.

Diario Ti: "La próxima versión de Windows será fundamentalmente diferente, con el fin de poder aprovechar al máximo los procesadores de núcleo múltiple", dijo Ty Carlsson, director técnico estratégico en Microsoft en el marco de un panel de discusión denominado Future in Review.

Según la publicación CNet, es la primera vez que Microsoft admite, aunque indirectamente, que Windows tiene problemas para funcionar con procesadores de núcleo múltiple.

"Usted tendrá 8, 16, 64 e incluso más núcleos en su computadora", dijo Ty Carlson, agregando que "Windows Vista está diseñado para 1, 2 y hasta 4 procesadores".

Los primeros procesadores de cuatro núcleos ya están disponibles en el mercado, y para el próximo año se anuncian los procesadores de ocho núcleos. Según Microsoft, Windows Vista no estará en condiciones de ejecutar ocho núcleos. El denominado "thread scheduler" que distribuye las hebras de los programas entre los núcleos, no está a la altura del desarrollo tecnológico en el área de los microprocesadores.

Intel incluso ya ha demostrado un procesador experimental de 80 núcleos. Sin embargo, los avances en hardware no tienen relación con el panorama en el ámbito del software, ya que actualmente es difícil encontrar programas que aprovechen al máximo el rendimiento de los chips de núcleo múltiple.

"En 10-15 años más tendremos una capacidad de cálculo inconmensurable. El desafío será crear una infraestructura que permita desarrollar el software adecuado", agregó Ty Carlsson.

Fuente: DiarioTI.

5/23/2007

Reinado del Flash corre peligro

Si todavía no se trata de una guerra, por lo menos hay movilizaciones en ambos bandos. Y lo que está en juego es el monopolio que posee la tecnología de animación Flash en el reino de las computadoras.

Los adversarios son de peso: por un lado la compañía Adobe, propietaria del Flash, instalado en más del 95% de las computadoras conectadas a internet, y utilizado por sitios de moda como YouTube y MySpace para publicar videos y otros contenidos.

Por el otro lado se planta el gigante Microsoft (licenciataria del exitosísimo sistema operativo Windows y de los programas Office, dentro de los que se encuentra el de presentaciones audiovisuales PowerPoint), que en la reciente feria de tecnología de Las Vegas presentó su programa Silverlight, mediante el cual pretende terminar con el reinado absoluto del Flash en la administración de videos.

El Siverlight, que en estos días se ofrecerá a los usuarios en una versión beta, será compatible con los principales navegadores del mercado, permitiendo a Microsoft abarcar tanto al segmento de las PC a través del Windows, como al de las computadoras Apple con el sistema operativo Mac OS.

Experiencia

Tanto Adobe como Microsoft conocen de estas lides y tienen experiencia en aplastar y devorar a la competencia. Adobe se quedó en 2005 con Macromedia, creadora del Flash, al que incorporó a sus demás éxitos comerciales como el PhotoShop, Illustrator (diseño gráfico), Dreamweaver (editor de páginas web) y Acrobat (PDF).

Microsoft, por su lado, se sacó de encima al lenguaje Java de Sun y al navegador de internet de la firma Netscape, por lo que se estima que la batalla que comienza será sin cuartel.

Contraataque

Pasó poco tiempo del anuncio de Microsoft para que se conociera la respuesta de Adobe. La compañía con sede en San José, California, anunció el lanzamiento del Adobe Media Player, que sale a competir directamente con el Windows Media Player de Microsoft, software que domina el mercado de reproductores de videos online.

La novedad del programa de Adobe es que permitirá reproducir imágenes en alta definición, pero también analizar y mejorar los estándares de seguridad, algo muy valorado por los distribuidores de películas. Aparte de Microsoft, el segmento del video estaba manejado por Apple con su Quicktime Player y la empresa Real Networks, con su Real Media Player.

Continuará

La revista Forbes sostuvo en una de sus últimas ediciones que la guerra no se va a terminar ahí. Microsoft está preparando el lanzamiento de Expression Studio, una serie de herramientas para el diseño que intentará socavar el dominio de los programas insignia de Adobe en este terreno, como Dreamweaver y PhotoShop.

Pero los golpes no se limitan a estas dos empresas, ya que Google también anunció la llegada de su programa Presently, que saldrá a competir con el célebre PowerPoint de Microsoft. La novedad que propone Google es trabajar con el programa directamente desde internet, a través de su Google Docs, en lugar de hacerlo desde el disco rígido de la computadora.

Si bien a Microsoft se la acusó de realizar prácticas monopólicas en los últimos años, ahora le llegó el turno a Google. La empresa fundada por Bill Gates pidió una investigación sobre posible abuso de posición dominante contra Google luego de que ésta comprara recientemente la firma de publicidad online DoubleClick.

Fuente: guía trend.

Palm OS se despide definitivamente

El sistema operativo para dispositivos móviles que revolucionó el mercado de las PDAs ha tenido que rendirse a la evidencia. El último de los dispositivos con Palm OS ya está a la venta, pero a partir de ahora los productos de Palm harán uso de Windows Mobile... y de Linux.

La noticia de Slashdot enlaza con el análisis del Treo 755p que han hecho en la revista ComputerWorld. Este es el último de los dispositivos de la histórica Palm que integrarán su sistema operativo PalmOS, y aunque en el artículo se señalan algunas mejoras, no hay ninguna que parezca sorprender a sus autores.

La mala gestión de Palm ha impedido la salida al mercado de nuevas versiones de su sistema operativo para dispositivos móviles, y la eterna promesa de PalmOS 6 "Cobalt" nunca cristalizó. La rivalidad con Windows Mobile ha minado la capacidad de este antiguo gigante del mercado de las PDAs, que poco a poco fue reduciendo su abanico de productos.

Primero fueron los PDAs como tales, tras lo cual Palm se dedicó exclusivamente al lanzamiento de smartphones con su sistema operativo, pero la incapacidad para ofrecer nuevas funcionalidades les obligó a integrar una solución de su enemigo natural - Microsoft y su Windows Mobile 5 - en uno de sus productos, el Treo 700w. No será el único, pero parece que la apuesta futura de Palm está en Linux y más concretamente a la plataforma ALP (Access Linux Platform), desarrollada por Access, la empresa que compró la división de desarrollo de Palm, PalmSource.

Fuente: the INQUIRER.

Energía solar con principios del software libre

por Marcos Guglielmetti

Sistema de generación eléctrica por medio de energía solar en base a los principios del Software Libre
Las ideas del software libre se vienen extendiendo hacia otros campos de la vida humana. En este caso se trata de la energía solar. Hace casi 3 años, Richard Stallman en la Cámara de Diputados de Buenos Aires, Argentina[1], se preguntaba lo siguiente: "si las ideas del software libre pueden aplicarse a otros campos de la vida."

Recuerdo que quedé muy impresionado por esa charla, al igual que todos los que estábamos allí. Fue un momento clave en mi vida, y quizá en la vida de otras personas.

Hoy vemos que las ideas del Software Libre efectivamente se han expandido hacia campos de la cultura, como el caso de Wikipedia, Creative Commons, y ahora nos toca este tema de la construcción de un nuevo sistema abierto, independiente de la locación, seguro y limpio para la generación de energía renovable.

¿Qué significa esto? Contaminar menos el planeta, y crear parte de lo que serían las bases de una vida sustentable (porque de este modo la vida en la tierra no es sustentable según los últimos informes científicos). Es por cierto una cuestión de vida o muerte que la humanidad comprenda esta cuestión.

Con un nombre extraño y nada marketinero, "SHPEGS" no quiere saber nada sobre registro de patentes y secreto industrial: el proyecto se dirige al público, no oculta nada y acepta en gran parte las contribuciones que puedan realizarse, es decir que opera como lo haría un grupo de desarrolladores de Software Libre.

¿Cómo sería nuestro mundo si todos pudiéramos generar nuestra propia energía eléctrica para nuestros hogares? El planteo es desafiante. Los invito a leer este informe, y a divulgarlo entre sus allegados con inclinaciones tecnológicas, le harán un favor al mundo.

Los desarrolladores de este proyecto piensan que "la energía es fundamental para la sociedad moderna, y debería ser apropiada por parte de la gente, no por parte de una corporación. La gente tiene moral, las corporaciones tienen responsabilidades con respecto a sus accionistas para obtener grandes beneficios".

Se intenta diseñar y construir un sistema que use una combinación de energía solar recolectada directa e indirectamente para generar electricidad, y guardar energía térmica de un modo económico, amigable con el medio ambiente, escalable, seguro, eficiente, independiente de una locación, utilizando materiales de construcción comunes.

Los creadores lo dicen claramente: la esperanza está puesta en que mediante la filosofía abierta (libre) el proyecto logre un desarrollo similar al éxito de "Linux" (el kernel) y los otros proyectos de software libre, proporcionando un sistema que pueda cumplir con futuros requerimientos de energía de un modo sustentable.

¿Cómo trabaja?

Una torre es construida para permitir que grandes cantidades de aire se muevan a través de intercambiadores de calor por convección natural producida por flotabilidad.

El calor termal o el profundo calor geotérmico se utiliza para accionar una bomba de calor que mueve una cantidad mucho más grande de calor mediante el aire. El calor del aire y el calor que acciona la bomba de calor se almacenan en un lugar de almacenamiento poco profundo.

El almacenamiento térmico es utilizado para explotar la diferencia en cambios de temperatura que son producto de la diferencia entre temperaturas en diversos momentos del día entre el aire y el subsuelo poco profundo, o entre el día y la noche o entre diferentes estaciones.

En efecto esto crea una fuente geotérmica local y la baja energía de trasmisión de medios permite lograr un sistema geotérmico eficiente de generación de energía. Esta fuente es confiable y puede ser utilizada para una estructura de calentamiento y generación eléctrica de carga de base.

Se puede encontrar buena información sobre plantas existentes de energía solar en la siguiente página: http://www.shpegs.org/b ackground.html

¿Cuál es el foco principal del diseño?

El foco principal del diseño está en construir una estación de energía factible y renovable para climas moderados, como por ejemplo Canada y el norte de los EEUU, Asia y Europa, o el sur de América del sur, donde hay un algo nivel de insolación durante el verano, pero también muy bajas temperaturas y poca luz del día en invierno. Es el caso del centro y sur de Argentina y Chile también.

En un clima del norte del planeta, hay dos picos anuales de uso de electricidad, en el verano, debido a la utilización del aire acondicionado, y en el invierno, debido a la temperatura de las estructuras y a las baja cantidad de horas de sol.

Los sistemas de energía solar directos logran acumular suficiente carga de energía durante los veranos, pero no proveen casi nada durante los meses fríos y oscuros del invierno.

Los sistemas SHPEGS tratan de usar el almacenamiento geotermal y las temperaturas frías del invierno para construir un sistema de generación eléctrica que pueda dar satisfacción al uso eléctrico tanto como sea posible.

Einstein

La bomba de calor de SHPEGS está basada en el principio de absorción de gas. A pesar de que hay muchos sistemas industriales basados en este principio, generalmente no es muy bien entendido. Albert Einstein ayudó al desarrollo del refrigerador por absorción de gas y obtuvo una patente en 1930, pero la bomba mecánica que funciona mediante compresión mecánica ha sido más eficiente para refrigerar y por eso ha sido más comúnmente empleada. En utilidades de transformación calórica industriales, el principio de absorción de gas es un sistema muy adecuado y bastante eficiente para aumentar el calor mediante una fuente de calor adicional disponible.

Algunos detalles más: por qué este proyecto es abierto

Un factor fundamental es crear comodidad "fuera del sistema" tan rápido como sea posible. Competir contra las formas de energía no renovables (petróleo, etc.) supone una enorme innovación, eficiencia, y además por mucho tiempo los sistemas de energía renovable no se quedarán sin nafta y prevalecerán sobre los sistemas no renovables. Es muy difícil para una aventura comercial privada sostener una operación durante ese tiempo: es decir que podría una empresa ir a la quiebra, pero un pueblo entero que logre crear sus fuentes de energía, no.

En el sitio se destaca que antes del año 1900, todo fue construido sin petróleo y la carencia de piedras no terminó con la edad de piedra. Éste (http://www.energytower .org/stucco.html) es un ejemplo de 190 pies (3000ft2) de pared de estuco construido por una persona a mano en su tiempo disponible sobre un verano, no puedes estar asustado de una pala.

El espíritu del proyecto está basado en unir a la gente para trabajar en conjunto en algo que sea beneficioso para todos.

Quienes estén interesados en participar del proyecto, debería contactarse con:
Robert J. Rohatensky (bob.rohatensky -arroba- sasktel.net)

Fuente: la Tierrasinmal.

5/22/2007

Lanzará Intel familia de procesadores libres de plomo

La firma señala que esta iniciativa se enfoca a la sustentabilidad del ambiente, desde la eliminación del plomo y mayor eficiencia en el consumo de energía de sus productos, hasta una disminución de las emisiones a la atmósfera.

México.- En la segunda mitad de este año, Intel Corporation lanzará la familia de procesadores de compuerta metálica high-k de 45 nanómetros (nm) ciento por ciento libres de plomo, con el fin de contribuir a la conservación del medio ambiente.

La firma señala en un comunicado que esta iniciativa se enfoca a la sustentabilidad del ambiente, desde la eliminación del plomo y mayor eficiencia en el consumo de energía de sus productos, hasta una disminución de las emisiones a la atmósfera y mayor reciclaje de agua y materiales.

Los procesadores de 45 nm no sólo están libres de plomo, sino que utilizan la tecnología de silicio Hi-k para reducir las fugas en los transistores, lo que hace posible procesadores de más alto desempeño y un consumo de energía eficiente.

El plomo se utiliza en diversos “paquetes” micro electrónicos y en los “parachoques” que unen un chip de Intel a los paquetes.

Fuente: Milenio.

Las radiaciones del wi-fi en los colegios podrían ser peligrosas

El responsable del principal organismo británico para la protección de la salud propone examinar eventuales riesgos para la salud de las radiaciones producidas por las conexiones a internet por medio de wi-fi en los colegios, pese a que los científicos arguyen que no hay pruebas de sus efectos nocivos.

El director de la Agencia de Protección de la Salud (HPA, en sus siglas en inglés), William Stewart, ha hecho esta advertencia en el programa "Panorama" de la cadena británica BBC (que se emite esta noche y cuyo contenido ha adelantado la prensa).

Stewart, que ha sido asesor de los tres últimos Gobiernos británicos, expresa en el programa de televisión la necesidad de estudiar las consecuencias de la conexión a internet de banda ancha por medio del sistema inalámbrico wi-fi y otros asuntos como la proximidad a los centros escolares de antenas de telefonía móvil.

Según investigaciones de "Panorama", las radiaciones del sistema wi-fi registradas en un colegio británico resultaron ser tres veces más potentes que las producidas por una antena de móvil cercana al centro.

Con todo, el programa reconoce que esas radiaciones eran 600 veces inferiores a los límites óptimos establecidos por el Gobierno británico, umbral que está actualmente en debate.

Los científicos entrevistados en el programa señalan que no hay pruebas que demuestren una relación entre el uso del wi-fi y posibles daños a la salud y uno de ellos, Lawrie Challis, de la Universidad de Nottingham, los califica de "improbables".

El experto en física médica Malcolm Sperrin, por su parte, asegura que la intensidad de las ondas de ese sistema es "muy baja, 100.000 veces inferior a las que genera un microondas".

Las directrices del Gobierno, basadas en un estudio elaborado por la Agencia de Protección de la Salud, recomiendan no emplazar antenas de telefonía móvil cerca de colegios sin consultar con sus directores y los padres de los alumnos.

Ese informe concluía que, aunque no está probado que haya peligros de salud, hay estudios que indican posibles riesgos y proponen tomar precauciones con las radiaciones a las que se exponen los niños porque éstos son más vulnerables que los adultos a las emisiones de radiofrecuencia.

En el Reino Unido, la mitad de los niños de primaria y cuatro de cada cinco estudiantes de secundaria usan internet por medio de wi-fi mientras que uno de cada cinco adultos tiene un portátil con el sistema para conectarse a internet sin cables.

Fuente: hoyTecnologia.

OCR libre en Ubuntu, Windows y próximamente en GNU/Linux y Mac OS X

Ubuntu es una distribución de GNU/Linux, pero la aplicación está totalmente operativa en Ubuntu 6.06 (Dapper) y 6.10 (Edgy), aunque es de suponer que funcionará en cualquier derivado de Debian. Según dicen en la web, están trabajando para que vaya en el resto de versiones de GNU/Linux.

El programa tesseract-ocr fue comprado por Google a HP hace varios años y la verdad es que reconoce incluso el texto en varias columnas, cosa que ni la versión 7 del famoso software de reconocimiento óptico de caracteres (OCR) de Adobe es capaz de hacer.

El programa lo podéis descargar desde aquí, aunque la imagen tiene que estar en formato TIFF para que sea reconocida.

Por otra parte, este programa será uno de los motores del futuro gran software OCR, también de google y también en código abierto, OCRopus, el cual aún está en fase temprana de desarrollo (fuí incapaz de descubrir cómo funcionaba).

Fuente: Magarto.

Dell ofrece todos los detalles sobre su apuesta Linux

Un reciente post en el blog Direct2Dell da una excelente perspectiva de lo que los usuarios se podrán encontrar en estos sistemas. Un dato determinante: Dell trabajará con los fabricantes para mejorar el soporte de sus soluciones hardware - los drivers - en Linux.

La noticia no hace sino confirmar la apuesta de Dell por Linux en general y por Ubuntu en particular, ya que en el post se habla claramente del hardware y el software que se soportará y el que no estará disponible inicialmente.

Dell instalará una versión estándar de Ubuntu en los equipos disponibles, y los periféricos disponibles serán un subconjunto de los que se ofrecen con otros sistemas operativos, pero ese subconjunto ha sido probado en profundidad por la gente de Dell, lo que supone una garantía de que no habrá ningún problema con ellos.

La intención de Dell es la de utilizar drivers Open Source si es factible, aunque si no existen controladores de este tipo recurrirán a controladores propietarios, y ponen como ejemplo las tarjetas WiFi de Intel o los módems de Conexant.

El post también señala dos hechos importantes: inicialmente no habrá soporte para códecs multimedia propietarios, tales como MPEG-1/2/3/4, QuickTime,o WMA/WMV, pero están evaluando su incorporación en el futuro.

El segundo de esos hechos es aún más relevante: Dell trabajará con los fabricantes para poder impulsar el soporte mediante drivers del hardware que estos desarrolladores tienen disponible. El apoyo de Dell puede ser clave para un apartado en el que Linux siempre ha flaqueado, y esto supone una de las noticias más importantes derivadas del anuncio de Dell.

Fuente: the INQUIRER.

5/21/2007

Con la nueva lapicera sin tinta, decile adiós a las manchas

El nuevo chiche del mundo científico se llama Metal Pen, mide sólo 8 centímetros y además tiene la ventaja de escribir sobre cualquier tipo de papel.
Según explicaron sus creadores, la lapicera "es una versión moderna de la escritura con punta de plata".

¿Quién no ha sido víctima alguna vez del llanto de un bolígrafo? ¿Cuántos tintoreros habrán hecho fortuna con las manchas de que deja una lapicera mal cerrada? ¿Qué sería de los vendedores ambulantes sin los quitamanchas? Estas preguntas pueden quedar en la nada, simplemente porque ya se lanzó la Metal Pen, una lapicera de acero inoxidable de apenas 8 centímetros de longitud que luce moderna y carece de tinta en su interior.

Un coqueto capuchón a rosca cubre el secreto de la punta fabricada con una aleación metálica especial. La delicada punta remite al período Medieval en el que notables artistas (Leonardo da Vinci, Dürer y Rembrandt, entre otros) utilizaban una fina aguja de plata para dibujar sobre una superficie de papel especialmente preparada.

Pero no es el caso de Metal Pen, no está hecha de plata y permite escribir sobre cualquier superficie. Si se utiliza sobre un papel tipo fotocopias o de impresión, el resultado es un rasgo similar al de un lápiz pero la marca no se corre y tampoco se puede borrar.

A pesar de las ventajas, sus fabricantes no pretenden destronar a las clásicas lapiceras con tinta, tan sólo insinúan un producto digno de tenerse o regalar como curiosidad científica. Si tu curiosidad es tal, con 30 dólares la tendrás resuelta.

Fuente: minutouno.

Wonderland, Second Life en Java y orientado a los negocios

Wonderland ese nombre de un proyecto desarrollado por Sun Microsystems y que se basa en varias tecnologías de la compañía como Looking Glass y su servidor de juegos Darkstar. La mejor forma de describirlo es decir que es como Second Life pero completamente desarrollado en Java y orientado a los negocios. Al igual que en el famoso videojuego, cada participante es una imagen tridimensional de un ser humano que puede caminar por distintos escenarios tridimensionales. También es posible crear nuevos escenarios.

Hasta aquí sólo parece un porte de Second Life. Ahora viene lo mejor: tiene soporte para voz. Cuando andas por el mundo virtual puedes escuchar las conversaciones de otras personas (a no ser que se hayan protegido esas conversaciones creando una habitación aislada). Cuando te acercas a las personas cada vez la voz es más fuerte. Cuando te alejas es más débil.

Por si esto os parece poco, permite compartir aplicaciones. Se puede, por ejemplo, "enviar" un navegador web al mundo virtual y ponerlo en una de las paredes, o un documento abierto en OpenOffice o en cualquier otra aplicación de cualquier sistema operativo. Y lo mejor es que los distintos integrantes del mundo virtual pueden interoperar con el documento (también es posible crear documentos de sólo lectura).

Lejos de pretender ser una versión de Second Life el propósito de este proyecto es facilitar el trabajo a distancia permitiendo realizar reuniones virtuales y trabajar sobre un mismo documento. Una idea excelente.

Y las buenas noticias no acaban aquí: es software libre y ya está disponible para descarga. La única parte que no está disponible de lo que he descrito ese sonido ya que, por lo de ahora, no lo pueden liberar por ciertos problemas de propiedad intelectual. Podéis echarle un vistazo a este mundo virtual en este vídeo y a partir de la mitad de este otro.

https://lg3d-wonderland.dev.java.net/

Fuente: Javahispano.

La Realidad Generada por el Usuario (UGR)

La Realidad Generada por el Usuario (UGR, User-Generated Reality) es una nueva categoría de los medios que conecta a la comunidad del Contenido Generado por el Usuario (UGC, User-Generated Content) con el software (libre y gratuito) de comunicaciones virtual que combina el vídeo, la animación y la mensajería inmediata.
Los usuarios pueden difundir el vídeo sobre servicios incluyendo MSN, Yahoo y Skype así como YouTube, MySpace y FaceBook.

La Realidad Generada por el Usuario (UGR, User-Generated Reality) es una nueva categoría de los medios que conecta a la comunidad del Contenido Generado por el Usuario (UGC, User-Generated Content) con el software (libre y gratuito) de comunicaciones virtual que combina el vídeo, la animación y la mensajería inmediata.
Los usuarios pueden difundir el vídeo sobre servicios incluyendo MSN, Yahoo y Skype así como YouTube, MySpace y FaceBook.

Más información: http://www.fix8.com

Fuente: ArgentinaMatch.com.

La chatarra electrónica, más valiosa que una mina de oro

Un reciente reportaje gráfico en la revista Foreign Policy muestra cómo un depósito de chatarra electrónica en China se ha convertido en una sorprendente fuente de riqueza, ya que nuestros viejos PCs y sus componentes contienen oro, cobre y aluminio de alta calidad.

El depósito de Guiyu, en China está repleto de amasijos de procesadores, memorias, tarjetas y circuitos impresos que en algún momento formaron parte de un ordenador. Y por entre 2 y 4 dólares al día sus gestores contratan a empleados para que separen los componentes y los desmenucen para obtener metales preciosos, convirtiendo la chatarra en una fuente casi inagotable de materiales como el oro, el cobre y el aluminio.

De hecho, la calidad de esos metales es mayor que la que encontraríamos en las minas convencionales, lo que da aún más valor a las labores de reciclado.

La mayoría de los desperdicios electrónicos que se generan en el mundo acaban en países en desarrollo como China, India o Nigeria, y la explicación parece sencilla: reciclar esos componentes y mandarlos a esos países acaba siendo más barato que dejarlos en casa.

Fuente: the INQUIRER.

5/19/2007

ANIMARAN EN TRES DIMENSIONES A CANTINFLAS

El cómico Cantinflas, considerado un ícono de la cultura popular mexicana y con una filmografía superior a las 50 producciones, regresará a las salas cinematográficas animado en tres dimensiones, "para competir con producciones del género", como Shrek y Toy Story.

Mario Moreno Ivanova, hijo del fallecido artista que protagonizó cintas como "El Ministro y Yo", "El Patrullero 777", "El Profe" o "Su excelencia", lanzó una convocatoria a productoras mexicanas "para competir por la reanimación del personaje, acorde con las nuevas tecnologías", informó el martes el periódico Ovaciones.

Cantinflas (Mario Moreno Reyes), quien nació en la Ciudad de México en 1911 y murió 82 años después, también era conocido como el Mimo o el Cómico de la gabardina.

Moreno Ivanova, titular de los derechos de 34 películas de su padre, "dio el visto bueno" a la productora mexicana RYP para encargarse de revivir al personaje y producir "Su excelencia" en animación, luego de ver una versión de un minuto de duración basada en el discurso final de Cantinflas en esa película, dijo al rotativo Beatriz Pérez, gerenta de la productora.

"La producción será en 'full 3D' (totalmente en tres dimensiones) y por lo pronto, solamente tenemos el diseño, modelado, set up y texturizado del personaje, que fue lo que evaluó Mario Moreno Ivanova", dijo Pérez.

La nueva imagen animada de Cantinflas es "con más volumen que en la carictura de los 70 y una inocente mirada, muy distante de la picardía que mostraba Mario Moreno en sus primeras películas, pero sin perder la esencia".

"Defendemos mucho la imagen de Cantinflas de ternura, de sencillez. Buscamos que a través de los ojos se refleje el espíritu del personaje, quien a través de los años se erigió como vocero del pueblo y siempre dio un mensaje positivo a la sociedad", manifestó Pérez.
Además de "Su excelencia", se planean los 'remakes' de "Por mis pistolas", "El patrullero 777", "El Barrendero" y "El Profe.

La gerente de RYP comentó que la producción llevará un año y medio. "Es poco tiempo, si consideramos que Toy Story o Monsters Inc fueron filmadas entre cuatro y seis años, pero estamos seguros de que los resultados finales serán similares o mejores", indicó.
La forma de hablar "disparatada e incongruente y sin decir nada" que caracterizó a Cantinflas, motivó que la Real Academia Española incluyera la palabra cantinflear en el Diccionario de la Lengua Española.

Fuente: Cronica.

La censura en Internet se generaliza

Aunque se nos hace creer que sólo países como China, Irán o Arabia Saudí se atreven a impidir el acceso libre a la red, lo cierto es que la mayoría de los gobiernos del mundo se dedica a filtrar los contenidos más problemáticos.

Según una encuesta realizada en 40 países por la Opennet Initiative, los gobiernos se dedican a controlar todo lo que aparece en la red y que tiene que ver con política, derechos humanos, sexualidad, religión y apariciones de pies junto a familias reales.

Mientras la mayoría de la gente cree que sólo en países como China, Irán o Arabia Saudí se filtran los contenidos, más de 26 países bloquean de forma rutinaria una gran cantidad de temas no deseados, señala la encuesta.

Uno de los autores del estudio, Ron Deibert, profesor asociado de Ciencias Políticas de la Universidad de Toronto, dice que una vez que el gobierno se habitúa a censurar la red, no pueden dejar de hacerlo.

En vez de bloquear sitios web estáticos, retiran aplicaciones basadas en Internet como Youtube, Skype y Google Maps. También utilizan filtros furtivos para derribar sitios de grupos políticos de oposición durante los períodos electorales.

China, Irán, Siria, Túnez, Vietnam, Uzbekistán, Omán y Pakistán censuran todo aquello que se mueve o patalea. Vietnam y Uzbekistán censuran contenidos locales mientras que ignoran los sitios web internacionales. Los países de Oriente Medio, sin embargo, están más preocupados por las noticias internacionales. Arabia Saudí lucha contra la pornografía y el juego. Corea del Sur filtra sólo sitios norcoreanos. Jordania, Marruecos y Singapur hacen lo propio con un buen puñado de sitios. Sin embargo, en países como Rusia, Venezuela, Egipto, Hong Kong, Israel e Iraq estos filtros no se aplican.

En Estados Unidos y en gran parte de Europa los filtros se centran sobre todo en los sitios que infringen los derechos de propiedad intelectual, o eso es lo que dicen.

Fuente: the INQUIRER.

Toshiba lanza dos DVDs portátiles con TDT integrado y cuatro horas y media de autonomía

Toshiba ha puesto en el mercado dos nuevos reproductores de DVD portátiles multiformato con sintonizador de Televisión Digital Terrestre (TDT) integrado. Disponen de una autonomía de más de 4,5 horas y una batería de carga rápida, en un reducido formato de algo más de un kilo de peso.

Ambos reproductores presentan pantallas de 9” panorámicas, con una resolución de 800 x 480 píxeles y reproducen los formatos DivX, CD/-R/RW, DVD-Video/-R/-RW, MP3, WMA-Audio y JPEG. En cuanto al sonido, disponen de dos altavoces de 1,5W preparados para reproducir sonido surround virtual 3D envolvente.

También son compatibles con el audio DTS y disponen de una salida Dolby Digital óptica. La conectividad se completa con entradas y salidas A/V, salidas S-Video, por componentes y digital y 2 para auriculares.

Además estos modelos incluyen cable de alimentación, cables para conexión por componentes, mando a distancia, auriculares, bolsa de transporte y cargador para el coche.

Fuente: noticias.com.

Apple demandada por ‘colorear’ su Macbook

Dos personas han demandado a Apple por publicidad engañosa al asegurar que las pantallas de sus Macbook pueden reproducir millones de colores.

Fred Greaves y Dave Gatley, demandantes del estado de California, aseguran que estas pantallas tienen solo 6 bits por canal, en lugar de los 8 que afirma Apple, lo que supondría quedarse en tan solo 262.144 colores en lugar de los 16 millones que supondrían los 8 bits.

Parece ser que los 16 millones de colores si se alcanzan si se cuenta con el dithering, proceso por el cual se engaña al ojo humano colocando colores próximos que alteran la percepción que tenemos de ellos generando un color diferente.

Por ahora no hay comentarios desde Apple sobre este asunto.

Fuente: HispaMp3.

5/18/2007

Desarrollan tecnología inalámbrica para personas con discapacidad visual

Científicos de la Universidad del Estado de Arizona (ASU) trabajan en nuevas tecnologías que permitan a las personas que no pueden ver la oportunidad de sentir la forma y la textura de objetos sin la necesidad de tocarlos. 10 de Mayo de 2007
El laboratorio del Center for Cognitive Ubiquitous Computing, conocidopor sus siglas en inglés como CUBIC, presentó uno de estos proyectos:un par de guantes que en cuestión de segundos pueden recrear un objetovirtual, lo que permite a una persona ciega sentir el objeto sinnecesidad de verlo o tocarlo.

"Estamos hablando de una realidadvirtual en tus manos", dijo John Black, investigador del proyecto deinvestigación ICARE. Los guantes, que tienen el nombre en inglés de"haptic interface", podrían permitir a una persona ciega "sentir" unobjeto en un museo, sin necesidad de tocarlo. Los guantes envíanseñales al tacto de la persona con lo que puede reconocer la figura ysu textura.

Hedpheth indicó que todos los aparatos y proyectosson desarrollados de acuerdo con las sugerencias de los invidentes,sobre la base de los problemas y dificultades que enfrentan en la vidadiaria.

Con este propósito, el centro trabaja en unos lentessimilares a unos Oakleys o Ray-Ban que en el centro tienen una diminutacámara que capta la cara de la persona más cercana y de inmediato laenvía a un banco de imágenes en una computadora, que al reconocer lasfacciones del individuo, de inmediato lo identifica. "Mucha gente queno puede ver se queja de que le es difícil entablar una conversación,porque al entrar a un lugar no saben quien se encuentra ahí, si no leshablan a ellos primero", comentó el investigador.

Los lentestrabajan según un programa de identificación de caras, similar al queactualmente se utilizan por motivos de seguridad en aeropuertosinternacionales.

Otro proyecto que podría facilitar la vida delas personas que no pueden ver es el uso de señales de frecuencia deradio para poder identificar objetos y artículos en tiendas ysupermercados. La información de cada objeto se encontraría en loscódigos de barra que actualmente ya se colocan para su venta.

Conun aparato similar a una calculadora, la persona podría entrar a unatienda y señalar lo que busca, por ejemplo, una lata de tomate, lamáquina le indicaría primero en que lugar de la tienda se encuentra,seguido por las diferentes marcas y tipos.

El desarrollo y eluso de esta nueva tecnología podría beneficiar a personas ciegas entodas partes del mundo, donde a veces las personas con incapacidades nocuentan con los recursos para poder tener una vida normal.

Fuente: La Razon.

EE.UU. tendrá Internet a 150Mbps

Comcast, la empresa proveedora de cable más grande de Estados Unidos y la mayor proveedora de servicio de Internet de banda ancha del país, ha anunciado la próxima implantación de un sistema de acceso a Internet que superará los 150Mbps. El sistema está basado en la norma DOCSIS 3.0 de CableLabs y fue probado en la convención anual de Cable Show '07, celebrada en Las Vegas entre el siete y el 10 de mayo. La única cuestión que queda por resolver es la de la actualización de las infraestructuras de Internet por cable a la nueva norma, aunque los directivos de Comcast han señalado que los nuevos módems costarán casi lo mismo que los actuales. Por Olga Castro-Perea.

La convención anual The Cable Show '07, organizada por la National Cable and Telecommunications Association (NCTA, que es la principal asociación comercial de TV por cable de Estados Unidos) se celebró entre los pasados días siete y 10 de mayo en Las Vegas con casi 400 expositores y un número de asistentes cercano a 15.000.

En el evento, que reúne los últimos avances técnicos del sector, destacó en esta ocasión la llegada del protocolo DOCSIS 3.0, que compendia una serie de normas específicas para módems y equipos correlativos a la comunicación de datos a través del sistema de televisión por cable.

DOCSIS 3.0 fue desarrollado en 2006 por el consorcio norteamericano CableLabs, dedicado a la consecución de nuevas tecnologías de telecomunicaciones por cable y a ayudar a los operadores de cable a integrar estos avances a sus objetivos de negocio.

Esta norma supone una velocidad de transmisión de datos 160 Mbps o más de descarga (desde la Red hasta el usuario) y 120 Mbps o más de subida (en sentido inverso) por segundo, toda una mejoría con respecto al protocolo actualmente aplicado, la DOCSIS 1.1 (con velocidades máximas de 38Mbits/s en upload y 9Mbits/s en download). Un megabit por segundo (Mbps o también Mbit/s) es una unidad que se usa para quantificar la velocidad de transmisión de información equivalente a 1000 kilobits por segundo o 1000000 bits por segundo.

En Estados Unidos la DOCSIS 1.1 la utilizan compañías tan importantes como Comcast, que es la empresa proveedora de cable más grande de Estados Unidos y la mayor proveedora de servicio de Internet de banda ancha del país..

Propuestas de mejora

Hoy día, la mayoría del mercado de Internet de banda ancha en Estados Unidos está dominado por los operadores por cable, que proponen la incorporación del cable coaxial (para suministro de TV por cable) en las infraestructuras de distribución de los servicios de Internet.

Tal y como explicamos en otro artículo de Tendencias21, este país no está pasando por su mejor momento en cuanto a suministro de banda ancha se refiere, puesto que ocupa el quinceavo puesto de la lista de los 30 países miembros de la OCED en uso de banda ancha per cápita, con un 19,6% de penetración. Seis meses antes, USA ocupaba el doceavo puesto y, en 2001, el cuarto.

Parece por tanto un buen momento para proponer alternativas más competitivas y de mayor velocidad de transmisión de datos, como ya hiciera la compañía Verizon con FIOS, un sistema por fibra óptica que permite un acceso a Internet de banda ancha con una velocidad actualmente disponible de 50 Mbits/s. Se espera además que alcance los 622 Mbit/s en un futuro próximo.

Demostración Comcast

Pero en Cable Show '07, Comcast realizó una demostración de la aplicación de la mencionada norma DOCSIS 3.0 que, según la revista Dailytech, podría convertirse en la “aniquiladora” del FIOS de Verizon.

Comcast propone un sistema de acceso a Internet por cable basado en DOCSIS 3.0, que permitirá alcanzar, en poco tiempo, velocidades de más de 150 megabits por segundo en las transmisiones de datos.

Esta nueva tecnología funciona “reuniendo” cables. Los módems tradicionales por cable transmiten los datos a través de un solo canal de TV, pero DOCSIS 3.0 permitiría transmitirlos a través de cuatro canales. En la demostración se lograron descargar 300 MB de datos en unos pocos segundos, publica Dailytech.

La única cuestión que queda por resolver es la de la actualización de las infraestructuras de Internet por cable a la norma DOCSIS 3.0, aunque los directivos de Comcast han señalado ya que los módems diseñados para dicha norma costarán casi lo mismo que los módems actuales. Y, por ahora, ya ofertan un servicio de 16 Mbps en ciertas zonas para competir con la fibra óptica de Verizon.

Europa también avanza

Y mientras en Estados Unidos se avanza en esta dirección, en Europa también surgen propuestas para la implantación de Internet a través de los cables de la TV, tal y como publicamos recientemente en Tendencias21.

EUREKA, la red paneuropea de la I+D, ha anunciado el desarrollo de una tecnología que permite suministrar acceso a Internet de alta velocidad a través de las conexiones de cable coaxial de cobre, tradicionalmente usado para televisiones, sin necesidad siquiera de tener un módem.

Tras una prueba piloto de 12 meses de duración, la compañía holandesa @Home ha sacado en algunas zonas de Holanda una oferta triple play (voz, banda ancha y televisión) con un sistema similar, que aprovecha el cable de la TV para llevar la Red a los hogares.


Fuente: Tendencias21.

The Pirate Bay por lanzar un competidor de Youtube

Luego de numerosos rumores, la gente de The Pirate Bay confirmo que estan en el proceso de realizacion de un competidor de Youtube

Luego de que muchos piensen que la idea del sitio de video evolucione de Playble, un sitio de musica gratuita realizado por The Pirate Bay y Lamont, The Pirate Bay lo desmintio, y clarifico que es lo que planea hacer, ha continuacion escribimos textualmente lo que escribieron en su blog:

“YES - we’re going to do a video streaming site. It’s true. It’s in the works being done right now and as usual we put a bit of Pirate Bay mentality behind every project we do.”

Lo que dice es que si van a hacer un sitio de videos, y que actualmente lo estan haciendo y que van a incluir un poco de la mentalidad de Pirate Bay en el. A lo que se refieren con mentalidad de Pirate Bay es probablemente que no van a borrar videos protegidos por Copyright y cosas similares.

Fuente: TecBlog.

Microsoft vota a favor de convertir ODF en estándar ANSI

Pues sí, por sorprendente que parezca, Microsoft ha votado a favor de que OpenDocument se convierta en un estándar ANSI. Hace tiempo que Microsoft parece querer congraciarse con el software libre, algo que en mi opinión se debe a la aprobación de ODF como estándar ISO. Para Microsoft, esta victoria podría haberle enseñado que el software libre es algo que ha venido para quedarse y que, por más que le pese, tiene que colaborar

Fuente: Barrapunto.

5/17/2007

Sony a pérdida con PlayStation 3

La empresa electrónica japonesa Sony registró fuertes pérdidas trimestrales por la poca acogida que tuvo la nueva consola de juegos de video PlayStation 3.

Los seis meses de retraso para su lanzamiento, debido a problemas técnicos con la consola, contribuyeron a una pérdida neta de un 70% en el último año financiero, un porcentaje equivalente a casi US$600 millones.

El retraso también puso ventaja a sus principales rivales, Nintendo con su consola Wii y Microsoft con el X-box 360.

Sony dominó la industria de videojuegos equivalente a US$30.000 millones por muchos años, pero ahora ha sido superada por Nintendo, tanto en Japón como en Estados Unidos.

Aún hay esperanzas

Otro factor influyente en las pérdidas del conglomerado japonés ha sido la retirada del mercado de más de 9,6 millones de unidades defectuosas de baterías para computadoras portátiles.

A pesar de todo, Sony afirmó que tendrá fuertes ganancias anuales gracias a la venta de cámaras digitales Cybershot y televisores planos.

"Si bien parece difícil poder revertir totalmente el desempeño de la división de juegos, un incremento en las ventas de la PS3 podría ayudar a reducir las pérdidas", indicó a la agencia AFP el jefe de finanzas de Sony, Nobuyuki Oneda.

La empresa japonesa también pronosticó un alza en sus ventas en un 5,8% para el próximo año fiscal.

En abril, el "padre" de la PlayStation, Ken Kutaragi, anunció su renuncia a la dirección de la división de juegos de Sony, después de que el gigante electrónico redujera drásticamente sus planes de envíos de la nueva PlayStation 3.

Fuente: BBC Mundo.

Los Opteron son más ecológicos que los Xeon

Es lo que afirma un reciente estudio en el que se han puesto a prueba a servidores basados en las plataformas de AMD y de Intel.

El informe del laboratorio independiente de Neal Nelson $ Associates afirma que los Opteron de AMD no son tan tragones de energía como los Intel Xeon Woodcrest en plataformas servidoras.

Los resultados según el estudio muestran que hay una sensible reducción de consumo tanto en estado de inactividad como cuando el servidor está funcionado a todo trapo.

El documento y el resumen de los resultados podréis encontrarlos aquí.

Fuente: the INQUIRER.

Microsoft abrirá el código Windows para la educación

Las Jornadas se realizarán el 15 y 16 de mayo en la sede de la Universidad Tecnológica Córdoba (UTN). Durante su realización, Microsoft premiará con un robot al estudiante que haya presentado el mejor trabajo de investigación y abrirá el código fuente de Windows para usos educativos.

El evento tiene como misión promover la investigación y el desarrollo en ingeniería de software local y contará con la participación de destacados panelistas de la Argentina y del exterior.


Entre ellos, estará Ph.D Dave Probert, arquitecto de kernel de Windows quien dará a conocer el código fuente de Windows 2000 para su uso educativo. Asimismo, Microsoft premiará con un robot al estudiante de la UTN que haya presentado el mejor trabajo de investigación, entre los 45 trabajos que se han presentado a la convocatoria JIDIS 2007.

Con el objetivo de contribuir al sistema educativo posibilitando el acceso a las nuevas tecnologías y mediante la transferencia de conocimiento sobre el diseño y desarrollo de sistemas operativos, Microsoft donó un robot a Damian Galletini Raona, del Instituto Universitario Aeronáutico de Córdoba, para que explore y dé a conocer a las universidades las diversas formas de enriquecer la educación a partir del uso de robots en las clases diarias.

Durante JIDIS 2007, Galletini Raona dictará un taller práctico sobre Dinosaurios y robots en la Universidad, a partir del cual hará demostraciones sobre los beneficios de la robótica en la investigación científica.

En este mismo sentido, Ph.D Dave Probert, de Microsoft, presentará durante su conferencia algunos de los aspectos más interesantes sobre el kernel de Windows y analizará los desafíos futuros referidos al desarrollo de sistemas operativos. Durante su presentación, Probert dará a conocer el código fuente de Windows para uso educativo.

En Microsoft entendemos que la colaboración entre la industria y el sector académico es crucial para cristalizar nuestra visión sobre el futuro de la tecnología?, afirmó Pablo Michelis, Gerente de Relaciones Académicas de Microsoft de Argentina.

Somos conscientes de que una forma de estimular el desarrollo económico es contribuyendo a la educación y al entrenamiento de su fuerza de trabajo, es por esto, que en Microsoft estamos orgullosos de poder llevar a cabo este tipo de aportes al sistema educativo, concluyó. JIDIS 2007 contará con 10 conferencias, en donde se tratarán los siguientes tópicos: Ingeniería de software, Desarrollo de juegos, Gráfica computacional.
Fuente: elclose.com.

Una máquina empieza a reconstruir el rompecabezas de 600 millones de piezas de la Stasi

En los últimos días de existencia de la República Democrática Alemana (RDA), los funcionarios de la Stasi recibieron la orden de destruir sus archivos triturándolos y luego quemándolos. Los archivos eran tan numerosos que las máquinas trituradoras dejaron de funcionar y los agentes no tuvieron más remedio que romper los documentos a mano. Un problema de transporte impidió que los 45 millones de folios de papel A4 llegaran a quemarse.

Desde 1991, un equipo de 30 personas está efectuando la penosa tarea de reconstruir esos documentos, que van revelando paulatinamente información sobre las actividades de la Stasi y sus colaboradores. Hasta ahora dicho equipo ha reconstruido el contenido de 350 sacas, pero considerando que quedan otras 16.000, completar esta tarea a mano llevaría entre 400 y 800 años más.

Ahora una nueva tecnología desarrollada por el Instituto Fraunhofer de Plantas de Producción y Tecnología de Construcción (IPK) podría completar esta labor en tan sólo una fracción de ese tiempo. El E-Puzzler, la máquina de reconocimiento de patrones más avanzada del mundo, se finalizó en 2003, y ahora el gobierno ha concedido fondos para un proyecto piloto que pretende reconstruir el contenido de 44 sacas.

«La reconstrucción virtual de este rompecabezas sigue la misma lógica que la reconstrucción manual», explicó el Dr.Bertram Nickolay, jefe de departamento del IPK. Las personas que se han dedicado hasta ahora a reconstruir los documentos se han valido de una serie de factores de identificación para determinar si cada par de fragmentos se corresponden entre sí, por ejemplo la forma, el color y la letra.

Este nuevo sistema consiste en escanear primero por ambas caras los fragmentos de papel y, a continuación, el E-Puzzler evalúa los diferentes atributos de los fragmentos para reducir los parámetros de búsqueda.

Mientras el equipo del IPK esperaba el visto bueno a la concesión de estos fondos gubernamentales, ha utilizado esta máquina de diversas maneras. Así, por ejemplo, ayudó a arqueólogos chinos a reconstruir figuras hechas añicos de guerreros de terracota, ayudó a resolver un caso de fraude fiscal multinacional y reconstruyó cientos de miles de billetes bancarios triturados por una madre que quería evitar que su hija, de quien se había distanciado, reclamara su herencia.

Esta gama de aplicaciones indica que el E-Puzzler tendrá una gran demanda cuando salga a la venta. Los científicos responsables ya han recibido pedidos de máquinas similares desde países del antiguo bloque comunista de Europa oriental, así como de países que vivido una dictadura militar.

Fuente: La Flecha.

Un coche que circula sin conductor

El pasado lunes ha sido presentado "El Espíritu de Berlín", un coche equipado con las innovaciones más avanzadas en robótica e inteligencia artificial. La principal aportación de este ingenio es su capacidad para circular de forma segura,

sin necesidad de estar tripulado por conductor alguno.

El coche es una minivan, equipado con un ordenador que procesa la información recogida por el sistema de navegación, por los sensores láser y por las videocámaras con las que se halla equipado. Estos avances hacen que el coche transite por sí mismo, sin problemas con el tráfico e igualmente se ocupa de mantener las distancias con los otros vehículos y estacionar de forma automática.

El coste de este prototipo ha sido de más de 200.000 dólares, más todos los gastos generados en el proceso previo de investigación y desarrollo, aún por cuantificar.

Raúl Rojas, el catedrático mexicano, que ha dirigido el proyecto, ha vaticinado que aún restan al menos dos años para que puedan empezar a comercializarse los vehículos autónomos, conducidos exclusivamente por ordenadores.

Lo que va a costar más trabajo dilucidar es a quién le quitarán los puntos del carné en caso de infracción, o si a partir de ese momento Fernando Alonso va a pasar a engrosar las nutridas filas del desempleo. El "coche fantástico" dejará de ser un mito televisivo.

Fuente: Canal Motor.

Científicos crean un cerebelo artificial que permitirá a los robots comportarse como humanos

Investigadores de la Universidad de Granada trabajan en un proyecto europeo asociado con la multinacional de la electrónica SONY, que ha permitido hasta el momento diseñar microchips que emulan un cerebelo humano y que se puede insertar en robots. El descubrimiento permitirá a las maquinas adoptar algunos comportamientos humanos y mejorar la interacción con el exterior, así como, en un futuro, ser base de aplicaciones en las personas en el tratamiento de enfermedades como el Parkinson o el Alzheimer.

El ser humano no busca sólo crear máquinas a su servicio, sino robots inteligentes capaces de tomar decisiones propias. Lo que hasta hace no demasiados años no pasaba de ser un futurible bastante irreal, se puede convertir en cotidiano a pocos años vista. Al menos eso pretende demostrar el proyecto SENSOPAC, en el que toman parte empresas y universidades europeas, incluída la Universidad de Granada.

Investigadores del Departamento de Arquitectura y Tecnología de Computadores del mencionado centro han participadio en el diseño y desarrollo de un cerebelo artificial basado en microchips. Aplicado a la robótica, permite a las maquinas interactuar con otros objetos y personas. De esta forma, los androides podrán realizar tareas propias de mamíferos, como atender y procesar lenguajes, música u otros estímulos.

La parte granadina del proyecto europeo está coordinada por el profesor Eduardo Ros Vidal, quien resalta que, "aunque los robots son cada vez más importantes en nuestra sociedad y cuentan con una tecnología más avanzada, aún no son capaces de realizar tareas similares a las de un mamífero sencillo".

APLICACION A LOS HUMANOS


La importancia del descubrimiento reside en la aplicación futura que puede tener para el ser humano. El cerebelo humano es la parte responsable de las funciones cognitivas, por lo que la inserción de los microchips en los cerebros humanos ayudaría a mejorar la calidad de vida de enfermos de Parkinson o Alzheimer.

El proyecto SENSOPAC es continuador de otro anterior, denominado SpikeFORCE y en el que participaron expertos en neurociencia e ingenierons electrónicos. La esencia de ambas iniciativas consiste en en dotar a los robots de habilidades de movimiento similares a las de los animales y puedan tener capacidades sensitivas de las que obtener una forma de conocimiento.
"A pesar de que llevamos años hablando de humanoides, todavía no los vemos por la calle, ni hacemos uso real de las infinitas posibilidades que nos ofrecen", lamentó Ros. Por eso, los proyectos robóticos no terminan ni mucho menos. Movimientos bioinspirados o piel artificial pueden ser los próximos pasos a dar en un camino en el que los robots irán ganando poco a poco capacidades hasta ahora sólo presentes en películas de ciencia ficción.

Fuente: ABC.es.

La Wi-Fi Alliance empezará a certificar productos con 802.11n

El estándar 802.11n lleva rondando ya tiempo, aunque todavía no ha sido certificado por la Wi-Fi Alliance, la organización que se encarga de definir este tipo de estándares. Eso no ha impedido a muchos fabricantes empezar a implementar productos que lo incorporen, aunque sea usando las especificaciones preliminares.

La nueva plataforma Santa Rosa de Intel, de la que hemos visto multitud de modelos en la última semana, implementa 802.11n. Así, la Wi-Fi Alliance no ha tenido más remedio que empezar a conceder certificaciones para los productos.

Las pruebas para la certificación empezarán a mediados del mes que viene y se espera que para julio aparezcan ya los primeros con el logo que demuestra que han pasado las pruebas. La Wi-Fi Alliance se ha comprometido a que estos dispositivos que usan las especificaciones preliminares serán compatibles con la versión final del protocolo.

Fuente: Xataka.