viernes, diciembre 29, 2006

Carl Sagan

El pasado día 20 de diciembre de 2006 se cumplieron diez años de la muerte del famoso astrónomo y divulgador científico Carl Sagan.

Coincidiendo con el aniversario de su muerte, se ha escrito muchísimo, especialmente en la Web, sobre su persona. Hoy yo también quiero sumarme a todos los que lo han hecho, para hablar sobre su obra y la repercusión que ha tenido sobre mí.

He leído bastantes libros de este autor. En general, lo que más me gustaba -me gusta- es su sensibilidad al divulgar la Ciencia, su humanidad al contar relatos y cómo transmitía ilusión y optimismo basándose en algo tan al alcance de cualquiera como la observación de nuestro maravilloso Universo.

Leer a Carl Sagan siempre me evoca la imagen de un niño excitado por lo siguiente que va a aprender, a ver y/o a experimentar. Esa imagen sintetiza la esencia misma de la inteligencia humana, la curiosidad.

Al igual que para otros muchos, su obra Cosmos ha sido para mí absolutamente reveladora y forjó en mi vida unas incansables ansias de saber y comprender, por atesorar conocimientos básicos, por la divulgación científica y los avances tecnológicos y, por supuesto, por el método científico.

Sagan consiguió todo esto sin separarse por ello de la realidad humana. Ni un ápice del halo de científico loco, o de profesor gafotas aburrido. Además de ser un divulgador científico excepcional, era capaz de responder preguntas fundamentales y formular otras nuevas sin que el lector perdiera jamás el interés por los temas planteados.

Podría escribir maravillas de su obra, libros tan sugerentes y hermosos como Contact, el cerebro de Broca, Cosmos, Cometa, El Mundo y sus Demonios, Miles de Millones, etc., pero quizá merezca la pena destacar la última parte del último capítulo de su libro 'miles de millones' , que fue escrito de forma póstuma por su mujer Ann Druyan quién le acompañó en sus últimos días.

No me avergüenza decir que se me empañaron los ojos leyendo el proceso final de su enfermedad, escrito primero de mano de Carl y culminado por Ann tras su fallecimiento. No me emocionó la muerte en sí -eso es parte de la vida y todos tendremos que pasar por ahí-, sino el hecho de que al igual que su vida, vivió su muerte con total entereza y perspectiva -no exenta de las muy humanas ansiedades, temores y penas, claro-, sabiendo de antemano cuál y cómo iba a ser su final. Pudo despedirse de los suyos y prepararse para formar parte del Cosmos en forma de materia inerte, como todos lo seremos y fuimos alguna vez, antes de que el misterio de la evolución permitiera que la mágica chispa de la Vida desequilibrara la severa balanza del equilibrio termodinámico.

Muchos sienten su vida completamente llena viviéndola y disfrutándola al día sin hacerse más preguntas ni reflexiones. Otros nos sentimos un poco más inquietos cuando nos planteamos alguna de esas preguntas que no son fáciles de responder, como qué somos realmente -más allá de las teorías cosmológicas básicas-, dónde estamos o para qué. La observación del Universo no siempre desentraña estos misterios, pero siempre es absolutamente reveladora.

Pienso que es precisamente eso lo que lo hizo tan especial. Su trabajo le erigió como portavoz de los misterios y las maravillas del Cosmos.

Aprendí de divugadores como Carl a obtener una placentera recompensa tan solo por el hecho de formular dichas preguntas, de obtener respuestas aunque sean parciales, e incluso de refutarlas mentalmente.

Ojalá que mis hijos, los hijos de mis hijos y las posteriores generaciones puedan disfrutar e interesarse por la Ciencia, sobre todo si les llega de la mano de personas tan sensibles e inteligentes como lo fue él.

Sirva este texto como un pequeñísimo tributo a Carl Sagan, un recuerdo especial y personal dedicado a él. Como él mismo diría, 'tan solo una voz en la fuga cósmica...'

Hasta siempre, Carl.

miércoles, noviembre 29, 2006

LCD de Samsung del grosor de una tarjeta de crédito



Leo en esta Web que nuestros amigos de Samsung acaban de lanzar al mercado una pantallita LCD del tamaño aproximado de una tarjeta de crédito corriente. Quizá lo más interesante es que ese LCD tiene también el mismo grosor que una tarjeta de cŕedito, unos impresionantes 0,82mm.

Me imagino un mundo -cercano- dominado por dispositivos inalámbricos, con pantallas de unas 8-9 pulgadas, muy ligeras, del estilo de la que acaba de anunciar Samsung, con almacenamiento en memorias Flash, sin parte móviles y con un consumo raquítico que les permita funcionar con baterías más de 9 horas. ¿Tablets, o móviles con esteroides? Eso depende de los departamentos de marketing y de cómo puedan llegar mejor a su público, pero conceptualmente es crónica de una evolución anunciada.

Con esos dispositivos y puertos mini USB 2.0 y bluetooth, o el micro-equivalente inalámbrico estándar en el mercado en ese momento, el modo de trabajar/disfrutar cambiará incluso para los más geeks.

Ya he dado mi opinión respecto al "servidor del hogar" en otros posts. No hace falta profundizar en la idea: el servidor de casa está 24h conectado a la Red y debe proporcionar servicios mínimos. Nada de 4 cores, tamaño torre y consumo exagerado. Para estar conectado las 24 horas del día a la Red hace falta algo más ligero... y barato, tanto en coste de adquisición como de mantenimiento, principalmente consumo eléctrico.

El 'ordenador de casa', en el que guardas las fotos, editas los vídeos de tus hijos y/o escribes informes, etc. es YA un portátil, para esto no hay que esperar al futuro, es la decisión de compra mayoritaria según múltiples encuestas.

Si exceptuamos algún tipo de aplicación profesional en las que cualquier cantidad de potencia de cálculo es insuficiente, éstos ya tienen capacidad para hacer de todo.

El mediacenter del hogar podría ser cualquiera de los anteriores conectando el vídeo a la TV de forma inalámbrica (al tiempo), u otro dispositivo 'ligero' similar a los descritos. No solo eso, sino que esas funciones se irán incrustando en las TVs. ¿por qué? Por que la TV ya 'habla' MPEG e irá incorporando funcionalidad que le permita acceso a Redes y almacenamiento y por tanto serán convertidas más en lo que hoy conocemos como mediacenter.

El móvil será -ya empieza a serlo- el comunicador por excelencia del futuro. Por supuesto que tendrá capacidad de almacenamiento ya que esta es cada vez es más compacta y accesible, pero la función de estos dispositivos será la comunicación , con otras personas y -novedad- con otras máquinas.

Muchas novelas de ciencia ficción ya hacen uso acertado del lenguaje y, con gran previsión, se refieren a los móviles del futuro con el término comm, comunicador, o similar, dando a entender que el móvil de hoy es el aparato de comunicación personal por excelencia del futuro. Cuando incluyan la funcionalidad descrita en los primeros párrafos de este post, principalmente una pantalla TFT más grande y más capacidad de almacenamiento y proceso, tendremos que ir pensando en cambiarle el nombre y sumarle a la ciencia ficción otro tanto.

Al que argumenta que en un aparato así no se puede verse un vídeo, ni escribir un mísero mail HOY le doy la razón. Pero tan solo de momento.

Hoy en día hay pantallas grandes y teclados en cualquier sitio y estos últimos se harán inalámbricos en breve, lo que facilitará conectarlos como dispositivos de entrada a casi cualquier dispositivo capaz de manejar información . En una primera evolución, bastará conectar uno de estos y trabajar al estilo 'clásico'. Más adelante podríamos dictar a nuestro comms -¿a que mola el término?- y esperar a que él haga la conversión a texto ¿Que el proceso falla por los ruidos, etc.? Cierto, pero tras una conversión parcialmente correcta, sólo restaría modificar a golpe de lápiz los fallos que se hayan detectado en la conversión y listo.

Así, hay quien esgrime acertadamente que, por el momento, estos dispositivos son fundamentalmente para consumir información y no para producirla. Nada de hacer informes, ni publicar páginas Web, ni siquiera publicar posts. Es cierto, pero solo parcialmente y porque no estamos considerando alternativas elegantes y más humanas en el frente de la generación de información.

Volvamos a la idea del reconocimiento de voz ágil aunque imperfecto, y hagamos un cálculo rápido. Acabo de consultar la lista de llamadas recibidas/realizadas en mi móvil. Esta mañana he recibido 4 mensajes de texto y enviado otros 3, el equivalente natural del mail del ordenador. Sin embargo, he realizado 5 llamadas de voz de unos 4 minutos y recibido 9 más de esa misma duración media. En total, y tirando por lo bajo, 300 palabras por minuto para llenar el canal -nada de dos hablando a la vez, eso es trampa, además de mala educación-. Todo lo hablado supone un total de 16.800 palabras, o sea, aproximadamente 100.800 bytes de información si tomamos una longitud media de 6 letras por palabra para el castellano.

No es por nada, pero escribir un texto de casi 17.000 palabras en menos de una hora (56 minutos), no está nada mal para un dispositivo de entrada.

Para mí, el enfoque del reconocimiento de voz en este tipo de dispositivos no debería ser la búsqueda de la perfección, sino la agilidad del sistema. Conseguir un software que pueda rodar en un móvil de forma ágil, aunque fuera imperfecto, constituiría un avance importantísimo en cuanto a cambio de paradigma en el uso de interfaces de ordenadores.

Otros argumentarán que un dispositivo móvil nunca tendrá capacidad de almacenamiento elevada. También es cierto, pero ni falta que les hace. Ya tenemos un invento que se llama Internet y estos aparatos sustancian el acceso universal inalámbrico ¡que sea Google -o equivalente- el que guarda todos mis datos!
Por último, hay que tener en cuenta que el coste de la electrónica de consumo sigue cayendo en picado y, lo que es más importante, su uso va en aumento, lo que, tal como dicta la Ley de Metcalfe, aumenta su funcionalidad potencial.

Ya es hora que la tecnología informática de propósito general avance hasta convertirse en algo parecido a un electrodoméstico. Salvando las distancias, los reproductores de MP3 lo han conseguido y los reproductores de DVD también. Ahora a la tecnología informática, a los dispositivos capaces de procesar información, les toca miniaturizarse y volverse más humanos, o como diría Jakob Nielsen , más 'usables'.

jueves, noviembre 02, 2006

Maldito Hardware

Image0003¿Deformación profesional? ¿Genética? ¿Reacción neuroquímica? ¿Alguna oscura relación causa-efecto?

No sé, pero desde luego lo que es un hecho es que, NORMALMENTE, a los que se les da bien el software, ODIAN el Hardware, y se las ven y se las desean para abrir una caja - ¡ostras, tornillos!, instalar un disco, etc.

En fin, como dirían los que saben, ¡el fútbol es así!

miércoles, noviembre 01, 2006

Soporte P2P en routers y otros dispositivos.

Muchos de nosotros tenemos la suerte (o la desgracia) de tener varios ordenadores. Conozco a muchos que, al igual que yo, tienen en sus casas un esquema parecido a este:

Un servidor conectado las 24 horas del día, discos externos USB2 para almacenar la información que generamos -LoL- y la que descargamos/compartimos, y otro/s ordenador/es para el resto de tareas. Normalmente, éste último suele ser un portátil o sobremesa suficientemente potente como para editar vídeo, música, ver pelis o jugar a lo que nos de la gana.

Por tanto, es aquél ordenador viejo - que tu amigo ya no quiere porque es un pentium II y se acaba de comprar un Core Duo - el que suele acabar reconvertido en servidor casero por obra y gracia de Debian, Ubuntu (probad Xubuntu y ya me diréis) o similares.

En ese servidor casero es en el que solemos rodar algo así como un servidor FTP o Samba para la red interna, un servidor Web con nuestro Blog privado y alguna otra cosilla y, principalmente, nuestros clientes P2P, ya sea eMule -cualquiera de sus variantes- y/o Torrent.

Para estos menesteres, ¿qué sentido tiene tener un ordenador que consume en la mayoría de los casos más de 300W con potencia de sobra como para rodar servicios empresariales? En mi opinión, ninguna.

Lo que yo quiero, y a juzgar por lo que veo todos los días no soy el único, es un pequeño 'appliance' con un GNU/Linux embebido que me permita rodar los servicios que he descrito con un consumo eléctrico mínimo. No necesito un gran procesador, ni disco interno, ni pantalla, ni teclado ni ratón. Me conectaría a él vía ssh desde el otro ordenador y programaría las descargas y el resto de los servicios. Para el almacenamiento bastaría con que tuviera un puerto USB2 para conectar un disco externo de tamaño suficiente.

Con este esquema el consumo del trastito puede estar en torno a los 30W (incluyendo el consumo de un disco externo conectado por USB) y el precio estaría entre los 100 y los 200€, lógico para un dispositivo como el descrito.

Creo que se puede decir que el mercado demanda aparatos de este estilo, y prueba de ello es que empiezan a aparecer estos cacharritos.

Leo en Arstechnica que BitTorrent ha anunciado la firma de convenios con fabricantes de hardware como Asus, Planex, o QNAP, para que , a partir de ahora, los routers de red y dispositivos de almacenamiento de estas marcas, sean capaces de manejar descargas de torrents sin necesidad de un ordenador.

No son los únicos, el esperado -tranquilos que falta poquito- FON Liberator promete características similares en un dispositivo que rondará los ¡100€!

Algunos otros, aquellos que tuvieron la necesidad y aún no tenían solución comercial a medida, se las compusieron como pudieron. Así, compraron el ya famoso Linksys NSLU2 (o cualquiera de sus primos hermanos), y le cambiaron el firmware para que funcionara con un Linux embedded y sus aplicaciones favorito.

Habrá que hacer un hueco en nuestros escritorios para los nuevos mini-servidores. Menos mal que son mini...

viernes, octubre 06, 2006

El gobierno Francés recomienda el uso del Open Document Format para sus documentos oficiales

Todas las publicaciones del gobierno francés deberán estar disponibles en ODF (OpenDocument Format), de acuerdo con informe encargado por el primer ministro francés.

Este informe también sugiere que Francia anime al resto de países Europeos a que adopten directrices del mismo estilo para que el intercambio de documentos digitales entre todos los integrantes de la CEE se base en estándares abiertos.

De igual forma, se recomienda que el gobierno de este país financie la creación de un Centro de Investigación dedicado a la seguridad del software de código abierto y a ayudar al gobierno central y los autonómicos a intercambiar información sobre las mejores prácticas en cuanto al uso de software libre.

El informe concluye con la propuesta de la creación de una agencia cuyo único y ambicioso objetivo fuera asegurar la independicia tecnologica de la Unión Europea.

No puedo estar más de acuerdo con la propuesta.

No estamos hablando de propinar un revés a los gigantes norteamericanos del Software (Microsoft, Oracle, etc.). Está en juego la independencia en materia de TIC de toda la Unión Europea.

¿Quién nos asegura que en el futuro las licencias de software no se puedan hacer mucho más restrictivas haciéndonos así esclavos de la industria del software estadounidense? Alguien podría argumentar algo así como - "Bueno, llegado ese momento podríamos iniciar una migración a software libre -, a lo que yo me atrevería a responderle que ese momento YA ha llegado.

No es para nada una cuestión baladí.



Más información: http://www.infoworld.com/article/06/10/03/HNfrenchodf_1.html


martes, octubre 03, 2006

Limpiando la memoria...

Este vídeo es buenísimo. Un compañero de trabajo dice que lo vio ayer en uno de esos programas que hacen remix de anuncios y curiosidades televisivas. Me ha costado 3 minutos de googling encontrarlo y me ha parecido gracioso. Ahí va:



Ya sabéis, nada de portátiles al alcance de los niños.

lunes, octubre 02, 2006

El futuro de la Web

Escribí este artículo para el número 2 de El Jardín de las Delicias. Espero que os guste.
---------

Durante las últimas décadas los principales actores de la industria de las telecomunicaciones y la informática han ido desplegando de forma estratégica sus estándares propietarios para sacar el máximo jugo a las carteras de los usuarios. Pero como dice el refrán popular, no hay mal que cien años dure, y durante el último año y pico este panorama ha cambiado ostensiblemente.

Gracias al uso cada vez más extendido de la Red, la revolución del Software Libre ha calado profundamente entre los usuarios de todo el mundo. Probablemente lo repita a lo largo del texto, pero creo que vale la pena destacar de qué clase de libertad estamos hablando.

El Software Libre, gratuito o no, pretende ser una alternativa real y viable al Software Propietario, aquel que además de ser de pago y propiedad de la empresa que lo desarrolló, no es modificable y únicamente puede ser usado en los términos que dicha la empresa lo permita. Nadie pretende eliminar el Software Propietario del mercado, sino tener libertad de elección. Tampoco se trata de no pagar, sino de evitar el abuso monopolista de los grandes del sector.

El concepto ha traspasado la barrera de los sistemas lógicos que dan vida a los ordenadores, el software, para llegar a los datos que estos mismos procesan. De la misma forma que muchos de nosotros nos negamos a comprar Software Propietario cuando no es necesario, ¿qué sentido tiene confiar mi información a una empresa sin tener ninguna garantía de poder retirarla cuando yo lo desee sin necesidad de pagar por ello o pasar por un calvario binario?

Si tuviera que expresar este sentimiento poniéndolo en boca del usuario medio, la frase sería algo como : "no pienso dejar mis datos, ya sean identidades digitales, fotos, vídeos, entradas de blog o cualquier otra forma de información digital, en manos de la empresa X a menos que ésta se base en estándares abiertos para su funcionamiento y que, por tanto, me garantice la posibilidad de llevarme mis datos a cualquier otro sitio cuando yo, propietario de dicha información, lo desee. Cobradnos cuando sea necesario, estamos dispuestos a pagar dentro de los límites que impone la lógica del mercado, pero no intentéis controlarnos.". Sí, reconozco que suena un poco a Matrix, pero describe bastante bien la situación actual.

Es curioso constatar como la misma Red que algunos pretendían controlar, se ha vuelto contra ellos en forma de avalancha de karma electrónico negativo que se propaga a la velocidad de la luz a través de las arterias del vasto sistema circulatorio en que se ha convertido Internet, llegando finalmente a través de los más finos capilares a millones de usuarios alrededor de todo el mundo con resultados devastadores para este tipo de intentos de control. Recuerdo al lector que estas ansias de libertad digital han llegado a poner de rodillas a la gigantesca industria de la música y del cine.

La tendencia actual discurre paralela a esta última reflexión. Somos propietarios no solo de nuestro software, sino también de nuestros datos. Para garantizar a sus usuarios dicha la facilidad de acceso a sus sistemas, las grandes compañías, abanderadas por el gigantesco Google implementan cada vez en mayor medida sus servicios de la forma más abierta y transparente posible.

Los estándares abiertos definen desde esquemas de almacenamiento de datos y formatos, hasta protocolos de comunicación entre sistemas, y son publicados sin restricciones, de tal forma que cualquier desarrollador pueda usarlas en beneficio propio, e incluso cimentar las bases de su negocio sobre ellos. Son algo así como políticas tecnológicas consensuadas disponibles para que cualquiera pueda implementarlas. Este nuevo compromiso para con la libertad, la transparencia y la facilidad de uso junto con la exigencia de los usuarios, está generando sinergias inesperadas que han dado lugar a un nuevo tipo de páginas Web a las que haré referencia más adelante.

Aquellas empresas que todavía siguen explotando sus modelos de negocio habituales ("este es mi terreno y aquí no entra nadie sin que yo lo controle"), empiezan a enfrentarse a pérdidas derivadas de que los usuarios ya no aceptamos esas reglas de juego. Muchas de estas empresas se enfrentan a la difícil pregunta ¿deberíamos adoptar estas nuevas herramientas y estándares abiertos canibalizando dolorosamente nuestro beneficio en favor de un concepto nuevo e incierto, o quedarnos con nuestro lucrativo modelo de negocio actual arriesgándonos a que las pequeñas empresas 'abiertas' acaben con nuestra porción de pastel en pocos años?

Técnicamente este tipo de transparencia en los servicios Web se sustancia en gran parte a través las denominadas API (Application Programming Interface), o Interfaces de Programación de Aplicaciones.

En el prólogo de su libro Historia del Tiempo, el famoso físico Stephen Hawking narra cómo su editor le 'invitó' a evitar el uso de ecuaciones matemáticas en su libro. "Por cada ecuación que introduzcas en el libro, perderás un uno por cien de tus lectores" debió ser la frase en cuestión. Hawking, que es una persona extremadamente inteligente, se las arregló para conseguirlo y vender millones de ejemplares de su libro. He pensado que, salvando las enormes distancias, puede aplicarse la misma premisa a aquellos que intentamos divulgar tecnología en lugar de física, así que intentaré reducir el número de siglas y acrónimos. Aún con todo, ruego encarecidamente al lector que si encuentra en el texto uno de esos monstruos de 3 o 4 letras mayúsculas como el del párrafo anterior, no se desanime, salte al siguiente párrafo y siga leyendo.

Esas Interfaces de Programación de Aplicaciones o API's no son un invento nuevo, al menos fuera del contexto Internet. Ni siquiera se trata de nada excesivamente complicado. De hecho, es conceptualmente tan sencillo que casi avergüenza venderlo como algo novedoso. Para ilustrarlo mejor, y aburrir un poco menos, veámoslo con un ejemplo. eBay es la Web de subastas online más grande y compleja del mundo. En ella, los usuarios ponen en venta artículos nuevos o usados, y los compradores pujan por dichos artículos. Hasta hace poco más de un año, la única forma de usar el sistema era entrar en la página Web de eBay. Sin embargo, en septiembre de 2005 eBay hizo publicó una interfaz que hacía fácilmente accesible la funcionalidad de su sistema de subastas. Este interfaz permite que terceros desarrollen aplicaciones o Webs que hagan uso de la enorme base de datos del sistema eBay.

Este tipo de acceso a sistemas a través de métodos públicos y bien documentados, hace posible que una empresa cualquiera pueda escribir una pequeña aplicación que alojada en un teléfono móvil de última generación (sigo dando rodeos para evitar el uso de acrónimos), conecte periódicamente con el sistema de eBay y avise al usuario cuando ocurra algo de su interés. Dicho de otro modo, esa aplicación posibilitaría que un usuario instruyera a su móvil para que le avisara cuando fueran puestos a subasta artículos de su interés.

Como suele ocurrir con las buenas ideas, cunde el ejemplo, y la mayoría de los grandes de Internet están usando estándares abiertos y haciendo públicas interfaces para manejar sus sistemas basados en ellos. Para los más puristas, cabría hacer distinción entre estándares abiertos reales -aquellos respaldados por algún organismo reconocido- y aquellos que son 'de facto' -sistemas que publican sus modelos de datos y que son tan usados que se convierten en estándares no reconocidos oficialmente-. Por lo que a este artículo se refiere, y debido a que está orientado a personas con poca o ninguna formación técnica, no voy a hacer esa distinción.

Esta nueva forma de trabajar ha dado lugar a un nuevo tipo de páginas Web. Son las denominadas 'Mashups', o Aplicaciones Web Híbridas.

Un ejemplo clásico de Mashup es el de una aplicación que muestra datos sobre la ubicación física de un inmueble tomando datos de una Web de alquiler y venta de pisos y presentándolos posteriormente en un mapa interactivo proporcionado, por ejemplo, por el servicio Google Maps. Aunque el ejemplo puede complicarse más -añadiendo sistemas de notificaciones vía SMS, Mail automáticas, opiniones sobre vendedor en foros públicos, etc.- en este caso el programador de esta nueva criatura hace uso lícito de datos y servicios proporcionados por dos páginas Web, refundiéndolos en una tercera que presta un servicio diferente al prestado por los sistemas originales.

Las Webs Híbridas viven estos días su particular explosión Cámbrica, apareciendo varias de ellas cada mes. Por supuesto la selección natural, encarnada en esta ocasión por las preferencias y gustos de los internautas, tendrá la última palabra y hará que esta iniciativa sedimente quedando únicamente aquellas que realmente ofrezcan algo interesante a los usuarios. La mayoría de ellas combinan, de forma innovadora, datos y funciones de sistemas como eBay, Amazon.com, Google, Windows Live, Yahoo!, del.icio.us o Flickr.


En base a la observación de las tendencias comentadas, y observando las carencias que esta tecnología presenta en la actualidad, no es muy difícil atinar qué servicios proporcionará la Web a corto/medio plazo. ¿Qué cabe entonces esperar de la Web durante los próximos cinco años?

En primer lugar veremos nacer los sistemas de gestión centralizada de identidad en la Red. Además de constituir un innegable avance tecnológico el el área de la seguridad, la clave para su éxito residirá en la comodidad de uso de la Red para los usuarios.

Cada día usamos más servicios/aplicaciones Web y esta tendencia seguirá aumentando durante los próximos años. Los adelantos en infraestructuras y dispositivos de telecomunicaciones permitirán, sin duda, que podamos acceder a la Red en cualquier momento, desde cualquier lugar y con dispositivos mucho más adaptados a los humanos que los actuales. Pero al margen de estos adelantos puramente electrónicos, para que el consumo de información a través de la Web sea fluido, hay aún que derribar muchas barreras para hacerlo más fácil de usar.

En este aspecto, uno de los principales escollos de la Web actual es la forma en que los servicios Web gestionan la identidad de cada usuario. Cada servicio -correo, blog, chats, foros, servicios del ciudadano o bancarios online, etc.- requiere para su uso una correcta identificación del usuario mediante los consabidos usuario y contraseña. Creo que todos somos conscientes de lo odioso que llega a resultar el tener que recordar e introducir ese par de palabrejas cada vez que entramos en una Web que requiera acceso -las interesantes-. El método facilón de que el ordenador 'recuerde mi contraseña en este equipo' es MUY poco recomendable por motivos de seguridad. Vamos, que ni se os ocurra dejar en el ordenador de la oficina el acceso a vuestro banco.

La solución: un método centralizado y seguro de gestionar las identidades. En el futuro próximo, un identificador y contraseña únicos nos darán acceso seguro a todos los servicios online que deseemos utilizar.

El esquema de funcionamiento es bastante sencillo, siendo similar a un repositorio en el que se pueda almacenar nuestra identidad digital para gestionarla posteriormente de forma que podamos decidir con qué servicios queremos que interactúe. Actualmente ya existen propuestas de estándares abiertos que definen esta arquitectura. Sin embargo, parece que tendrán que pasar al menos un par de años para que estas tecnologías sedimenten.

Es interesante destacar que Microspora intentó generalizar un sistema de estas características hace unos pocos años con su tecnología Pasaportar. Pasaportar fracasó estrepitosamente debido al recelo que levantaba entre los usuarios. Eso de dejar nuestros datos en manos de una empresa privada que, básicamente, se adueña de nuestros datos no está muy de moda que digamos. Tal como he comentado al principio, hoy día los colectivos de usuarios reaccionan ante este tipo de iniciativas cerradas de forma virulenta, relegando dichos sistemas a algo parecido a un ostracismo digital.

Otro punto que cambiará la forma en que interactuamos con la Red es la gestión de la atención de los usuarios. Todos conocemos empresas como Google, Ahoyo! o Alta vista que ofrecen servicios de búsqueda de información en Internet de forma gratuita. ¿Gratis? ¿Sabéis qué cantidad de trazas sobre nuestros gustos y preferencias dejamos los usuarios al navegar por Internet? Actualmente, los Departamentos de Marketing y Atención al Cliente hacen uso de este tipo de información una vez extraída de sus páginas Web, para adecuar y mejorar la calidad de sus productos o servicios.

Pongámonos por caso ahora en la piel de una empresa como Google. Google nos ofrece un maravilloso buscador a cambio de hacer uso de nuestros hábitos de consumo de información, eso sí, de forma anónima... O casi. La georreferencia de direcciones de Internet es un truco mágico, al menos así lo diría Arthur C. Clarke, mediante el que un servidor puede conocer el origen de cualquier solicitud electrónica que se le efectúe. Así, los amigos de Google, si bien no tienen nuestros datos personales, saben desde qué ciudad o al menos desde qué zona geográfica, realizamos la solicitud y qué información estamos buscando. Solamente con estos dos datos, el sistema puede darnos como respuesta unos resultados muy afinados y obtener, de paso, información sobre dónde estamos y qué buscamos. Con esta información Google nos presenta publicidad sensible al contexto, o sea, en función de lo que consultemos. Las empresas pagan cantidades muy respetables por presentar su publicidad de forma asociada a ciertos términos y/o zonas geográficas. Este modelo de negocio ha llevado a Google a convertirse en una de las empresas más económicamente rentables del mundo. El mercado de la información funciona.

Este panorama cambiará, y cada vez más. Los grandes gigantes de la Web harán más y mejor (o peor) uso de estos datos. De forma general podemos hablar de este tipo de datos como de información sobre la atención de los usuarios. Al igual que sobre sus datos más tangibles como fotos, textos, etc. los usuarios ya comienzan a reclamar el control, la posibilidad de gestionar su información de atención para ser ellos los que decidan si cederla o no para su uso público, y de qué forma. Ya existen algunas propuestas técnicas para este tipo de sistemas. Ahora queda esperar a ver qué hacen los grandes cuando el gran público les pida el control de sus perfiles de internauta.

Menos revolucionarios pero también muy importantes son los formatos digitales de multimedia. Hasta ahora los famosos Flash, Windows Media, Quicktime y demás, han ayudado a la Web a evolucionar hasta lo que es hoy día, una red, casi, infinita de información multimedia.

Sin embargo, todos los formatos referidos son propiedad de sus respectivas empresas. Actualmente se están desarrollando estándares multimedia abiertos que nos garantizen que podamos disfrutar de esta información sin necesidad de . Mi apuesta personal es que cuando las las compañías, al menos algunas de ellas, vean cómo los usuarios exigen alternativas abiertas para este tipo de información, comenzarán a ceder derechos y abrirlas totalmente al público, o dicho de otra forma, a ceder y publicar la forma en que funcionan sus formatos.

Aunque me dejo algunas novedades menores en el tintero, el último gran avance que quiero comentar, el de mayor calado, no será una gran revolución, sino una gran evolución. La Web actual está llena de información en forma de textos, vídeos, imágenes, sonidos y animaciones e información de diversa índole sustanciada en diferentes formatos electrónicos enlazados a través de un lenguaje de marcas que permite interconectar todos esas piezas de información. ¿Qué ocurre cuando hacemos una solicitud a un buscador? El sistema busca coincidencias comparando lo que buscamos, y pequeñas variaciones que lo harán más preciso, con la información que tiene almacenada en su enorme base de datos. Este funcionamiento tiene un fallo importante. El sistema NO entiende lo que está buscando, lo hace a ciegas, por aproximación sintáctica y no semántica. Pese a Google y compañía, si los sistemas no comprenden el significado de lo que se están buscando, los resultados de dicha búsqueda no aportan mucha inteligencia al proceso.

Estamos lejos de tener ordenadores capaces semánticamente así que, de momento, la gran evolución de la Web actual es la Web Semántica.

La Web semántica nace con la idea de añadir metadatos semánticos -información sobre el significado de los datos- a la Web actual sin necesidad de hacer cambios profundos en su tecnología subyacente. De ahí que haga especial hincapié en que se trata de una evolución y no una revolución.

Esta información extra —que describe el contenido, el significado y la relación entre los datos— deben ser dadas en forma formal, para que los ordenadores puedan procesarlas, así que ya tenemos otro conjunto de siglas que evitar mencionar. De todas formas basta saber que sirven para definir el lenguaje que permitirá describir sobre qué va nuestra información.

Con este añadido a la Web podremos, por ejemplo, publicar un vídeo promocional sobre el lanzamiento del nuevo Audi TT v2006 y anexarle información semántica formal sobre el formato del vídeo, el tema tratado -promoción, marketing, coches,.. - la marca el modelo, el color de la carrocería, el equipamiento del coche que aparece en el vídeo, etc. y enlaces a otras piezas de información disponibles en la Web como por ejemplo uno que nos responda la disponibilidad del modelo a fecha de la petición o lo estratosférico del precio del modelo en cuestión.

Seguiremos sin tener máquinas inteligentes, pero podremos buscar y solicitar información de una forma mucho más lógica, posibilitando consultas como “quiero ver vídeos promocionales oficiales de menos de 5 minutos sobre coches de gasolina de más de 2 litros que fueron lanzados al mercado entre enero y julio de 2006 y que fueron bien valorados por los usuarios en los foros de opinión, junto con sus precios”. Bueno, sigue sin ser magia, pero ahora ya empieza a parecérselo.


La batalla entre software libre y software propietario no ha sido sino el inicio de una guerra que se perpetuará por siempre, una guerra que ya se ha librado fuera del campo de las telecomunicaciones y la informática. La guerra por la libertad. Esta pugna se ha saldado de momento con un reequilibrio de fuerzas entre propietario y libre. Pero lo más interesante no es abandonar el uso del software propietario en favor del software libre, sino que calara entre los usuarios la idea de que deben tener capacidad de elección para el software que da vida a sus ordenadores de la misma forma que la tienen para elegir la marca y modelo de su coche, su formación académica o el banco donde depositan sus ahorros.

Con las espadas aún en alto en este frente, las comunidades de desarrolladores primero, como fuerza de choque de un mundo que conocen y en el que se desenvuelven muy bien, y los usuarios después, libran una pugna muchísimo más importante. La guerra por la propiedad de su información personal en todas sus formas, elemento fundamental de la nueva economía de la información y de nuestro futuro tecnológico.

La mayoría de los grandes han comenzado a adaptarse a estas nuevas exigencias, y los que todavía no lo han hecho lo harán, so pena de sufrir graves pérdidas o, peor aún, un rechazo total por parte de los usuarios. Que nadie piense que las grandes empresas 'perderán' de alguna forma. Simplemente readaptarán sus modelos de negocio permitiéndonos, de momento, esa ansiada libertad digital. A mí, por el momento, me basta con eso.

miércoles, septiembre 20, 2006

La gran Biblioteca Lunar

Leo en un Blog de NewScientist una propuesta del científico David McKay para explotar comercialmente la Luna.

McKay se hizo muy conocido por haber dirigido al equipo investigador que publicó en 1996 un artículo sobre el posible hallazgo de vida microbiana fosilizada en un meteorito proveniente de Marte que fue encontrado en la Antártida.

"Hay un lugar donde no habéis pensado almacenar vuestra más valiosa información digital. Podríamos usar cavernas de lava de la luna a modo de gigantesca biblioteca digital.", dice McKay.

"Además de ser capaces de retransmitir información a la Tierra tal como hacen los satélites geosincrónicos, un sistema instalado en la luna podría también procesar y almacenar información", explica el científico.

Los ordenadores lunares podrían estar enterrados en el suelo lunar, disponerse en el fondo de cráteres o incluso en tubos de lava, cuevas subterráneas por las que la lava fluía durante el proceso de formación de la luna. De hecho, otros científicos han propuesto estas mismas como posibles habitáculos humanos.

La información comercial almacenada en la Tierra puede se destruida por desastres naturales, guerras o fuegos, hecho que ya ha ocurrido con anterioridad. En el año 500 antes de Cristo, la Real Biblioteca de Alejandría almacenaba registros e información del mundo antiguo. La mayoría de la Biblioetca y sus contenidos fueron pasto de las llamas. Los beneficios del almacenamiento lunar vienen derivados de la falta de oxígeno que evita la erosión de los materiales (oxidación), la temperatura constante por debajo del punto de congelación y el hecho de estar libre de todos los estragos causados por la humanidad.


Si se ejecutaran futuras misiones tripuladas a la luna, los astronautas podrían establecer infraestructuras de comunicaciones con la Tierra así como sistemas de almacenamiento masivo.

McKay propone usar la Luna a modo de arca de Noé, "almacenando una colección de tejidos de plantas y animales".

Incluso las familias podrían pagar una cuota para conservar indefinidamente fotografías en la biblioetca lunar destinadas a futuras generaciones. Algo así como la cápsula del tiempo perfecta.


miércoles, septiembre 13, 2006

Taxis sin conductor

La última vez que tomé un taxi en Sevilla me cobraron casi veinte pavos por un trayecto desde el Palacio de Congresos hasta el aeropuerto que apenas duró 5 minutos incluyendo los semáforos. El taxista me explicó que se trataba de un precio cerrado, pactado por los taxistas de esa ciudad. No voy a decir que le creí pero en cualquier caso, no estoy acusando a nadie y al final pagué. Uno siempre tiene que estar alerta y aún así, casi todos tenemos alguna mala experiencias de viajes en taxi en cualquier ciudad que no conozcamos.

El caso es que esta iniciativa Europea a llamado mi atención. Un proyecto financiado con fondos de la Unión Europea contempla la introducción de Taxis sin conductor en Heathrow, ciber-coches en Roma y autobuses automáticos en una de las provincias de mi Comunidad, concretamente en Castellón. Y esto es tan solo una primera fase del proyecto.

Los responsables de transporte han soñado durante mucho tiempo con una época en que el transporte autónomo, sin conductor. que aliviara el tráfico en áreas congestionads. Ese sueño, esa visión, podría convertirse muy pronto en una realidad.

Anunciado el 28 de agosto de este año, el proyecto de la Unión Europea CityMobil, compañías e institutos de investigación representando 10 países han unido sus esfuerzos para desarrollar sistemas de transporte automáticos. Actualmente, la planificación contempla el desarrollo de tres distintos prototipos con un presupuesto de 40 millones de euros.

El primero de estos prototipos está siendo construido en el Aeropuerto londinense de Heathrow donde, a partir del verano de 2008, entrarán en servicio 19 coches eléctricos dirigidos por ordenador. Estos vehículos conectarán la terminal 5 de Heathrow con un parking. La tecnología de estos vehículos, que ha sido denominada 'Ultra', ha sido desarrollada por la empresa británica ATS y se encuentra actualmente en fase de pruebas. Estos vehículos sin conductor recogen a sus pasajeros y los dejan en sus destinos. Sensores o imanes instalados en el suelo dirigen la ruta seguida por los vehículos. En Roma, los ciber-coches recogerán a los pasajeros de un parking o de la estación de tren cerca y les llevarán a un nuevo centro de exposiciones. Por último, en la ciudad española de Castellón, se probará si un autobús sin conductor puede viajar por el centro de la ciudad por un carril especial. Existen sistemas automáticos desde hace tiempo en algunos metros, trenes, monorailes y sistemas de transporte de aeropuertos, pero esta experiencia será una de las primeras que ponga en servicio pequeños vehículos autónomos para transportar personas.

El objetivo principal de este proyecto es conseguir una organización más efectiva del transporte urbano, que posibilite en un uso más reacional del tráfico motorizado, evitando los embotellamientos y la polución, consiguiendo un transporte más seguro y una mayor calidad de vida para los ciudadanos y una mejor integración con el crecimiento urbano.

CityMobil tiene como meta proporcionar herramientas para conseguir un transporte público sin conductor que pueda llevar a sus pasajeros exáctamente al destino que deseen y cuando lo deseen.

miércoles, septiembre 06, 2006

Netgear WG111 v2 y Mac OS X


Para aquellos que tengáis un iMac G5, necesitéis conexión inalámbrica 802.11b/g, y no tengáis ganas de gastaros la pasta que nos pide Apple por la tarjeta Airport Extreme, os recomiendo la NetGear WG111 v2.

Sé que las hay mejores, pero el precio la hace irresistible, ¡19,95€!

Respecto al software, no perdáis tiempo, descargad de Realtek los drivers para vuestro sistema, instalad y reiniciad vuestra máquina.

En el panel de preferencias de red os aparecerá un nuevo interfaz de red (que, salvo que tengáis alguna tarjeta de red extra en vuestro equipo, se llamará en1)

Una vez reiniciada la máquina, es necesario ejecutar el cliente de redes WiFi que viene con el driver de Realtek. Buscad redes en la pestaña Networks y conectaos seleccionando el esquema de cifrado y, por supuesto, introduciendo la clave.

Hay detalles que pulir, como evitar introducir la clave WEP o WPA cada vez que se conecta a una red WiFi. Si tengo tiempo trabajaré algún script para hacer esto. En cuanto tenga alguna solución, prometo postearla.

De momento, y salvo esta pequeña incomodidad, funciona la mar de bien. Y por ese precio...

martes, agosto 29, 2006

Un portátil de Apple se incendia en Japón

Siguiendo la moda iniciada por Dell con los incendios de las baterías de los portátiles, Apple ha tenido un pequeño incidente en Japón.


Apple ya había anunciado que cambiaría las baterías de los modelos y series afectadas (nada menos que un total de 1,8 millones de baterías), pero parece que, en este caso, la medida ha llegado un pelín tarde.


Antes del pequeño incendio en Japón, la empresa ya había recibido 9 incidentes en los Estados Unidos acerca de sobrecalentamientos ocurridos en las baterías de iones de litio de sus portátiles. Dos dos usuarios recibieron quemaduras menores al tocar portátiles sobrecalentados.


El Ministro de comercio exterior japonés ha pedido a los fabricantes de su país que hagan un esfuerzo por garantizar la seguridad de las baterías que introduzcan en el mercado.


Si es que no me extraña. Este fin de semana estuve en la FNAC y se me ocurrió tocar la parte inferior izquierda de un MacBook Pro expuesto. ¿Lo adivináis? Sí. Quemaba.


Nada, que definitivamente tendré que esperar a 'que se enfríe' la situación para comprar el mío. :-)

La Singularidad está cerca

El verano, además de un atracón de mis adorables peques, me ha dejado tiempo para absorber un buen montón de información. También he tenido tiempo para escribir, pero la verdad es que se trata de temas privados que, al menos de momento, no se verán publicados en este blog.

De entre todo lo que he leído vale la pena mencionar el libro de Ray Kurzweil, "The Singularity is near", que me ha parecido apasionante, muy bien documentado y... ligeramente optimista.

No es que esté en desacuerdo con las tesis del autor, que no lo estoy. Es simplemente que las fechas que propone para que ocurran los importantes cambios de paradigma tecnológico que propone, me parecen:

1- Un poco "amañadas" (adelantadas) para que el autor pueda vivir para verlas.

Ray tiene más de 50 años y quiere vivir muchíiiiisimos años aprovechando precisamente las aplicaciones prácticas de las revoluciones tecnológicas venideras. Para ello, Kurzweil sigue una dieta super-estricta, que le permita vivir sano durante mucho tiempo, diseñada en base a los conocimientos actuales en medicina y biología. En su libro "Live enough to live forever" (que también os recomiendo), comenta que mantiene su dieta es extremadamente hipo calórica, vamos que come menos que un ratón. Además toma una gran cantidad de suplementos y vitaminas en forma de pastillas (más de 250 diarias) e inyectables (más vitaminas y suplementos inyectados de forma semanal). Todo eso sin tener en cuenta las completas semanales analíticas de sangre.

Claro, para un tío tan geek como Ray, lo más deseable del mundo es vivir suficiente para ver si sus predicciones se cumplen o no. Lo entiendo, es humano, pero da fechas tan atrevidas como el 2020 para disponer de Inteligencia Artificial sintética real o nanotecnología y biotecnología tan desarrolladas como para mantener a una persona en buen estado de salud durante tiempo indefinido.

Por otra parte:

2- Las fechas que da son, en mi opinión, bastante optimistas si se toma en consideración la situación del mundo en que vivimos.

A tenor del panorama internacional, en el que el 10% de la población mundial atesoramos el 90% de la riqueza, no me parece realista que el actual ritmo de crecimiento tecnológico siga acelerando sin sufrir el más mínimo retraso.

Me parece ilógico pensar que el mundo desarrollado consiga aplicaciones tecnológicas prácticas para poder vivir ilimitadamente mientras que una cantidad absolutamente disparatada de niños se muere de hambre y de sed cada minuto (literalmente).

So pena de parecer un poco catastrofista, se me pasa por la cabeza que los conflictos que cambiarán definitivamente este panorama vendrán íntimamente ligados a algo mucho más prosaico. Hablo del fin de la era de los combustibles fósiles y el consiguiente cambio de paradigma en cuanto a generación y consumo de energía, la base fundamental del desarrollo y el bienestar social.

Al ritmo actual de consumo es un hecho reconocido que en poco tiempo nos quedaremos sin reservas de petroleo. Aunque existe consenso entre la comunidad científica sobre este hecho, es cierto que no lo hay sobre la fecha exácta en que esto ocurrirá. Pero si se rasca un poco (os recomiendo lectura de Jeremy Rifkin, la economía del hidrógeno) sobre la superficie, nos encontramos con que las fechas que manejan los expertos para tocar techo en la producción petrolera mundial varían entre el 2010 (los pesimistas) y el 2020 (los optimistas). No hay que leer mucho entre líneas para darse cuenta que 10 años pasan volando y que el problema ya está aquí.

A partir de ese momento, el techo en la producción petrolera, los precios subirán de forma exponencial y con ellos, los conflictos. Si además metemos en la ecuación anterior a personajes tan lamentables como George Bush, que prefiere asegurarse para él solito la producción de lo que ya_casi_no_queda a base de invertir inmorales cantidades de dinero en armas que no generan sino muerte, odio e injusticia, estamos condenados (hay personajillos que se empeñan en demostrar que la estupidez humana es ilimitada) a vivir terribles conflictos bélicos, terror y una gran recesión económica... salvo que...

Salvo que se invierta en investigación sobre tecnologías energéticas limpias, sostenibles, distribuída y se libere esa tecnología sin restricciones. Esta es la clave. No nos engañemos, si la Shell y el resto de los grandes actores de la escena energética internacional desarrollan tecnología del hidrógeno y consiguen centralizarla en lugar de liberarla, seguiremos con un panorama internacional, aunque probablemente un poco más tranquilo desde el punto de vista bélico, igualmente desolador.

Y es aquí donde espero que los habitantes de esta aldea global en que vivimos tomemos conciencia plena y aprovechemos el momento único que nos brinda el momento. Permitamos que, al igual que el movimiento open source se ha mostrado como una alternativa real, sostenible y económicamente viable en la economía de la información, la producción distribuida de energía permita que los países pobres tengan una oportunidad real de cumplir aquello de 'en vías de desarrollo'.

Existe un fuerte paralelismo con las TIC. La información fluye hoy de forma más libre que nunca, llegando a darse el caso de que cualquiera puede no solo consumir información, sino generarla, publicar. No me extiendo más, pero las tecnologías de la información han entrado en la espiral exponencial hasta tal punto que hace imposible (por ser cauto) la vuelta atrás, a la centralización y el control férreo. La enorme industria del cine y música, luchan por adaptarse a los tiempos difíciles para ellos en que cualquiera con un ordenador , Otro ejemplo es la explosión del fenómeno Blog que, no nos olvidemos, cuenta con escasísimos años de vida y se ha hecho un hueco entre los principales medios de comunicación como la tv y la radio.

La tecnología P2P, como estandarte del paradigma de la distribución de la información frente a la centralización de la misma, me parece un paso más hacia la libertad de expresion y la eficiencia en el uso de las redes. En breve veremos cómo la voz, la TV, la radio y otros sospechosos habituales de consumir ancho de banda, se convierten para utilizar este tipo de tecnologías.

Y es precisamente en ese paralelismo con las TIC, donde la producción/consumo de energía tiene su camino a seguir. Tenemos al alcance de la mano dibujar un panorama en el que cada comunidad genere y comparta su propia energía.

El esquema es bien sencillo. Energía solar, eólica geotérmica que mediante los desarrollos tecnológicos venideros permitirán su conversión en hidrógeno, fuente de almacenamiento de energía. Cuando queramos consumir energía, quemamos hidrógeno en nuestras células de combustible generando como contaminante... vapor de agua. Si tenemos excedente de energía, lo 'pinchamos' a la red distribuída siguiendo una filosofía similar al P2P actual.

Al igual que con la informática, poco a poco pasaríamos de generar de este modo para una ciudad o pueblo, luego por barrios, zonas residenciales, comunidades de vecinos, hasta llegar, si hiciera falta, a la producción personal. Lo más importante es que cualquier país podría generar, consumir y compartir su propia energía, abriendo por fin las puertas a la mejora del nivel de vida de sus habitantes. ¿Os imagináis a África como exportador de sus excedentes de hidrógeno procedentes de energía eólica o solar?

Confío en que las tecnologías de la información actuales, que unen cada vez más a aquellos que tenemos acceso a la Red, ayuden a despertar conciencias a favor de la descentralización/liberalización de las tecnologías básicas que hagan posible la vida de la raza humana sobre éste nuestro planeta, nuestro único hogar en el Universo, de forma más equitativa.

Sirva este post como pequeñísimo granito de arena.

Aunque el libro de Ray Kurweil no contempla los importantísimos temas señalados, se trata de una lectura INDISPENSABLE por lo realista y sólido del discurso. Una quinta parte del libro son referencias, la mayoría de ellas URL's, de investigaciones punteras llevadas a cabo en centros de investigación a nivel mundial hasta la fecha de publicación del libro, en el año 2005. De igual forma, otra buena parte del libro está dedicada a convertir a los escépticos y a los detractores de sus ideas a base de hechos.

Si queréis asomaros al futuro y ver como la biotecnología/genética, la nanotecnología la Inteligencia Artificial (IA) cambiarán nuestro mundo, compraos el libro.

domingo, agosto 27, 2006

Mis extensiones favoritas

El verano ha terminado. La vuelta al cole para unos, la vuelta al trabajo para los más mayorcitos, la depresión postvacacional, etc. Huelgan comentarios.

Pero (casi) todo tiene su parte positiva. En mi caso, tras un mes largo sin postear, vuelvo a la carga.

Está de moda hacer la lista de favoritos de casi todo. Lo último que he visto en multitud de webs es la lista de Extensiones para Firefox. No es para menos. Lo cierto es que este super navegador, cargado un puñado de extensiones, se convierte en una de las aplicaciones libres más útiles y potentes que se pueden encontrar.

Leo en el Blog de Joel on Software que sus extensiones favoritas son:

- IETab
- Web Developer Extension, y,
- Adblock

Mi lista personal queda como sigue;

- Greasemonkey
- Scrapbook
- Del.icio.us
- NoScript
- VideoDownloader

[UPDATE]
- Spellbound

y, coincidiendo con Joel y otra mucha gente,

- Web Developer Extension


Comentándolo con un compañero de trabajo (sí, tú) ha salido en la conversación que la extensión NoScript, que sirve para controlar la ejecución de código javascript contenido en una página web, es de escasa utilidad dado que virtualmente todas las páginas hacen uso de javascript y, por lo tanto, el bloqueo de ejecución se suele dejar desactivado.

Sin embargo, aunque coincido con él en general, a mí me resulta muy práctico tenerlo a mano cuando visito ciertas webs que no quiero que ejecuten código javascript que no me aporta nada, o para aligerar la navegación cuando utilizo un ordenador poco potente como el maravilloso laptop (256 MB RAM) que yace ahora mismo bajo mis dedos, sustituto imposible de mi añorado Powerbook.

En fin, dicen que mi esperado Powerbook Core 2 Duo está a la vuelta de la esquina. Seguiré añorando...

martes, julio 25, 2006

Chistes «Geek»

Me han hecho mucha gracia estos chistes (vía Microsiervos) y no he podido evitar postearlos.

Sé que a muchos de vosotros, los normales, no los geeks, no os harán ni pizca de gracia, pero aún así, me atrevo a publicar un par. Ahí van:


<Cobra> so i was watching a pr0n
<Thunder> wait
<Thunder> why u guys always say pr0n instead of porn ??

Thunder has been kicked by Guardian (No porn on this channel !)

<Cobra> ...
<Cobra> so i was watching a pr0n



Ahí va otro:


<tag> Ouroboros: lets play Pong
<ouroboros> Ok.
<tag> | .
<ouroboros> . |
<tag> | .
<ouroboros> . |
<tag> | .
<ouroboros> | .
<ouroboros> Whoops


No me digáis que no son buenos (LOL).

Si os gustan, podéis descargar toneladas de ellos en la Web Quote Database Home.

jueves, julio 20, 2006

El Universo oculto

Hoy, 20 de julio de 2006, hace exáctamente 30 años que el hombre pisó por primera vez la superficie lunar. Nuestros padres se sintieron orgullosos de semejante hazaña. Décadas después, sus descendientes seguimos admirando a los personajes que lo hicieron posible.


Y sin embargo ¡qué poco y cuán lentamente nos hemos adentrado en las insondables aguas de los misterios del Universo!

Muchos desconocen un hecho que a mí me pone los pelos de punta.

Este hecho, esta realidad, es que desconocemos de qué está hecho el 96% del Universo. Tal como explicaba Carl Sagan con esa enorme capacidad de comunicación que le caracterizaba, estamos hechos de materia estelar, de materia proveniente de estrellas ya muertas. Asimilar esta maravillosa realidad es más que suficiente para que cualquiera con dos dedos de frente y un mínimo de sensibilidad se sienta, desde la más profunda de las humildades, irremediablemente integrado con el Cosmos.

Sin embargo, la lista de misterios que el Universo guarda celoso esperando a que alguien los desentrañe, ni mucho menos termina aquí.

La realidad es que no tenemos ni idea sobre la composición del Universo. Concretamente el 96% del mismo según los científicos.

Apenas hemos comenzado a arañar sobre la superficie del misterioso Universo, para encontrarnos con otro aún mayor. Todas las maravillas que observamos están compuestas por la materia ordinaria que únicamente suma el 4% de la masa total del Universo. Quizá deberíamos llamarla materia extraordinaria ya que, contra toda intuición humana, parece ser la más extraña.

¿Y qué hay acerca del 96% restante? Hubo un tiempo, no hace mucho, en que la ciencia parecía explicar casi totalmente cómo funcionaba el Universo. Todo estaba compuesto por átomos. Nosotros, la Tierra, el resto de los planetas y estrellas, e incluso los objetos estelares más exóticos, como las estrellas de neutrones, los quásares, todo, absolutamente todo, estaba compuesto por materia ordinaria creada poco después de la creación del Universo, el Big Bang.

Dentro de los átomos, entre sus componentes subatómicos, y en el espacio entre ellos, no hay nada. Simplemente espacio vacío. Sin embargo, desde hace poco, las cosas se han ido complicando dando al traste con este modelo observable. Parece que una gran parte del Universo, la mayoría del mismo, símplemente no puede ser visto ni detectado.

El resto del Universo, el 96% no visible, está hecho de entidades misteriosas sobre las que se conoce muy poco. Dada su naturaleza misteriosa y esquiva, han sido bautizadas con nombres igualmente misteriosos, la Materia Oscura y la Energía Oscura.

En 1974, la astrónoma Vera Rubin, trabajaba en un proyecto de investigación sobre las estrellas situadas en los bordes exteriores de las galaxias. Lo que descubrió resulto una sorpresa mayúscula.

Poco después de que le cayera la famosa manzana sobre la cabeza, Newton declaró que la gravedad es universal. Una manzana cayendo en la Tierra obdece las mismas leyes matemáticas que si lo hiciera en otro punto cualquiera del Universo. De la misma forma que el Sol controla la órbita de los planetas que orbitan a su alrededor mediante la fuerza gravitatoria que ejerce sobre ellos, una galaxia espiral debe estar controlada por la influencia gravitatoria ejercida por un agujero negro dispuesto en su centro. Desde hace mucho tiempo se sabe que Plutón, en el límite de nuestro sistema solar, viaja mucho más despacio que Mercurio, el planeta cuya órbita está más próxima al Sol. De hecho, fueron observaciones como ésta las que permitieron a Newton ir desgranando sus Leyes en el siglo XVII.

Cuando Vera Rubin realizó su trabajo sobre estrellas esperaba encontrar que las estrellas más alejadas del centro, en el límite externo de la galaxia, se movieran much más despacio que aquellas estrellas dispuestas más cerca del centro de la misma. Sin embargo no fue para nada así. Encontró que casi todas las estrellas de las galaxias espirales giran aproximadamente a la misma velocidad. Esto resultaba tremendamente extraño.

¿Podría ser que las Leyes de Newton no fueran realmente universales y no funcionaran como era de esperar en las galaxias? Cuestionar a Newton parecía impensable, así que los científicos tomaron otro camino. En lugar de plantear una gravedad variable, distinta según en el lugar en que se mida, argumentaron que debía existir algo más en las galaxias, algo que estaba proporcionando la gravedad extra que explicaba el comportamiento observado.

Con esta gravedad extra, las estrellas serían estiradas con más fuerza y por tanto viajarían más rápidamente, tal como sugerían las observaciones de Rubin.

¿Qué nombre darle a esta cosa que tenía masa y ejercía por tanto fuerza de gravedad sobre las estrellas? Materia Oscura. Pero ¿qué es realmente esta Materia Oscura?

Dos investigadores en Pricetown, los profesores Peebles y Ostriker, estudiaron en profundidad la Materia Oscura y sus efectos. Sugerían que existía al menos 10 veces más Materia Oscura que ordinaria o visible.

A pesar de su creciente aceptación, la verdadera identidad de la Materia Oscura permaneció completamente oculta. Ni la física de partículas tenía candidatos para ocupar el puesto. Incluso los recientemente descubiertos neutrinos no tenían las características que debería exhibir tal tipo de materia.

El profesor Tim Sumner del Imperial College de Londres, creía que tenía la respuesta al misterio. Una nueva partícula hipotética llamada neutralino. Se suponía que tenía la masa correcta y podría existir en enormes cantidades en el Universo. El problema es que nunca había sido detectada. Si la Materia Oscura estaba en toda nuestra galaxia, en todas las galaxias, entonces también debía estar presente en la Tierra.

De hecho, miles de toneladas de esta extraña materia debía estar atravesando la Tierra cada día. No interactúa con la materia ordinaria, así que pasa a través de ella como si nada. El fondo de una mina, a salvo de rayos cósmicos y las partículas atmosféricas de la superficie, es el lugar ideal para intentar detectar una señal. Así que eso es exáctamente lo que el profesor Sumner intentó, con un detector instalado en el fondo de la mina más profunda de europa, en Cleveland, Inglaterra. Si su equipo detectaba el neutralino, podían estar casi seguros de obtener el Premio Nobel. Pero la búsqueda se mostró totalmente infructuosa.

En 1974, mientras muchos astrónomos se dedicaban a perseguir la Materia Oscura, el profesor Israelí de astrofísica Milgrom intentó una aproximación aún más audaz. Intentó reescribir las Ley de la gravedad de Newton. A sabiendas de que su intento no iba a ser precisamente aplaudido por el resto de la comunidad científica, trabajó en sus teorías en privado hasta que estubo listo para mostrarla al mundo en el año 1981.

Llamó a su teoría Dinámica Newtoniana Modificada (en inglés MOND) y la utilizó para demostrar cómo la gravedad puede ser un poco más intensa de lo que se creía con anterioridad, a través de las enormes distancias ocupadas por una galaxia típica. ¿Pero seguro que Newton no pudo estar equivocado? Milgrom continuó trabajando sobre su teoría, ganando la simpatía de admiradores e investigadores que pensaban de forma similar. Cuanto más tiempo la identidad de la materia oscura siga siendo un misterio, más credibilidad obtienen sus teorías.

En 1997 el profesor Saul Perlmutter planteó otra línea de investigaciónque vino a añadir intensidad a las acaloradas discusiones científicas sobre el tema. Cuando estudió la expansión del Universo se topó accidentalmente con que no sólo se separaban entre sí las galaxias y las estrellas, sino que lo hacían aumentando sus velocidades. Eso significaba que en el futuro nos podríamos encontrar con un cielo carente de estrellas (por supuesto esto ocurriría únicamente en un tiempo muy, muy lejano). De igual forma, significaría que algo estaría empujando las estrellas para separarlas. Esta aparente fuerza anti-gravitatoria era completamente nueva para la ciencia, pero de nuevo su naturaleza exacta seguía siendo un misterio. Aún con todo, se le dió un nombre: Energía Oscura. Observaciones realizadas muestran que el Universo está compuesto por un 4% de materia ordinaria, de la que está hecho TODO lo que hemos conocido, al menos hasta el momento, un 21% de Materia Oscura y un 75% de Energía Oscura.

Como se puede observar hay un montón de cosas que realmente nadie comprende. Este Modelo Estandar tiene, inevitablemente, sus detractores. No todo el mundo cree razonable que semejante conjunto de teorías puedan estar basadas en hechos derivados de tan exigua evidencia física. El profesor Mike Disney de la Universidad de Cardiff mantiene que "no existe física en nada de todo esto, únicamente hadas de jardín". En respuesta, los que creen en la Materia Oscura, liderados por el profesor Carlos Frenk de la Universidad de Durham, ha generado sofisticadas simulaciones del Universo por ordenador para demostrar la existencia de tan esquiva sustancia. Estas simulaciones muestran aparentemente que la Materia Oscura y la Energía Oscura han sido cruciales en el desarrollo del Universo. Sin su influencia, las galaxias, estrellas, planetas, incluso la vida misma, nunca hubieran aparecido. Los resultados del muestreo realizado por el satélite WMAP parece que vienen a confirmar la proporción de cada una de los dos componentes 'Oscuros' en nuestro Universo.

Así que, a pesar de la creciente popularidad de la teoría MOND de Milgrom entre ciertos grupos de investigación, la Materia Oscura todavía cuenta con el respaldo mayoritario de la comunidad científica.

El Modelo Estandar, con su mezcla de átomos, Materia Oscura y Energía Oscura, es la última de una larga serie de grandes ideas fruto de la observación y el escepticismo científico. Cada una de las civilizaciones que han existido, desarrolló su propio modelo cosmológico que, cada pocas décadas o siglos, ha sido reemplazado por otro más completo y mejor.

Queda por ver si pertenecemos a una generación privilegiada que descubrirá el modelo adecuado. ¿Seguirán los futuros modelos cosmológicos contemplando la Materia Oscura y la Energía Oscura como parte fundamental del Universo? El tiempo lo dirá.

Maravilloso, tremendamente fascinante y ligeramente inquietante. Inquietante sólo ligeramente porque me temo que la mayoría de nosotros, (ni nuestros hijos, ni nuestros nietos) no estaremos aquí cuando se desvelen estos misterios, así que de nada vale preocuparse. Mejor seguir trabajando sobre ello por el mero placer que representa adquirir conocimiento con la lejana esperanza de que algún día nuestros descendientes terminen por desvelarlos.

jueves, julio 13, 2006

Interface cerebro-máquina

El diario New York Times publica hoy un artículo sobre nuevos desarrollos en el campo de las neuroprótesis, implantes que permiten el control de dispositivos electrónicos como robots y ordenadores, a través del pensamiento.

El artículo dice: "La primera persona en recibir el implante, Matthew Nagle, fue capaz en diferentes experimentos, de mover un cursor, abrir el e-mail, jugar videojuegos sencillos (el Pong) e incluso dibujar un burdo círculo en la pantalla. También consiguió cambiar el canal y el volumen de la tele, mover un brazo robot  y abrir y cerrar una mano protésica. Aunque el movimiento del cursor era en ocasiones tembloroso, los movimientos básicos no fueron difíciles de aprender. "Conseguí manejarlo en cuatro días" dijo Mr. Nagle en una entrevista telefónica desde el Hospital de Rehabilitación New England Sinai, en Stoughton, Massachusets, donde reside.

El paciente dijo que el implante no le causó ningún dolor. El sensor mide 4 milímetros de lado y contiene 100 micro electrodos. El dispositivo fue implantado en el área motora del cortex del paciente responsable del movimiento del brazo, y fue conectado a un pedestal que protuye ligeramente sobre su cráneo. (Enlace)

El resultado de los experimentos, dirigidos por el profesor John Donoghue  y su equipo, fue publicado en el número de esta semana de la revista científica Nature.

El web site de la revista también ha publicado un resumen que incluye entrevistas, video de los experimentos y una colección de artículos y publicaciones claves sobre los interfaces cerebro - máquina.

Realmente interesante. Os recomiendo que le echéis un vistazo.


technorati tags:, , ,

martes, julio 11, 2006

Navegando con Flock

Os confieso que lo he intentado en varias ocasiones. Dejar mi navegador por defecto, el Firefox, y probar el nuevo Flock que, aunque comparte interioridades con el navegador del zorro, añade funciones que facilitan acceso a utilísimos servicios Web.

Acabo de descargarme la Beta 1 (v.0.7) para Linux, y de momento no observo ninguno de los fallos de las versiones anteriores me obligaron a abandonarlo un par de veces como navegador preferido . De hecho, estoy escribiendo este post con la funcion 'blog this' que incorpora este navegador.

Tengo una barra con las fotos de mi cuenta Flickr, archivo mis bookmarks directamente en del.icio.us, y publico en mi Blog con un simple CTRL+B. ¡Me gusta!

Llevo utilizando servicios de la tan famosa, y etérea, Web 2.0 desde hace ya bastante tiempo. La novedad es que Flock promete la integración de todas ellas de una forma modular en una única aplicación. Con esta versión la promesa está muy cerca de cumplirse con matrícula de honor. Y eso que van por la v0.7.

Aunque algún requiera de un proceso de pulimentado final, Flock ya cuenta con mi voto. :-)

technorati tags: , ,


domingo, julio 09, 2006

Inquietante futuro tecnológico

La semana pasada mi querido amigo Álvaro me envió un mail en el que replicaba, con gran acierto, el pequeño relato Sueños de Interfaz en el que narro una supuesta sesión de trabajo con un ordenador semi-inteligente dentro de unos diez años.

Como veréis, la réplica deja parcialmente de lado la vertiente tecnológica para profundizar en la dimensión social de la venidera revolución tecnológica.

El caso es que, sin ánimo de despertar mayores inquietudes, estoy bastante seguro de haberme quedado muy corto en el citado relato. Así que, con el debido permiso de mi amigo, me veo en la obligación de seguir escribiendo (vamos divirtiéndome) e intentar demostrar cómo la tecnología ha ido introduciéndose sigilosa y de forma poco traumática en nuestras vidas durante la última década y cómo seguirá haciéndolo del mismo modo.



Réplica al relato Sueños de Interfaz - Álvaro López Jamar

Me asusta que todo eso que predices pueda suceder en una década, ¿seré capaz de asimilarlo?, es ilusionante saberse futuro testigo de todo ello.

A otras generaciones les tocó vivir dos guerras mundiales, terribles genocidios y feroces totalitarismos, mientras tanto a nuestra actual y adormecida sociedad occidental nos toca vivir bien, gozar de una tecnología ideada para una mezcla entre ocio y trabajo a la que es imposible no rendirse fascinados. Ocio y trabajo se entremezclarán recíprocamente. Haremos del trabajo un juego estresante y de nuestro ocio, una oficina en el interior de la privacidad familiar invadida.

Supongo que toda esa tecnología vertiginosa y tan chula, será ideada en pequeños Institutos Tecnológicos de Massachussets diseminados estratégicamente por el mundo, manufacturados en "países en vías de desarrollo" por millones de trabajadores en condiciones de semi esclavitud, que ni soñarán en adquirir lo que se llevan entre manos. Nosotros; los occidentales los japoneses y los WASP, ya no fabricaremos nada, en tu predicción todo eso queda bien implícito. Seremos sociedades de servicios dedicadas únicamente a gestionar nuestro bienestar social, cultural y tecnológico. Prejubilados de lujo con un ISO 17000 tatuado en la espalda que certifique nuestro sincero compromiso con el desarrollo sostenible y el eventual protocolo de Kyoto. Contaminan ellos, nosotros consumimos y reciclamos los envases separando los materiales de nuestros lujosos desperdicios.

Esa prejubilación de lujo que nos espera, (y que nuestros sistemas sociales de previsión probablemente no soporten), puede ser causada por el hecho de no estar suficientemente a la altura de asimilar toda esa revolución tecnológica que nos dominará. Un mundo feliz y 1984 mezclado en un universo matrix donde la gente no sepa lo que se siente acariciando una vaca porque no la ha visto en su vida. También es tranquilizador prever que mi coche de gama media conducirá por mí, (que no me gusta) y que su empresa fabricante, asuma directamente la responsabilidad civil derivada de los muertos causados por su imprudencia por no adecuarse a un mal estado de la carretera o a las condiciones climáticas, acuaplanning... etc.

Respecto a la IA no puedo evitar recordar la amoralidad ciega de Hall en 2001. Pequeños robotitos con cerebros sin conciencia y acertada puntería de grueso calibre y visión nocturna, pueden sustituir definitivamente a nuestros soldaditos occidentales, en esas batallas que no salen en los telediarios, y así poder dedicarse por entero a su verdadera vocación de labores humanitarias ONG. Y los motores predictivos no tienen porqué ser un instrumento de aborregamiento colectivo, la máquina sabe lo que vas a decidir, decide por ti y tú finalmente eres una simbiosis alter ego de la máquina. Nuestra actitud indolente y pasiva, hará que cada vez deleguemos nuestras decisiones más en el criterio de la máquina, será genial. Mientras ella decide quien merece entrar en mi agenda del mes que viene, irá asumiendo el criterio de quienes son mis mejores amigos y a quién debo prestar atención priorizando entre mi sobrina parturienta, mi amigo depresivo o mi madre (teléfono detecta por su tono de voz que está cansada o molesta porque no la llamo)

Pienso en mi pobre hermano Carlos, el dentista con cinco hijos, en el paro por no haber sido capaz de atrapar, entre sus endodoncias y empastes, el tren la regeneración nanotecnológica. ¿La gente realmente ocupada podrá dedicarse a aprehender todo ese conocimiento nuevo y vertiginoso? Ojalá la Ley de moore fuera aplicable tb a mis neuronas y mis sinapsis, más bien sucede al contrario, pero no dudo en que un implante en mi cortex cerebral podrá memorizar 12 idiomas diferentes, la Espasa-Calpe, toda la Jurisprudencia del Tribunal Supremo y el AutoCAD, (aún puedo ser el nuevo Bruneleschi). Estoy ansioso de adquirir todo ese conocimiento sin realizar el más mínimo esfuerzo, será muy gratificante convivir con vecinos capaces de recitar los sonetos de Shakespeare, realizar complejas integrales y algoritmos de memoria y con una sonrisa durante el trayecto del ascensor mientras nos damos los buenos días.

Respecto al derecho a la intimidad... con esa tecnología y la moralidad democrática de nuestros gobernantes planetarios, será algo sin posibilidad de protección, pero poco importará. Tecnología y psicotrópicos nos facilitarán experiencias sensoriales (viajes de ensueño a la Antártida, paseos por Saturno, relaciones sexuales con mega estrellas de Hollywood...) En ese escenario tan prometedor, intimidad y democracia no nos importarán gran cosa. Quizá nuestra nueva PDA tenga más criterio político y moralidad que nosotros mismos. De todos modos, actualmente, nuestra democracia es meramente formal, votar lo que los mass media nos han manipulado cada cuatro años entre un oligopolio de partidos y con una Constitución tan flexible y vacía como convenga.

¿Será posible crear una IA que nos supere y mejore desde el punto de vista ético y moral, no sólo desde el punto de vista práctico?

No debe ser muy difícil. Tecnólogos, a trabajar!!!

INQUIETANTE TODO, MUCHO.

viernes, julio 07, 2006

Adiós G4, adiós

Hoy ha sido un día de despedida. Tristón, un poco depre, con la incertidumbre de quién será el sustituto de tan maravillosa máquina.

Efectivamente, hoy he bien-vendido (me siento como un traidor al escribir esto), a mi querido compañero de trabajo. Mi Apple PowerBook G4 15" ha pasado a otras manos. Menos mal que me consta que su nuevo dueño es tan cuidadoso, o más, que yo mismo.

Luego ha venido EL vacío. ¿que hago yo sentado delante de un Pentium III escribiendo esto? ¿Será el sustito un pequeño MacBook o un MacBook Pro? ¿No saldrán este verano los nuevos Intel Core 2 Duo? ¿Espero, o no?

Bueno, al menos una cosa sí es cierta. Su sustituto será de la misma 'raza'. Incluso puede que hasta de su misma familia, pero eso sí, con corazón Intel...

Hasta siempre mi fiel amigo, este post va por tí. :-)

miércoles, julio 05, 2006

Super mosquitos

No me digáis que si no os aseguran que no se trata de ninguna broma, el título al más puro estilo Mortadelo y Filemón no sería para echarse a reir.

Pero no, no se trata de ninguna broma. Leo en Yahoo! news que un diario Griego ha publicado que la polución reinante en las calles de Atenas ha criado una nueva raza de super mosquitos, más grandes, rápidos y adictos a buscar víctimas humanas.

Estos super mosquitos pueden detectar humanos a 25-30 metros de distancia y disponen de visión en color, mientras que los mosquitos normales pueden pueden oler la sangre humana a tan solo 15-20 metros y son incapaces de distinguir los colores.

Igualmente, estos monstruos pueden batir sus alas 500 veces por segundo, mientras que la frecuencia normal suele ser unas 350 veces por segundo, y pesan 0.3 microgramos más que sus hermanos pequeños. Vamos, unos bestias.

Eso es adaptabilidad al medio y lo demás, tonterías.

martes, julio 04, 2006

Sueños de Interfaz

Llegué al hotel exhausto. La jornada había sido dura. Me dejé caer sobre la cama y dejé mi bolsa sobre la mesa.

Con los ojos entrecerrados por el cansancio y un incipiente dolor de cabeza hice un rápido repaso a los acontecimientos del día. El rodaje del spot promocional había transcurrido sin incidencias. Había que tener un millón de detalles presentes para que todo discurriera según el plan general de comunicación, fruto del intenso trabajo de tres personas durante un mes.

Me daba mucha pereza, pero sabía que tenía que preparar y organizar el trabajo para el día siguiente que, a tenor de lo visto, también iba a resultar movidito. Mi sentido arácnido, también llamado veteranía, me decía que de no hacerlo me encontraría con sorpresas desagradables.

Me di una ducha y aunque apenas tenía apetito, me obligué a pedir algo al servicio de habitaciones.

Tras descansar unos minutos cogí la bolsa y retiré la protección de mi Tablet.

Acaricié el logo de mi querido Google-Sony [1] para devolverlo a la vida. Recordé con nostalgia la década del 2.000 en que mi amigo Oscar y yo especulábamos sobre la posibilidad de que alguna de las grandes multinacionales creara dispositivos que rompieran los moldes de la informática de la época, que acabara con el paradigma de interfaz de usuario vigente.

Cada vez más rápidos, cada vez más pequeños, con mayores capacidades de comunicación, pero en esencia, los ordenadores no hacían nada nuevo, o al menos esa era la sensación de los sufridos usuarios que seguían usando sus teclados y ratones para manejar un mundo virtual regido por escritorios, iconos, incompatibilidades y complejas aplicaciones.

Así era. En aquellos días, nos resultaba increíble que los usuarios no demandaran herramientas más versátiles y productivas, que se adecuaran mejor al uso cotidiano real y con las que no hubiera que luchar continuamente.

Más increíble aún resultaba el hecho de que las compañías no ofertaran productos realmente novedosos para hacerse con nuevos mercados, tal como hizo Apple en su día, primero con el mercado de la música y luego con la distribución del Séptimo Arte a través de la Red,... quien da primero, da dos veces.

Sin embargo, la informática había llegado a un punto de inflexión, a un excedente acumulado de capacidad de almacenamiento y proceso que a la postre se resultó el detonador del siguiente gran cambio.

La continua disminución del coste de los dispositivos permitió que a finales de la década la tecnología de las telecomunicaciones y la informática se introdujera en las vidas de las personas.

La mayoría de las personas poseía móviles de tercera generación, agendas electrónicas, potentísimos ordenadores de sobremesa o, en muchos otros casos, equipos ultraportátiles proporcionados por la empresa para dar movilidad a sus empleados. Incluso los habitantes del tercer mundo, especialmente aquellos en edad escolar, se habían pertrechado con toda una generación de portátiles económicos y dispositivo de acceso a la Red que permitirían un tanto la barrera socioeconómica que le separaba del mundo industrializado.

Tras un par de segundos mi equipo mostró su habitual conjunto de menús e iconos en forma de nube probabilística. No pude dejar de pensar lo distinto que resultaba al clásico escritorio de la antiguas generaciones de Sistemas Operativos. El cambio había sido tan profundo que, excepto para los Ingenieros TIC, la jerga informática había quedado atrás.

Los nuevos sistemas disponían al usuario en el centro del sistema, y todo orbitaba alrededor de ese concepto y en la forma en que los nuevos dispositivos ayudaban a realizar las tareas solicitadas abstrayendo al usuario de las complejidades ligadas al funcionamiento interno de las máquinas. Hacía muchos años que eso se había conseguido con los coches, simplemente le había llegado el turno a los ordenadores.

Recordé lo desconcertante que resultaba para un técnico como yo trabajar de esta forma durante los primeros días, el rechazo que supuso en algunos sectores su adopción como estándar y la agradable sensación que producía el asumir que te habías adaptado y no había vuelta atrás.

Era como cuando pruebas uno de esos nuevos Mercedes con pilas de combustible de hidrógeno y navegación automática. Puedes seguir conduciendo tu vieja cafetera, pero ya nunca será lo mismo.

Las Leyes de Moore y Metcalfe [2] habían allanado el camino: miniaturización, potencia, bajo consumo y conectividad total entre dispositivos y redes. La Inteligencia Artificial (IA) había hecho el resto.

Durante décadas, la IA había quedado relegada al ámbito de los laboratorios de investigación. Únicamente había comenzado a hacer discretas apariciones en el mercado a partir del momento en que las redes neuronales alcanzaran la madurez y aunque por aquél entonces resultaran útiles, su aplicación era limitada en la práctica.

Que una cámara de vídeo diferenciara los movimientos intencionados de aquellos debidos al mal pulso del usuario, que una alarma anti-incendios no confundiera el ambiente
cargado de humo de una estancia llena de fumadores con un incendio real, o que un sistema de vigilancia reconociera cuándo ocurría un movimiento sospechoso fuera de horas de oficina, constituían aplicaciones útiles e interesantes, pero limitadas y desde luego, muy alejadas de la comprensión del lenguaje o el reconocimiento dinámico de personas y objetos.

Resultaba imposible crear Inteligencia Artificial sin un modelo que describiese el funcionamiento del cerebro humano. [3]

Una vez se alcanzó este hito, considerado como histórico por muchos, las aplicaciones reales de la IA se sucedieron con gran rapidez. El desarrollo de las Memorias Jerárquicas Autoasociativas y los Motores Predictivos, que implementaban el modelo que simulaba la forma en que trabaja el cerebro humano, resultó el espaldarazo definitivo para la aparición de aplicaciones realmente novedosas.

Por supuesto, el sentido común también jugó un papel importante en todo este proceso de cambio de paradigma. Se habían acabado imponiendo los estándares abiertos como la mejor forma de conseguir interconectividad real entre sistemas.

Muchos argumentarían, que aunque no se hubiera alcanzado consenso y la guerra de estándares hubiera continuado como ocurrió en décadas anteriores, los Motores Predictivos hubieran establecido patrones y puntos de unión entre distintos formatos dando así solución automática al viejo problema de la interoperabilidad.

Cierto, pero una pérdida de energía, de cómputo, pero pérdida de todas formas. Ahora las compañías se concentraban en conseguir ampliar el sensorio de sus sistemas de Memoria Jerárquica y Motores de Predicción. Dicho de otro modo, las compañías que desarrollaban estos productos se especilizaban en cierto tipo de entrada de datos y tratamiento de los mismos.

Así, mientras ciertas empresas se especializaban en desarrollar Motores Predictivos que permitían que un dispositivo comprendiera con precisión el lenguaje hablado, otras lo hacían en el sensorio proveniente de satélites, sondas y estaciones meteorológicas, permitiendo que sus sistemas comprendieran los cambios meteorológicos de forma sorprendentemente precisa.

La interfaz de mi dispositivo era muy configurable pero yo prefería trabajar con el comportamiento por defecto, la predicción automática.

El sistema aprendía qué acciones necesitaba realizar en un momento determinado en función de varios parámetros, que internamente habían sido modelados y conceptualizados como 'modos de trabajo'.

Un sencillo menú presentó ante mí una serie de opciones complejas que internamente requerirían la interacción de varias aplicaciones del sistema. Tal como sucede con la mayoría de los sistemas vivos, como las colonias de insectos, e incluso con los asentamientos humanos y el crecimiento de las grandes ciudades, la emergencia aparece en los sistemas informáticos cuando el número de participantes es suficientemente elevado y el entorno lo posibilita.

Trabajar con este tipo de dispositivos era como tener un asistente personal, o para ser más precisos, como si un Pepito Grillo te recordara qué tienes que hacer y en la mayoría de los casos, cómo hacerlo.

Aunque la mayoría de las veces se asociaba el concepto de asistente personal al nuevo paradigma de informática orientada al usuario, internamente, estos sistemas trabajaban repartiendo el trabajo entre una miríada de pequeñas aplicaciones especializadas en ciertas funciones. Con el tiempo aparecía la emergencia, es decir, aparecían comportamientos no programados que resultaban en mejoras sustanciales en el comportamiento general del sistema.

Seleccioné la creación de un informe automático. El sistema me presentó en paralelo, la lista de mensajes enviados/recibidos, ordenadas por fecha y hora, las anotaciones de texto y las transcripciones de voz de los últimos 7 días.

De entre todas me interesaban las del día, así que las obtuve con un simple comando hablado 'filtra hoy'. Utilicé el lápiz apuntador para convertir algunas de ellas en entradas de mi agenda asignándoles fechas y horas adecuadas. Por supuesto esta agenda estaba replicada en mi hiperarchivo personal en la Red, algo así como las antiguas páginas Web pero mucho más capaz y versátil. Disponer la información personal en la Red permitía que los usuarios dispusiéramos de ella en cualquier momento y desde cualquier dispositivo de forma transparente.

Seleccioné las transcripciones de las incidencias más importantes y compuse el informe inteligente con otra orden verbal.

Mientras realizaba estas tareas, mi Tablet ya se había conectado a la Red inalámbrica a la que estaba suscrito. Como no viajaba mucho al extranjero no necesitaba servicio de 'roaming' entre redes, así que había terminado contratando una tarifa económica en una de las más de 15 operadoras de nuestro país. Suficiente para disponer de cobertura inalámbrica nacional a 100Mbps. Las conexiones realmente rápidas solían ser contratadas por empresas.

Gracias a Dios, ya no se hacía distinción entre voz y datos, así que en el momento de la contratación solo tuve que decidir velocidad, cobertura y, opcionalmente, un dispositivo para trabajar.

Descendiente directo de una generación de recolectores/coleccionistas de dispositivos e información, no había conseguido desintoxicarme de dichas prácticas. Como resultado yo era uno de esos bichos raros que en lugar de alquilar el equipo de conexión, había optado por comprarse uno. No es que resultaran especialmente caros, pero resultaba una estupidez debido a la elevada obsolescencia de la microelectrónica y a lo extendido del servicio de arrendamiento entre las teleoperadoras.

Los datos se trataban con tal nivel de confidencialidad que cualquiera podía cambiar de compañía de telco llevándose todos los datos que hubieran estado en tránsito en el dispositivo, así como el conjunto de predicciones aprendidas por el sistema, o dicho de otra forma, la personalidad de tu asistente.

Lo de llevarse es un eufemismo, claro. Los datos se alojaban en el ciberespacio, sin importar la ubicación geográfica final.

Los sistemas de archivos locales no eran sino meras memorias temporales intermedias que gracias a una gestión inteligente.

De esta forma desapareció la necesidad de disponer de los datos aquí o allí, ya que estaban siempre disponibles en la Red siempre que se tuviera acceso a la misma, o lo que es lo mismo, siempre. Huelga explicar cómo floreció y creció una poderosa industria de servicios que, al amparo de este modo de trabajo distribuido, hacían la vida más cómoda a los usuarios.

Toda la información viajaba cifrada según una clave del dispositivo y una personal e intransferible proveniente del propio circuito de identificación por radiofrecuencia incluído en el carné de identidad de cada individuo. Aunque no resultaba necesario, los más paranoicos complementaban el cifrado con alguna otra clave de procedencia biométrica ,lo que daba a la información carácter de absolutamente indescifrable.

Así, cuando mi dispositivo se conectó a través del proveedor de acceso, entabló negociación de cifrado y accedió, entre otras muchas cosas, a los mensajes y la información relevante de mis subordinados, a las que por supuesto estaba suscrito.

El sistema lo indicó con un pequeño icono parpadeante. Les eché un vistazo para darme cuenta de que, exceptuando un par de notas, las demás eran poco interesantes. "Seleccionando", dije y toqué suavemente con la yema del dedo aquellas notas y mensajes que consideré relevantes sobre la pantalla. Por último, regeneré el informe con otra orden verbal para que reflejara la inclusión de esta última selección.

Las nanopartículas de aluminio incrustadas en la pantalla semirígida conseguían, además de una regulación perfecta de la intensidad y brillo en función de la luz ambiente, que no se ensuciara por mucho que la tocaras con los dedos. Tocar esas pantallas resultaba un tanto extraño, algo así como tocar algún objeto frío y ligeramente húmedo, aunque realmente estaba a temperatura ambiente y seco.

El informe inteligente se creó en segundo plano utilizando mi plantilla por defecto, tal como estaba aleccionado. Sin duda necesitaría intervención, pues el resultado solía ser demasiado aséptico, pero eso lo dejaría para el día siguiente y lo haría con el teclado. No me inspiro igual usando el teclado que al dictado.

Es cierto que las nuevas generaciones ya casi no usaban teclado, sino gestos en pantalla y voz, pero los viejos dinosaurios habíamos trabajado con teclado más de 20 años y eso te condiciona.

Lancé un comando 'conecta teclado' mientras recogía el teclado inalámbrico que había junto a la pantalla de proyección de la habitación, pero no funcionó.

Al parecer mi asistente estaba intentando asociarse con otro teclado, el que solía usar a diario, que en esos instantes descansaba enrollado en mi pequeña bolsa de trabajo.

La flexibilidad del sistema evitó que tuviera que levantarme a por la bolsa. Bastó con un simple 'conecta este teclado' mientras pulsaba algunas teclas. El sistema lo encontró de inmediato. Ni siquiera había leído esa opción en el manual, pero era bastante intuitivo y funcional.

No en vano se había realizado un gran esfuerzo para lograr que los nuevos interfaces resultaran mucho más humanos pese a su incapacidad de ver, oir o entender como los humanos. El interfaz esperaba algún tipo de señal, cualquiera, por mi parte para identificar el teclado al que hacía referencia. Sus ojos y oídos eran sus fuentes de datos.

Una de las notas era un chiste graciosísimo que contó Fer durante la comida. Por suerte había enviado el audio. Aunque realmente casi toda la información se enviaba empaquetada, cifrada y con metadatos que describían de qué se trataba cuál era el origen y el destino, etc. De esa forma los mensajes podían enviarse a cualquier dispositivo, como ordenadores o teléfonos móviles sin distinguir entre formatos ni dispositivos.

Los mensajes, de cualquier tipo ya que no se distinguía formato, ni protocolo, ni dispositivo origen, no eran gestionados con una aplicación de correo electrónico del modo en que se realizaba en la era del Escritorio, sino que su gestión estaba directamente ligada al propio sistema operativo y estrechamente ligado a los metadatos que viajaban con el mensaje en cuestión. Eran estos metadatos los que describían qué contenían los datos, algo así como un etiquetado semántico que permitía que los ordenadores se adaptaran un poco mejor a la forma en que lo hacían los humanos.

Seleccioné el audio y ordené la transcripción y publicación en la sección humor de mi blog usando otro comando de voz. Por supuesto, el sistema me desplegó mi lista personal de blogs, webs e hiperarchivos. Solamente tuve que seleccionar dónde enviarlo, tarea que requirió un par de toques con el dedo y dictado de un pequeño texto descriptivo que decía 'El chiste del día...'.

Como al día siguiente tenía que desplazarme a un lugar que no conocía, busqué entre mis datos la dirección en cuestión, la seleccioné y solicité al sistema la ruta entre el dispositivo, que contaba con geolocalización, y el destino.

La aplicación era suficientemente inteligente para buscar primero de forma local en el histórico y en los mapas locales y, caso de no encontrarla, confeccionar una búsqueda usando XML para conectarse a servicios de localización gratuitos o mediante suscripción a través de internet.

Ordené al sistema que memorizara la ruta para tenerla 'a mano' el día siguiente.

La aplicación de comunicaciones mostraba el estado de la conexión de todos mis colegas, alguno de los cuales estaba online. Decidí ver qué tal le iba la vida, así que establecí videocon. Antes de eso conecté mi Tablet a la pantalla gigante de la habitación del hotel. De nuevo, fue suficiente con ordenar al sistema que se conectara a esa pantalla mientras la encendía. Por supuesto todo de forma inalámbrica, sin utilizar ni un solo cable.

Mientras estabamos de cháchara observé cómo un icono se iluminaba y parpadeaba en una pequeña zona de la gigantesca pantalla de la habitación. Llamada del jefe. Me disculpé durante unos minutos.

Como no tenía los auriculares a mano, utilicé los altavoces de la pantalla y el micro del dispositivo. El jefe quería que le echara un vistazo a un par de cortes realizados por el equipo de rodaje para que le diera mi opinión.

Nada más cortar la comunicación me dispuse a visualizarlos. El tema no estaba tan mal como me lo había pintado, pero tenía un par de comentarios que hacer al respecto.

Como los hiperarchivos guardaban gran cantidad de información asociada a un objeto, me resultó trivial establecer una videocon con el cámara del uno de los fragmentos en particular ya que su información de contacto estaba asociada al vídeo.

Tras una breve espera Raúl, el cámara, me contestó amablemente. Intuí que había solicitado información sobre mi persona a su sistema mientras la señal de llamada sonaba en su dispositivo. Al fin y al cabo ambos trabajabamos en el mismo proyecto y por tanto, en algún lugar del hiperarchivo del proyecto estaría la información sobre el personal participante.

La videocon de trabajo fue breve y productiva. Visualizamos un par de veces de forma sincronizada el vídeo en cuestión mientras dictábamos notas y añadíamos notas, gráficos y croquis asociados a fragmentos o fotogramas concretos del vídeo. Por supuesto, nuestros dispositivos se encargaban de generar un hiperarchivo con todo ese material que sería compartido automáticamente con aquellas personas que tuvieran permiso o necesidad de conocerlo. Nuestros sistemas extraerían ese flujo de trabajo del organigrama dinámico de nuestra empresa además de nuestras agendas personales.

En un momento determinado decidí que sería interesante que José Antonio, el Jefe de Comunicación de la empresa estuviera presente, así que le invité a conectarse.

Aunque se alojaba en mi mismo hotel, había salido a cenar y conectó con nosotros a través de su terminal telefónico. Bueno, estaría más restringido que nosotros, al menos en el plano visual. Los terminales telefónicos importaban casi todo la potencia, funcionalidad, y desde luego, modos de trabajo de los ordenadores modernos. De hecho no eran sino ordenadores ultraportables. Se disculpó un momento mientras preguntaba al camarero del restaurante si le permitiría utilizar durante unos minutos alguna pantalla. El camarero le acercó un Tablet de tamaño decente, aunque un poco baqueteado.

José Antonio conectó vídeo a la pantalla del Tablet prestado gracias a la que pudo apreciar los detalles sobre los que discutíamos. Trabajamos así durante diez minutos antes de despedirnos. Apenas una década antes ese mismo trabajo hubiera llevado horas, y no solo eso, sino que habría requerido la presencia física de los participantes.

Dí la orden verbal para comunicarme con el Jefe. Ni que decir tiene que el sistema sabía perfectamente con quién comunicarse. Tras acabar la conversación instruí al dispositivo para que me presentara al mundo como no_disponible y me pasara únicamente llamadas realmente urgentes. Tras haber trabajado con esa Memoria Jerárquica durante más de tres años, el modelo predictivo el sistema ya sabía lo que la palabra urgente significaba para mí.

Antes de dar por terminada mi sesión de trabajo solicité a mi Tablet que me recordara los asuntos personales pendientes que reclamarían mi atención durante los próximos días. Nada relevante salvo un cumpleaños de una amiga y... ¡vaya! otra visita al dentista para comprobar si ya era momento de desactivar la pasta de nanorreparadores que me había aplicado la semana anterior. Lo malo es que no podría acudir porque aún estaría de viaje.

Tras realizar la consabida búsqueda por voz de los datos de mi dentista actual, aún conservaba unos cuantos más, pero el sistema realizó una predicción correcta en función de la cantidad de accesos y las fechas de las visitas a los mismos, el sistema visualizó sus datos. No eran ni mucho menos horas de oficina, así que no me interesaba su teléfono, sino su URI, su dirección en la Red.

La realidad es que las empresas de software, comenzaron allá por el año 2008 a integrar funciones para trabajar con metadatos semánticos tanto en sus herramientas de autor, como en sus clientes de acceso a la por entonces llamada Internet y por supuesto en sus sistemas operativos y software intermedio. Así, una implementación parcial, pero funcional, de la Web Semántica subyacía a muchísimos servicios Red a finales de la década. [4]

Con la ayuda de la IA, etiquetar, añadir datos semánticos y buscar patrones para hacer búsquedas sobre los mismos, comenzó a realizarse de forma casi totalmente automática, lo que enriqueció tremendamente las páginas de hipervínculos y la flexibilidad de los servicios que éstas ofrecían a los usuarios.

Acudí directamente a la página de su consulta y busqué la opción de visitas. No vi nada que indicara que pudiera cambiar el día a una visita ya concertada. Tendría que cancelar la visita prevista y concertar otra de nuevo. Más trabajo para mi Tablet. Indiqué a mi dispositivo que hiciera la cancelación y oportuna consulta a mi agenda y a la del médico, exportada a través de su página en la Red, para una visita tan pronto como fuera posible.

El sueño me vencía y, puesto que ya había puesto orden a mis ideas y pergeñado el trabajo para el día siguiente, me dispuse a terminar el día.

Así que, ya en la cama, decidí solicitar el resumen de noticias de tv y radio que mi agregador de noticias había recogido para mí a lo largo del día. Lancé la aplicación sobre la pantalla grande y seleccioné los que me interesaban. Intuí que no podría manterme despierto por mucho más tiempo, así que tras 15 minutos de titulares, vídeo y audio, solicité un resumen breve que apenas fui capaz de digerir. Ordené al sistema que apagara la pantalla grande y que se pusiera en reposo. El dispositivo se durmió y el logo de mi 'Google-Sony' comenzó a emitir el leve brillo que indicaba su nuevo estado.

Los nanomateriales habían permitido la construcción de células de combustible muy capaces, la última generación de las cuales ya funcionaba con hidrógeno. Aunque mi viejo dispositivo, tenía ya un año y medio, aún se alimentaba con metanol resistía bastante bien el uso intensivo al que le sometía. Así, tras todo un día de uso, mi batería indicaba un 80% disponible. Suficiente para unos 4 días más de trabajo.

Antes de que mis ojos se cerraran definitivamente conseguí, a duras penas, extender el brazo para dejar mi asistente personal sobre la mesilla de noche.

El último pensamiento que acudió a mi mente antes de dormirme profundamente fue ... "al final, teníamos razón".


NOTAS:

[1] El usar la tan improbable joint venture 'Google-Sony' es una licencia que me he permitido sin más. Es probable que aquellos que hayáis leído Neuromante encontréis cierto paralelismo con la consola 'Ono Sendai' con la que el protagonista, Case, realiza sus incursiones en la Matriz. Habéis acertado. :-)

[2] Es probable que conozcáis la Ley de Moore, pero únicamente a modo de recordatorio expresa que el número de transistores, o lo que es lo mismo, la potencia y la capacidad de almacenamiento de los ordenadores, se duplica cada 18 meses. Se trata de una ley empírica que Gordon E. Moore formuló en 1965. Ha venido cumpliéndose desde su enunciado hasta nuestros días.

La Ley de Metcalfe enuncia que el valor de una red de telecomunicaciones es proporcional al cuadrado del número de usuarios del sistema.

[3] Es cierto que hasta hace bien poco no existía ningún modelo computacional serio y completo sobre el funcionamiento del cerebro. El simple hecho acumular más neuronas virtuales a las ya existentes redes neuronales no proporciona un salto cualitativo a las aplicaciones que implementan.

Para un repaso general y ameno al estado actual de la Inteligencia Artificial, podéis leer los siguientes artículos:

(a) http://pablo-rojas.blogspot.com/2006/03/inteligencia-artificial-de-hal-hasta.html
(b) http://pablo-rojas.blogspot.com/2006/04/inteligencia-artificial-de.html
(c) http://pablo-rojas.blogspot.com/2006/04/inteligencia-artificial-al-filo-de-la.html

En su magnífico libro 'On Intelligence', Jeff Hawkins, creador de las primeras agendas electrónicas, las famosas Palm Pilot, narra como invirtió gran parte de su fortuna personal en poner en marcha el RedWood Neuroscience Institute, dedicado al ambicioso proyecto de conseguir una definición precisa y lo más contrastada posible del un modelo de funcionamiento del cerebro humano.

En su página Web, www.onintelligence.com podéis suscribiros al newsletter. Hace tan solo un par de meses, el equipo del RNI envió un white paper con la descripción de una aplicación práctica de sus teorías, las Memorias Jerárquicas Autoasociativas.

Dicho documento técnico reposa ahora sobre mi mesita de noche y he de confesar que ha influenciado en gran medida la redacción de este pequeño artículo. Muchos técnicos, entre los que me incluyo, tenemos grandes esperanzas sobre este nuevo modelo y las implementaciones del mismo.

[4] El inventor de la Web, Tim Berners-Lee, dedica actualmente su trabajo en definir y crear herramientas para lo que será la futura Web Semántica. Los beneficios de utilizar lenguajes de definición de datos en los objetos publicados en la Web abrirán las puertas a nuevas aplicaciones en el futuro cercano. La página del Blog de Tim Berners-Lee es http://dig.csail.mit.edu/breadcrumbs/blog/4