martes, julio 25, 2006

Chistes «Geek»

Me han hecho mucha gracia estos chistes (vía Microsiervos) y no he podido evitar postearlos.

Sé que a muchos de vosotros, los normales, no los geeks, no os harán ni pizca de gracia, pero aún así, me atrevo a publicar un par. Ahí van:


<Cobra> so i was watching a pr0n
<Thunder> wait
<Thunder> why u guys always say pr0n instead of porn ??

Thunder has been kicked by Guardian (No porn on this channel !)

<Cobra> ...
<Cobra> so i was watching a pr0n



Ahí va otro:


<tag> Ouroboros: lets play Pong
<ouroboros> Ok.
<tag> | .
<ouroboros> . |
<tag> | .
<ouroboros> . |
<tag> | .
<ouroboros> | .
<ouroboros> Whoops


No me digáis que no son buenos (LOL).

Si os gustan, podéis descargar toneladas de ellos en la Web Quote Database Home.

jueves, julio 20, 2006

El Universo oculto

Hoy, 20 de julio de 2006, hace exáctamente 30 años que el hombre pisó por primera vez la superficie lunar. Nuestros padres se sintieron orgullosos de semejante hazaña. Décadas después, sus descendientes seguimos admirando a los personajes que lo hicieron posible.


Y sin embargo ¡qué poco y cuán lentamente nos hemos adentrado en las insondables aguas de los misterios del Universo!

Muchos desconocen un hecho que a mí me pone los pelos de punta.

Este hecho, esta realidad, es que desconocemos de qué está hecho el 96% del Universo. Tal como explicaba Carl Sagan con esa enorme capacidad de comunicación que le caracterizaba, estamos hechos de materia estelar, de materia proveniente de estrellas ya muertas. Asimilar esta maravillosa realidad es más que suficiente para que cualquiera con dos dedos de frente y un mínimo de sensibilidad se sienta, desde la más profunda de las humildades, irremediablemente integrado con el Cosmos.

Sin embargo, la lista de misterios que el Universo guarda celoso esperando a que alguien los desentrañe, ni mucho menos termina aquí.

La realidad es que no tenemos ni idea sobre la composición del Universo. Concretamente el 96% del mismo según los científicos.

Apenas hemos comenzado a arañar sobre la superficie del misterioso Universo, para encontrarnos con otro aún mayor. Todas las maravillas que observamos están compuestas por la materia ordinaria que únicamente suma el 4% de la masa total del Universo. Quizá deberíamos llamarla materia extraordinaria ya que, contra toda intuición humana, parece ser la más extraña.

¿Y qué hay acerca del 96% restante? Hubo un tiempo, no hace mucho, en que la ciencia parecía explicar casi totalmente cómo funcionaba el Universo. Todo estaba compuesto por átomos. Nosotros, la Tierra, el resto de los planetas y estrellas, e incluso los objetos estelares más exóticos, como las estrellas de neutrones, los quásares, todo, absolutamente todo, estaba compuesto por materia ordinaria creada poco después de la creación del Universo, el Big Bang.

Dentro de los átomos, entre sus componentes subatómicos, y en el espacio entre ellos, no hay nada. Simplemente espacio vacío. Sin embargo, desde hace poco, las cosas se han ido complicando dando al traste con este modelo observable. Parece que una gran parte del Universo, la mayoría del mismo, símplemente no puede ser visto ni detectado.

El resto del Universo, el 96% no visible, está hecho de entidades misteriosas sobre las que se conoce muy poco. Dada su naturaleza misteriosa y esquiva, han sido bautizadas con nombres igualmente misteriosos, la Materia Oscura y la Energía Oscura.

En 1974, la astrónoma Vera Rubin, trabajaba en un proyecto de investigación sobre las estrellas situadas en los bordes exteriores de las galaxias. Lo que descubrió resulto una sorpresa mayúscula.

Poco después de que le cayera la famosa manzana sobre la cabeza, Newton declaró que la gravedad es universal. Una manzana cayendo en la Tierra obdece las mismas leyes matemáticas que si lo hiciera en otro punto cualquiera del Universo. De la misma forma que el Sol controla la órbita de los planetas que orbitan a su alrededor mediante la fuerza gravitatoria que ejerce sobre ellos, una galaxia espiral debe estar controlada por la influencia gravitatoria ejercida por un agujero negro dispuesto en su centro. Desde hace mucho tiempo se sabe que Plutón, en el límite de nuestro sistema solar, viaja mucho más despacio que Mercurio, el planeta cuya órbita está más próxima al Sol. De hecho, fueron observaciones como ésta las que permitieron a Newton ir desgranando sus Leyes en el siglo XVII.

Cuando Vera Rubin realizó su trabajo sobre estrellas esperaba encontrar que las estrellas más alejadas del centro, en el límite externo de la galaxia, se movieran much más despacio que aquellas estrellas dispuestas más cerca del centro de la misma. Sin embargo no fue para nada así. Encontró que casi todas las estrellas de las galaxias espirales giran aproximadamente a la misma velocidad. Esto resultaba tremendamente extraño.

¿Podría ser que las Leyes de Newton no fueran realmente universales y no funcionaran como era de esperar en las galaxias? Cuestionar a Newton parecía impensable, así que los científicos tomaron otro camino. En lugar de plantear una gravedad variable, distinta según en el lugar en que se mida, argumentaron que debía existir algo más en las galaxias, algo que estaba proporcionando la gravedad extra que explicaba el comportamiento observado.

Con esta gravedad extra, las estrellas serían estiradas con más fuerza y por tanto viajarían más rápidamente, tal como sugerían las observaciones de Rubin.

¿Qué nombre darle a esta cosa que tenía masa y ejercía por tanto fuerza de gravedad sobre las estrellas? Materia Oscura. Pero ¿qué es realmente esta Materia Oscura?

Dos investigadores en Pricetown, los profesores Peebles y Ostriker, estudiaron en profundidad la Materia Oscura y sus efectos. Sugerían que existía al menos 10 veces más Materia Oscura que ordinaria o visible.

A pesar de su creciente aceptación, la verdadera identidad de la Materia Oscura permaneció completamente oculta. Ni la física de partículas tenía candidatos para ocupar el puesto. Incluso los recientemente descubiertos neutrinos no tenían las características que debería exhibir tal tipo de materia.

El profesor Tim Sumner del Imperial College de Londres, creía que tenía la respuesta al misterio. Una nueva partícula hipotética llamada neutralino. Se suponía que tenía la masa correcta y podría existir en enormes cantidades en el Universo. El problema es que nunca había sido detectada. Si la Materia Oscura estaba en toda nuestra galaxia, en todas las galaxias, entonces también debía estar presente en la Tierra.

De hecho, miles de toneladas de esta extraña materia debía estar atravesando la Tierra cada día. No interactúa con la materia ordinaria, así que pasa a través de ella como si nada. El fondo de una mina, a salvo de rayos cósmicos y las partículas atmosféricas de la superficie, es el lugar ideal para intentar detectar una señal. Así que eso es exáctamente lo que el profesor Sumner intentó, con un detector instalado en el fondo de la mina más profunda de europa, en Cleveland, Inglaterra. Si su equipo detectaba el neutralino, podían estar casi seguros de obtener el Premio Nobel. Pero la búsqueda se mostró totalmente infructuosa.

En 1974, mientras muchos astrónomos se dedicaban a perseguir la Materia Oscura, el profesor Israelí de astrofísica Milgrom intentó una aproximación aún más audaz. Intentó reescribir las Ley de la gravedad de Newton. A sabiendas de que su intento no iba a ser precisamente aplaudido por el resto de la comunidad científica, trabajó en sus teorías en privado hasta que estubo listo para mostrarla al mundo en el año 1981.

Llamó a su teoría Dinámica Newtoniana Modificada (en inglés MOND) y la utilizó para demostrar cómo la gravedad puede ser un poco más intensa de lo que se creía con anterioridad, a través de las enormes distancias ocupadas por una galaxia típica. ¿Pero seguro que Newton no pudo estar equivocado? Milgrom continuó trabajando sobre su teoría, ganando la simpatía de admiradores e investigadores que pensaban de forma similar. Cuanto más tiempo la identidad de la materia oscura siga siendo un misterio, más credibilidad obtienen sus teorías.

En 1997 el profesor Saul Perlmutter planteó otra línea de investigaciónque vino a añadir intensidad a las acaloradas discusiones científicas sobre el tema. Cuando estudió la expansión del Universo se topó accidentalmente con que no sólo se separaban entre sí las galaxias y las estrellas, sino que lo hacían aumentando sus velocidades. Eso significaba que en el futuro nos podríamos encontrar con un cielo carente de estrellas (por supuesto esto ocurriría únicamente en un tiempo muy, muy lejano). De igual forma, significaría que algo estaría empujando las estrellas para separarlas. Esta aparente fuerza anti-gravitatoria era completamente nueva para la ciencia, pero de nuevo su naturaleza exacta seguía siendo un misterio. Aún con todo, se le dió un nombre: Energía Oscura. Observaciones realizadas muestran que el Universo está compuesto por un 4% de materia ordinaria, de la que está hecho TODO lo que hemos conocido, al menos hasta el momento, un 21% de Materia Oscura y un 75% de Energía Oscura.

Como se puede observar hay un montón de cosas que realmente nadie comprende. Este Modelo Estandar tiene, inevitablemente, sus detractores. No todo el mundo cree razonable que semejante conjunto de teorías puedan estar basadas en hechos derivados de tan exigua evidencia física. El profesor Mike Disney de la Universidad de Cardiff mantiene que "no existe física en nada de todo esto, únicamente hadas de jardín". En respuesta, los que creen en la Materia Oscura, liderados por el profesor Carlos Frenk de la Universidad de Durham, ha generado sofisticadas simulaciones del Universo por ordenador para demostrar la existencia de tan esquiva sustancia. Estas simulaciones muestran aparentemente que la Materia Oscura y la Energía Oscura han sido cruciales en el desarrollo del Universo. Sin su influencia, las galaxias, estrellas, planetas, incluso la vida misma, nunca hubieran aparecido. Los resultados del muestreo realizado por el satélite WMAP parece que vienen a confirmar la proporción de cada una de los dos componentes 'Oscuros' en nuestro Universo.

Así que, a pesar de la creciente popularidad de la teoría MOND de Milgrom entre ciertos grupos de investigación, la Materia Oscura todavía cuenta con el respaldo mayoritario de la comunidad científica.

El Modelo Estandar, con su mezcla de átomos, Materia Oscura y Energía Oscura, es la última de una larga serie de grandes ideas fruto de la observación y el escepticismo científico. Cada una de las civilizaciones que han existido, desarrolló su propio modelo cosmológico que, cada pocas décadas o siglos, ha sido reemplazado por otro más completo y mejor.

Queda por ver si pertenecemos a una generación privilegiada que descubrirá el modelo adecuado. ¿Seguirán los futuros modelos cosmológicos contemplando la Materia Oscura y la Energía Oscura como parte fundamental del Universo? El tiempo lo dirá.

Maravilloso, tremendamente fascinante y ligeramente inquietante. Inquietante sólo ligeramente porque me temo que la mayoría de nosotros, (ni nuestros hijos, ni nuestros nietos) no estaremos aquí cuando se desvelen estos misterios, así que de nada vale preocuparse. Mejor seguir trabajando sobre ello por el mero placer que representa adquirir conocimiento con la lejana esperanza de que algún día nuestros descendientes terminen por desvelarlos.

jueves, julio 13, 2006

Interface cerebro-máquina

El diario New York Times publica hoy un artículo sobre nuevos desarrollos en el campo de las neuroprótesis, implantes que permiten el control de dispositivos electrónicos como robots y ordenadores, a través del pensamiento.

El artículo dice: "La primera persona en recibir el implante, Matthew Nagle, fue capaz en diferentes experimentos, de mover un cursor, abrir el e-mail, jugar videojuegos sencillos (el Pong) e incluso dibujar un burdo círculo en la pantalla. También consiguió cambiar el canal y el volumen de la tele, mover un brazo robot  y abrir y cerrar una mano protésica. Aunque el movimiento del cursor era en ocasiones tembloroso, los movimientos básicos no fueron difíciles de aprender. "Conseguí manejarlo en cuatro días" dijo Mr. Nagle en una entrevista telefónica desde el Hospital de Rehabilitación New England Sinai, en Stoughton, Massachusets, donde reside.

El paciente dijo que el implante no le causó ningún dolor. El sensor mide 4 milímetros de lado y contiene 100 micro electrodos. El dispositivo fue implantado en el área motora del cortex del paciente responsable del movimiento del brazo, y fue conectado a un pedestal que protuye ligeramente sobre su cráneo. (Enlace)

El resultado de los experimentos, dirigidos por el profesor John Donoghue  y su equipo, fue publicado en el número de esta semana de la revista científica Nature.

El web site de la revista también ha publicado un resumen que incluye entrevistas, video de los experimentos y una colección de artículos y publicaciones claves sobre los interfaces cerebro - máquina.

Realmente interesante. Os recomiendo que le echéis un vistazo.


technorati tags:, , ,

martes, julio 11, 2006

Navegando con Flock

Os confieso que lo he intentado en varias ocasiones. Dejar mi navegador por defecto, el Firefox, y probar el nuevo Flock que, aunque comparte interioridades con el navegador del zorro, añade funciones que facilitan acceso a utilísimos servicios Web.

Acabo de descargarme la Beta 1 (v.0.7) para Linux, y de momento no observo ninguno de los fallos de las versiones anteriores me obligaron a abandonarlo un par de veces como navegador preferido . De hecho, estoy escribiendo este post con la funcion 'blog this' que incorpora este navegador.

Tengo una barra con las fotos de mi cuenta Flickr, archivo mis bookmarks directamente en del.icio.us, y publico en mi Blog con un simple CTRL+B. ¡Me gusta!

Llevo utilizando servicios de la tan famosa, y etérea, Web 2.0 desde hace ya bastante tiempo. La novedad es que Flock promete la integración de todas ellas de una forma modular en una única aplicación. Con esta versión la promesa está muy cerca de cumplirse con matrícula de honor. Y eso que van por la v0.7.

Aunque algún requiera de un proceso de pulimentado final, Flock ya cuenta con mi voto. :-)

technorati tags: , ,


domingo, julio 09, 2006

Inquietante futuro tecnológico

La semana pasada mi querido amigo Álvaro me envió un mail en el que replicaba, con gran acierto, el pequeño relato Sueños de Interfaz en el que narro una supuesta sesión de trabajo con un ordenador semi-inteligente dentro de unos diez años.

Como veréis, la réplica deja parcialmente de lado la vertiente tecnológica para profundizar en la dimensión social de la venidera revolución tecnológica.

El caso es que, sin ánimo de despertar mayores inquietudes, estoy bastante seguro de haberme quedado muy corto en el citado relato. Así que, con el debido permiso de mi amigo, me veo en la obligación de seguir escribiendo (vamos divirtiéndome) e intentar demostrar cómo la tecnología ha ido introduciéndose sigilosa y de forma poco traumática en nuestras vidas durante la última década y cómo seguirá haciéndolo del mismo modo.



Réplica al relato Sueños de Interfaz - Álvaro López Jamar

Me asusta que todo eso que predices pueda suceder en una década, ¿seré capaz de asimilarlo?, es ilusionante saberse futuro testigo de todo ello.

A otras generaciones les tocó vivir dos guerras mundiales, terribles genocidios y feroces totalitarismos, mientras tanto a nuestra actual y adormecida sociedad occidental nos toca vivir bien, gozar de una tecnología ideada para una mezcla entre ocio y trabajo a la que es imposible no rendirse fascinados. Ocio y trabajo se entremezclarán recíprocamente. Haremos del trabajo un juego estresante y de nuestro ocio, una oficina en el interior de la privacidad familiar invadida.

Supongo que toda esa tecnología vertiginosa y tan chula, será ideada en pequeños Institutos Tecnológicos de Massachussets diseminados estratégicamente por el mundo, manufacturados en "países en vías de desarrollo" por millones de trabajadores en condiciones de semi esclavitud, que ni soñarán en adquirir lo que se llevan entre manos. Nosotros; los occidentales los japoneses y los WASP, ya no fabricaremos nada, en tu predicción todo eso queda bien implícito. Seremos sociedades de servicios dedicadas únicamente a gestionar nuestro bienestar social, cultural y tecnológico. Prejubilados de lujo con un ISO 17000 tatuado en la espalda que certifique nuestro sincero compromiso con el desarrollo sostenible y el eventual protocolo de Kyoto. Contaminan ellos, nosotros consumimos y reciclamos los envases separando los materiales de nuestros lujosos desperdicios.

Esa prejubilación de lujo que nos espera, (y que nuestros sistemas sociales de previsión probablemente no soporten), puede ser causada por el hecho de no estar suficientemente a la altura de asimilar toda esa revolución tecnológica que nos dominará. Un mundo feliz y 1984 mezclado en un universo matrix donde la gente no sepa lo que se siente acariciando una vaca porque no la ha visto en su vida. También es tranquilizador prever que mi coche de gama media conducirá por mí, (que no me gusta) y que su empresa fabricante, asuma directamente la responsabilidad civil derivada de los muertos causados por su imprudencia por no adecuarse a un mal estado de la carretera o a las condiciones climáticas, acuaplanning... etc.

Respecto a la IA no puedo evitar recordar la amoralidad ciega de Hall en 2001. Pequeños robotitos con cerebros sin conciencia y acertada puntería de grueso calibre y visión nocturna, pueden sustituir definitivamente a nuestros soldaditos occidentales, en esas batallas que no salen en los telediarios, y así poder dedicarse por entero a su verdadera vocación de labores humanitarias ONG. Y los motores predictivos no tienen porqué ser un instrumento de aborregamiento colectivo, la máquina sabe lo que vas a decidir, decide por ti y tú finalmente eres una simbiosis alter ego de la máquina. Nuestra actitud indolente y pasiva, hará que cada vez deleguemos nuestras decisiones más en el criterio de la máquina, será genial. Mientras ella decide quien merece entrar en mi agenda del mes que viene, irá asumiendo el criterio de quienes son mis mejores amigos y a quién debo prestar atención priorizando entre mi sobrina parturienta, mi amigo depresivo o mi madre (teléfono detecta por su tono de voz que está cansada o molesta porque no la llamo)

Pienso en mi pobre hermano Carlos, el dentista con cinco hijos, en el paro por no haber sido capaz de atrapar, entre sus endodoncias y empastes, el tren la regeneración nanotecnológica. ¿La gente realmente ocupada podrá dedicarse a aprehender todo ese conocimiento nuevo y vertiginoso? Ojalá la Ley de moore fuera aplicable tb a mis neuronas y mis sinapsis, más bien sucede al contrario, pero no dudo en que un implante en mi cortex cerebral podrá memorizar 12 idiomas diferentes, la Espasa-Calpe, toda la Jurisprudencia del Tribunal Supremo y el AutoCAD, (aún puedo ser el nuevo Bruneleschi). Estoy ansioso de adquirir todo ese conocimiento sin realizar el más mínimo esfuerzo, será muy gratificante convivir con vecinos capaces de recitar los sonetos de Shakespeare, realizar complejas integrales y algoritmos de memoria y con una sonrisa durante el trayecto del ascensor mientras nos damos los buenos días.

Respecto al derecho a la intimidad... con esa tecnología y la moralidad democrática de nuestros gobernantes planetarios, será algo sin posibilidad de protección, pero poco importará. Tecnología y psicotrópicos nos facilitarán experiencias sensoriales (viajes de ensueño a la Antártida, paseos por Saturno, relaciones sexuales con mega estrellas de Hollywood...) En ese escenario tan prometedor, intimidad y democracia no nos importarán gran cosa. Quizá nuestra nueva PDA tenga más criterio político y moralidad que nosotros mismos. De todos modos, actualmente, nuestra democracia es meramente formal, votar lo que los mass media nos han manipulado cada cuatro años entre un oligopolio de partidos y con una Constitución tan flexible y vacía como convenga.

¿Será posible crear una IA que nos supere y mejore desde el punto de vista ético y moral, no sólo desde el punto de vista práctico?

No debe ser muy difícil. Tecnólogos, a trabajar!!!

INQUIETANTE TODO, MUCHO.

viernes, julio 07, 2006

Adiós G4, adiós

Hoy ha sido un día de despedida. Tristón, un poco depre, con la incertidumbre de quién será el sustituto de tan maravillosa máquina.

Efectivamente, hoy he bien-vendido (me siento como un traidor al escribir esto), a mi querido compañero de trabajo. Mi Apple PowerBook G4 15" ha pasado a otras manos. Menos mal que me consta que su nuevo dueño es tan cuidadoso, o más, que yo mismo.

Luego ha venido EL vacío. ¿que hago yo sentado delante de un Pentium III escribiendo esto? ¿Será el sustito un pequeño MacBook o un MacBook Pro? ¿No saldrán este verano los nuevos Intel Core 2 Duo? ¿Espero, o no?

Bueno, al menos una cosa sí es cierta. Su sustituto será de la misma 'raza'. Incluso puede que hasta de su misma familia, pero eso sí, con corazón Intel...

Hasta siempre mi fiel amigo, este post va por tí. :-)

miércoles, julio 05, 2006

Super mosquitos

No me digáis que si no os aseguran que no se trata de ninguna broma, el título al más puro estilo Mortadelo y Filemón no sería para echarse a reir.

Pero no, no se trata de ninguna broma. Leo en Yahoo! news que un diario Griego ha publicado que la polución reinante en las calles de Atenas ha criado una nueva raza de super mosquitos, más grandes, rápidos y adictos a buscar víctimas humanas.

Estos super mosquitos pueden detectar humanos a 25-30 metros de distancia y disponen de visión en color, mientras que los mosquitos normales pueden pueden oler la sangre humana a tan solo 15-20 metros y son incapaces de distinguir los colores.

Igualmente, estos monstruos pueden batir sus alas 500 veces por segundo, mientras que la frecuencia normal suele ser unas 350 veces por segundo, y pesan 0.3 microgramos más que sus hermanos pequeños. Vamos, unos bestias.

Eso es adaptabilidad al medio y lo demás, tonterías.

martes, julio 04, 2006

Sueños de Interfaz

Llegué al hotel exhausto. La jornada había sido dura. Me dejé caer sobre la cama y dejé mi bolsa sobre la mesa.

Con los ojos entrecerrados por el cansancio y un incipiente dolor de cabeza hice un rápido repaso a los acontecimientos del día. El rodaje del spot promocional había transcurrido sin incidencias. Había que tener un millón de detalles presentes para que todo discurriera según el plan general de comunicación, fruto del intenso trabajo de tres personas durante un mes.

Me daba mucha pereza, pero sabía que tenía que preparar y organizar el trabajo para el día siguiente que, a tenor de lo visto, también iba a resultar movidito. Mi sentido arácnido, también llamado veteranía, me decía que de no hacerlo me encontraría con sorpresas desagradables.

Me di una ducha y aunque apenas tenía apetito, me obligué a pedir algo al servicio de habitaciones.

Tras descansar unos minutos cogí la bolsa y retiré la protección de mi Tablet.

Acaricié el logo de mi querido Google-Sony [1] para devolverlo a la vida. Recordé con nostalgia la década del 2.000 en que mi amigo Oscar y yo especulábamos sobre la posibilidad de que alguna de las grandes multinacionales creara dispositivos que rompieran los moldes de la informática de la época, que acabara con el paradigma de interfaz de usuario vigente.

Cada vez más rápidos, cada vez más pequeños, con mayores capacidades de comunicación, pero en esencia, los ordenadores no hacían nada nuevo, o al menos esa era la sensación de los sufridos usuarios que seguían usando sus teclados y ratones para manejar un mundo virtual regido por escritorios, iconos, incompatibilidades y complejas aplicaciones.

Así era. En aquellos días, nos resultaba increíble que los usuarios no demandaran herramientas más versátiles y productivas, que se adecuaran mejor al uso cotidiano real y con las que no hubiera que luchar continuamente.

Más increíble aún resultaba el hecho de que las compañías no ofertaran productos realmente novedosos para hacerse con nuevos mercados, tal como hizo Apple en su día, primero con el mercado de la música y luego con la distribución del Séptimo Arte a través de la Red,... quien da primero, da dos veces.

Sin embargo, la informática había llegado a un punto de inflexión, a un excedente acumulado de capacidad de almacenamiento y proceso que a la postre se resultó el detonador del siguiente gran cambio.

La continua disminución del coste de los dispositivos permitió que a finales de la década la tecnología de las telecomunicaciones y la informática se introdujera en las vidas de las personas.

La mayoría de las personas poseía móviles de tercera generación, agendas electrónicas, potentísimos ordenadores de sobremesa o, en muchos otros casos, equipos ultraportátiles proporcionados por la empresa para dar movilidad a sus empleados. Incluso los habitantes del tercer mundo, especialmente aquellos en edad escolar, se habían pertrechado con toda una generación de portátiles económicos y dispositivo de acceso a la Red que permitirían un tanto la barrera socioeconómica que le separaba del mundo industrializado.

Tras un par de segundos mi equipo mostró su habitual conjunto de menús e iconos en forma de nube probabilística. No pude dejar de pensar lo distinto que resultaba al clásico escritorio de la antiguas generaciones de Sistemas Operativos. El cambio había sido tan profundo que, excepto para los Ingenieros TIC, la jerga informática había quedado atrás.

Los nuevos sistemas disponían al usuario en el centro del sistema, y todo orbitaba alrededor de ese concepto y en la forma en que los nuevos dispositivos ayudaban a realizar las tareas solicitadas abstrayendo al usuario de las complejidades ligadas al funcionamiento interno de las máquinas. Hacía muchos años que eso se había conseguido con los coches, simplemente le había llegado el turno a los ordenadores.

Recordé lo desconcertante que resultaba para un técnico como yo trabajar de esta forma durante los primeros días, el rechazo que supuso en algunos sectores su adopción como estándar y la agradable sensación que producía el asumir que te habías adaptado y no había vuelta atrás.

Era como cuando pruebas uno de esos nuevos Mercedes con pilas de combustible de hidrógeno y navegación automática. Puedes seguir conduciendo tu vieja cafetera, pero ya nunca será lo mismo.

Las Leyes de Moore y Metcalfe [2] habían allanado el camino: miniaturización, potencia, bajo consumo y conectividad total entre dispositivos y redes. La Inteligencia Artificial (IA) había hecho el resto.

Durante décadas, la IA había quedado relegada al ámbito de los laboratorios de investigación. Únicamente había comenzado a hacer discretas apariciones en el mercado a partir del momento en que las redes neuronales alcanzaran la madurez y aunque por aquél entonces resultaran útiles, su aplicación era limitada en la práctica.

Que una cámara de vídeo diferenciara los movimientos intencionados de aquellos debidos al mal pulso del usuario, que una alarma anti-incendios no confundiera el ambiente
cargado de humo de una estancia llena de fumadores con un incendio real, o que un sistema de vigilancia reconociera cuándo ocurría un movimiento sospechoso fuera de horas de oficina, constituían aplicaciones útiles e interesantes, pero limitadas y desde luego, muy alejadas de la comprensión del lenguaje o el reconocimiento dinámico de personas y objetos.

Resultaba imposible crear Inteligencia Artificial sin un modelo que describiese el funcionamiento del cerebro humano. [3]

Una vez se alcanzó este hito, considerado como histórico por muchos, las aplicaciones reales de la IA se sucedieron con gran rapidez. El desarrollo de las Memorias Jerárquicas Autoasociativas y los Motores Predictivos, que implementaban el modelo que simulaba la forma en que trabaja el cerebro humano, resultó el espaldarazo definitivo para la aparición de aplicaciones realmente novedosas.

Por supuesto, el sentido común también jugó un papel importante en todo este proceso de cambio de paradigma. Se habían acabado imponiendo los estándares abiertos como la mejor forma de conseguir interconectividad real entre sistemas.

Muchos argumentarían, que aunque no se hubiera alcanzado consenso y la guerra de estándares hubiera continuado como ocurrió en décadas anteriores, los Motores Predictivos hubieran establecido patrones y puntos de unión entre distintos formatos dando así solución automática al viejo problema de la interoperabilidad.

Cierto, pero una pérdida de energía, de cómputo, pero pérdida de todas formas. Ahora las compañías se concentraban en conseguir ampliar el sensorio de sus sistemas de Memoria Jerárquica y Motores de Predicción. Dicho de otro modo, las compañías que desarrollaban estos productos se especilizaban en cierto tipo de entrada de datos y tratamiento de los mismos.

Así, mientras ciertas empresas se especializaban en desarrollar Motores Predictivos que permitían que un dispositivo comprendiera con precisión el lenguaje hablado, otras lo hacían en el sensorio proveniente de satélites, sondas y estaciones meteorológicas, permitiendo que sus sistemas comprendieran los cambios meteorológicos de forma sorprendentemente precisa.

La interfaz de mi dispositivo era muy configurable pero yo prefería trabajar con el comportamiento por defecto, la predicción automática.

El sistema aprendía qué acciones necesitaba realizar en un momento determinado en función de varios parámetros, que internamente habían sido modelados y conceptualizados como 'modos de trabajo'.

Un sencillo menú presentó ante mí una serie de opciones complejas que internamente requerirían la interacción de varias aplicaciones del sistema. Tal como sucede con la mayoría de los sistemas vivos, como las colonias de insectos, e incluso con los asentamientos humanos y el crecimiento de las grandes ciudades, la emergencia aparece en los sistemas informáticos cuando el número de participantes es suficientemente elevado y el entorno lo posibilita.

Trabajar con este tipo de dispositivos era como tener un asistente personal, o para ser más precisos, como si un Pepito Grillo te recordara qué tienes que hacer y en la mayoría de los casos, cómo hacerlo.

Aunque la mayoría de las veces se asociaba el concepto de asistente personal al nuevo paradigma de informática orientada al usuario, internamente, estos sistemas trabajaban repartiendo el trabajo entre una miríada de pequeñas aplicaciones especializadas en ciertas funciones. Con el tiempo aparecía la emergencia, es decir, aparecían comportamientos no programados que resultaban en mejoras sustanciales en el comportamiento general del sistema.

Seleccioné la creación de un informe automático. El sistema me presentó en paralelo, la lista de mensajes enviados/recibidos, ordenadas por fecha y hora, las anotaciones de texto y las transcripciones de voz de los últimos 7 días.

De entre todas me interesaban las del día, así que las obtuve con un simple comando hablado 'filtra hoy'. Utilicé el lápiz apuntador para convertir algunas de ellas en entradas de mi agenda asignándoles fechas y horas adecuadas. Por supuesto esta agenda estaba replicada en mi hiperarchivo personal en la Red, algo así como las antiguas páginas Web pero mucho más capaz y versátil. Disponer la información personal en la Red permitía que los usuarios dispusiéramos de ella en cualquier momento y desde cualquier dispositivo de forma transparente.

Seleccioné las transcripciones de las incidencias más importantes y compuse el informe inteligente con otra orden verbal.

Mientras realizaba estas tareas, mi Tablet ya se había conectado a la Red inalámbrica a la que estaba suscrito. Como no viajaba mucho al extranjero no necesitaba servicio de 'roaming' entre redes, así que había terminado contratando una tarifa económica en una de las más de 15 operadoras de nuestro país. Suficiente para disponer de cobertura inalámbrica nacional a 100Mbps. Las conexiones realmente rápidas solían ser contratadas por empresas.

Gracias a Dios, ya no se hacía distinción entre voz y datos, así que en el momento de la contratación solo tuve que decidir velocidad, cobertura y, opcionalmente, un dispositivo para trabajar.

Descendiente directo de una generación de recolectores/coleccionistas de dispositivos e información, no había conseguido desintoxicarme de dichas prácticas. Como resultado yo era uno de esos bichos raros que en lugar de alquilar el equipo de conexión, había optado por comprarse uno. No es que resultaran especialmente caros, pero resultaba una estupidez debido a la elevada obsolescencia de la microelectrónica y a lo extendido del servicio de arrendamiento entre las teleoperadoras.

Los datos se trataban con tal nivel de confidencialidad que cualquiera podía cambiar de compañía de telco llevándose todos los datos que hubieran estado en tránsito en el dispositivo, así como el conjunto de predicciones aprendidas por el sistema, o dicho de otra forma, la personalidad de tu asistente.

Lo de llevarse es un eufemismo, claro. Los datos se alojaban en el ciberespacio, sin importar la ubicación geográfica final.

Los sistemas de archivos locales no eran sino meras memorias temporales intermedias que gracias a una gestión inteligente.

De esta forma desapareció la necesidad de disponer de los datos aquí o allí, ya que estaban siempre disponibles en la Red siempre que se tuviera acceso a la misma, o lo que es lo mismo, siempre. Huelga explicar cómo floreció y creció una poderosa industria de servicios que, al amparo de este modo de trabajo distribuido, hacían la vida más cómoda a los usuarios.

Toda la información viajaba cifrada según una clave del dispositivo y una personal e intransferible proveniente del propio circuito de identificación por radiofrecuencia incluído en el carné de identidad de cada individuo. Aunque no resultaba necesario, los más paranoicos complementaban el cifrado con alguna otra clave de procedencia biométrica ,lo que daba a la información carácter de absolutamente indescifrable.

Así, cuando mi dispositivo se conectó a través del proveedor de acceso, entabló negociación de cifrado y accedió, entre otras muchas cosas, a los mensajes y la información relevante de mis subordinados, a las que por supuesto estaba suscrito.

El sistema lo indicó con un pequeño icono parpadeante. Les eché un vistazo para darme cuenta de que, exceptuando un par de notas, las demás eran poco interesantes. "Seleccionando", dije y toqué suavemente con la yema del dedo aquellas notas y mensajes que consideré relevantes sobre la pantalla. Por último, regeneré el informe con otra orden verbal para que reflejara la inclusión de esta última selección.

Las nanopartículas de aluminio incrustadas en la pantalla semirígida conseguían, además de una regulación perfecta de la intensidad y brillo en función de la luz ambiente, que no se ensuciara por mucho que la tocaras con los dedos. Tocar esas pantallas resultaba un tanto extraño, algo así como tocar algún objeto frío y ligeramente húmedo, aunque realmente estaba a temperatura ambiente y seco.

El informe inteligente se creó en segundo plano utilizando mi plantilla por defecto, tal como estaba aleccionado. Sin duda necesitaría intervención, pues el resultado solía ser demasiado aséptico, pero eso lo dejaría para el día siguiente y lo haría con el teclado. No me inspiro igual usando el teclado que al dictado.

Es cierto que las nuevas generaciones ya casi no usaban teclado, sino gestos en pantalla y voz, pero los viejos dinosaurios habíamos trabajado con teclado más de 20 años y eso te condiciona.

Lancé un comando 'conecta teclado' mientras recogía el teclado inalámbrico que había junto a la pantalla de proyección de la habitación, pero no funcionó.

Al parecer mi asistente estaba intentando asociarse con otro teclado, el que solía usar a diario, que en esos instantes descansaba enrollado en mi pequeña bolsa de trabajo.

La flexibilidad del sistema evitó que tuviera que levantarme a por la bolsa. Bastó con un simple 'conecta este teclado' mientras pulsaba algunas teclas. El sistema lo encontró de inmediato. Ni siquiera había leído esa opción en el manual, pero era bastante intuitivo y funcional.

No en vano se había realizado un gran esfuerzo para lograr que los nuevos interfaces resultaran mucho más humanos pese a su incapacidad de ver, oir o entender como los humanos. El interfaz esperaba algún tipo de señal, cualquiera, por mi parte para identificar el teclado al que hacía referencia. Sus ojos y oídos eran sus fuentes de datos.

Una de las notas era un chiste graciosísimo que contó Fer durante la comida. Por suerte había enviado el audio. Aunque realmente casi toda la información se enviaba empaquetada, cifrada y con metadatos que describían de qué se trataba cuál era el origen y el destino, etc. De esa forma los mensajes podían enviarse a cualquier dispositivo, como ordenadores o teléfonos móviles sin distinguir entre formatos ni dispositivos.

Los mensajes, de cualquier tipo ya que no se distinguía formato, ni protocolo, ni dispositivo origen, no eran gestionados con una aplicación de correo electrónico del modo en que se realizaba en la era del Escritorio, sino que su gestión estaba directamente ligada al propio sistema operativo y estrechamente ligado a los metadatos que viajaban con el mensaje en cuestión. Eran estos metadatos los que describían qué contenían los datos, algo así como un etiquetado semántico que permitía que los ordenadores se adaptaran un poco mejor a la forma en que lo hacían los humanos.

Seleccioné el audio y ordené la transcripción y publicación en la sección humor de mi blog usando otro comando de voz. Por supuesto, el sistema me desplegó mi lista personal de blogs, webs e hiperarchivos. Solamente tuve que seleccionar dónde enviarlo, tarea que requirió un par de toques con el dedo y dictado de un pequeño texto descriptivo que decía 'El chiste del día...'.

Como al día siguiente tenía que desplazarme a un lugar que no conocía, busqué entre mis datos la dirección en cuestión, la seleccioné y solicité al sistema la ruta entre el dispositivo, que contaba con geolocalización, y el destino.

La aplicación era suficientemente inteligente para buscar primero de forma local en el histórico y en los mapas locales y, caso de no encontrarla, confeccionar una búsqueda usando XML para conectarse a servicios de localización gratuitos o mediante suscripción a través de internet.

Ordené al sistema que memorizara la ruta para tenerla 'a mano' el día siguiente.

La aplicación de comunicaciones mostraba el estado de la conexión de todos mis colegas, alguno de los cuales estaba online. Decidí ver qué tal le iba la vida, así que establecí videocon. Antes de eso conecté mi Tablet a la pantalla gigante de la habitación del hotel. De nuevo, fue suficiente con ordenar al sistema que se conectara a esa pantalla mientras la encendía. Por supuesto todo de forma inalámbrica, sin utilizar ni un solo cable.

Mientras estabamos de cháchara observé cómo un icono se iluminaba y parpadeaba en una pequeña zona de la gigantesca pantalla de la habitación. Llamada del jefe. Me disculpé durante unos minutos.

Como no tenía los auriculares a mano, utilicé los altavoces de la pantalla y el micro del dispositivo. El jefe quería que le echara un vistazo a un par de cortes realizados por el equipo de rodaje para que le diera mi opinión.

Nada más cortar la comunicación me dispuse a visualizarlos. El tema no estaba tan mal como me lo había pintado, pero tenía un par de comentarios que hacer al respecto.

Como los hiperarchivos guardaban gran cantidad de información asociada a un objeto, me resultó trivial establecer una videocon con el cámara del uno de los fragmentos en particular ya que su información de contacto estaba asociada al vídeo.

Tras una breve espera Raúl, el cámara, me contestó amablemente. Intuí que había solicitado información sobre mi persona a su sistema mientras la señal de llamada sonaba en su dispositivo. Al fin y al cabo ambos trabajabamos en el mismo proyecto y por tanto, en algún lugar del hiperarchivo del proyecto estaría la información sobre el personal participante.

La videocon de trabajo fue breve y productiva. Visualizamos un par de veces de forma sincronizada el vídeo en cuestión mientras dictábamos notas y añadíamos notas, gráficos y croquis asociados a fragmentos o fotogramas concretos del vídeo. Por supuesto, nuestros dispositivos se encargaban de generar un hiperarchivo con todo ese material que sería compartido automáticamente con aquellas personas que tuvieran permiso o necesidad de conocerlo. Nuestros sistemas extraerían ese flujo de trabajo del organigrama dinámico de nuestra empresa además de nuestras agendas personales.

En un momento determinado decidí que sería interesante que José Antonio, el Jefe de Comunicación de la empresa estuviera presente, así que le invité a conectarse.

Aunque se alojaba en mi mismo hotel, había salido a cenar y conectó con nosotros a través de su terminal telefónico. Bueno, estaría más restringido que nosotros, al menos en el plano visual. Los terminales telefónicos importaban casi todo la potencia, funcionalidad, y desde luego, modos de trabajo de los ordenadores modernos. De hecho no eran sino ordenadores ultraportables. Se disculpó un momento mientras preguntaba al camarero del restaurante si le permitiría utilizar durante unos minutos alguna pantalla. El camarero le acercó un Tablet de tamaño decente, aunque un poco baqueteado.

José Antonio conectó vídeo a la pantalla del Tablet prestado gracias a la que pudo apreciar los detalles sobre los que discutíamos. Trabajamos así durante diez minutos antes de despedirnos. Apenas una década antes ese mismo trabajo hubiera llevado horas, y no solo eso, sino que habría requerido la presencia física de los participantes.

Dí la orden verbal para comunicarme con el Jefe. Ni que decir tiene que el sistema sabía perfectamente con quién comunicarse. Tras acabar la conversación instruí al dispositivo para que me presentara al mundo como no_disponible y me pasara únicamente llamadas realmente urgentes. Tras haber trabajado con esa Memoria Jerárquica durante más de tres años, el modelo predictivo el sistema ya sabía lo que la palabra urgente significaba para mí.

Antes de dar por terminada mi sesión de trabajo solicité a mi Tablet que me recordara los asuntos personales pendientes que reclamarían mi atención durante los próximos días. Nada relevante salvo un cumpleaños de una amiga y... ¡vaya! otra visita al dentista para comprobar si ya era momento de desactivar la pasta de nanorreparadores que me había aplicado la semana anterior. Lo malo es que no podría acudir porque aún estaría de viaje.

Tras realizar la consabida búsqueda por voz de los datos de mi dentista actual, aún conservaba unos cuantos más, pero el sistema realizó una predicción correcta en función de la cantidad de accesos y las fechas de las visitas a los mismos, el sistema visualizó sus datos. No eran ni mucho menos horas de oficina, así que no me interesaba su teléfono, sino su URI, su dirección en la Red.

La realidad es que las empresas de software, comenzaron allá por el año 2008 a integrar funciones para trabajar con metadatos semánticos tanto en sus herramientas de autor, como en sus clientes de acceso a la por entonces llamada Internet y por supuesto en sus sistemas operativos y software intermedio. Así, una implementación parcial, pero funcional, de la Web Semántica subyacía a muchísimos servicios Red a finales de la década. [4]

Con la ayuda de la IA, etiquetar, añadir datos semánticos y buscar patrones para hacer búsquedas sobre los mismos, comenzó a realizarse de forma casi totalmente automática, lo que enriqueció tremendamente las páginas de hipervínculos y la flexibilidad de los servicios que éstas ofrecían a los usuarios.

Acudí directamente a la página de su consulta y busqué la opción de visitas. No vi nada que indicara que pudiera cambiar el día a una visita ya concertada. Tendría que cancelar la visita prevista y concertar otra de nuevo. Más trabajo para mi Tablet. Indiqué a mi dispositivo que hiciera la cancelación y oportuna consulta a mi agenda y a la del médico, exportada a través de su página en la Red, para una visita tan pronto como fuera posible.

El sueño me vencía y, puesto que ya había puesto orden a mis ideas y pergeñado el trabajo para el día siguiente, me dispuse a terminar el día.

Así que, ya en la cama, decidí solicitar el resumen de noticias de tv y radio que mi agregador de noticias había recogido para mí a lo largo del día. Lancé la aplicación sobre la pantalla grande y seleccioné los que me interesaban. Intuí que no podría manterme despierto por mucho más tiempo, así que tras 15 minutos de titulares, vídeo y audio, solicité un resumen breve que apenas fui capaz de digerir. Ordené al sistema que apagara la pantalla grande y que se pusiera en reposo. El dispositivo se durmió y el logo de mi 'Google-Sony' comenzó a emitir el leve brillo que indicaba su nuevo estado.

Los nanomateriales habían permitido la construcción de células de combustible muy capaces, la última generación de las cuales ya funcionaba con hidrógeno. Aunque mi viejo dispositivo, tenía ya un año y medio, aún se alimentaba con metanol resistía bastante bien el uso intensivo al que le sometía. Así, tras todo un día de uso, mi batería indicaba un 80% disponible. Suficiente para unos 4 días más de trabajo.

Antes de que mis ojos se cerraran definitivamente conseguí, a duras penas, extender el brazo para dejar mi asistente personal sobre la mesilla de noche.

El último pensamiento que acudió a mi mente antes de dormirme profundamente fue ... "al final, teníamos razón".


NOTAS:

[1] El usar la tan improbable joint venture 'Google-Sony' es una licencia que me he permitido sin más. Es probable que aquellos que hayáis leído Neuromante encontréis cierto paralelismo con la consola 'Ono Sendai' con la que el protagonista, Case, realiza sus incursiones en la Matriz. Habéis acertado. :-)

[2] Es probable que conozcáis la Ley de Moore, pero únicamente a modo de recordatorio expresa que el número de transistores, o lo que es lo mismo, la potencia y la capacidad de almacenamiento de los ordenadores, se duplica cada 18 meses. Se trata de una ley empírica que Gordon E. Moore formuló en 1965. Ha venido cumpliéndose desde su enunciado hasta nuestros días.

La Ley de Metcalfe enuncia que el valor de una red de telecomunicaciones es proporcional al cuadrado del número de usuarios del sistema.

[3] Es cierto que hasta hace bien poco no existía ningún modelo computacional serio y completo sobre el funcionamiento del cerebro. El simple hecho acumular más neuronas virtuales a las ya existentes redes neuronales no proporciona un salto cualitativo a las aplicaciones que implementan.

Para un repaso general y ameno al estado actual de la Inteligencia Artificial, podéis leer los siguientes artículos:

(a) http://pablo-rojas.blogspot.com/2006/03/inteligencia-artificial-de-hal-hasta.html
(b) http://pablo-rojas.blogspot.com/2006/04/inteligencia-artificial-de.html
(c) http://pablo-rojas.blogspot.com/2006/04/inteligencia-artificial-al-filo-de-la.html

En su magnífico libro 'On Intelligence', Jeff Hawkins, creador de las primeras agendas electrónicas, las famosas Palm Pilot, narra como invirtió gran parte de su fortuna personal en poner en marcha el RedWood Neuroscience Institute, dedicado al ambicioso proyecto de conseguir una definición precisa y lo más contrastada posible del un modelo de funcionamiento del cerebro humano.

En su página Web, www.onintelligence.com podéis suscribiros al newsletter. Hace tan solo un par de meses, el equipo del RNI envió un white paper con la descripción de una aplicación práctica de sus teorías, las Memorias Jerárquicas Autoasociativas.

Dicho documento técnico reposa ahora sobre mi mesita de noche y he de confesar que ha influenciado en gran medida la redacción de este pequeño artículo. Muchos técnicos, entre los que me incluyo, tenemos grandes esperanzas sobre este nuevo modelo y las implementaciones del mismo.

[4] El inventor de la Web, Tim Berners-Lee, dedica actualmente su trabajo en definir y crear herramientas para lo que será la futura Web Semántica. Los beneficios de utilizar lenguajes de definición de datos en los objetos publicados en la Web abrirán las puertas a nuevas aplicaciones en el futuro cercano. La página del Blog de Tim Berners-Lee es http://dig.csail.mit.edu/breadcrumbs/blog/4