martes, julio 04, 2006

Sueños de Interfaz

Llegué al hotel exhausto. La jornada había sido dura. Me dejé caer sobre la cama y dejé mi bolsa sobre la mesa.

Con los ojos entrecerrados por el cansancio y un incipiente dolor de cabeza hice un rápido repaso a los acontecimientos del día. El rodaje del spot promocional había transcurrido sin incidencias. Había que tener un millón de detalles presentes para que todo discurriera según el plan general de comunicación, fruto del intenso trabajo de tres personas durante un mes.

Me daba mucha pereza, pero sabía que tenía que preparar y organizar el trabajo para el día siguiente que, a tenor de lo visto, también iba a resultar movidito. Mi sentido arácnido, también llamado veteranía, me decía que de no hacerlo me encontraría con sorpresas desagradables.

Me di una ducha y aunque apenas tenía apetito, me obligué a pedir algo al servicio de habitaciones.

Tras descansar unos minutos cogí la bolsa y retiré la protección de mi Tablet.

Acaricié el logo de mi querido Google-Sony [1] para devolverlo a la vida. Recordé con nostalgia la década del 2.000 en que mi amigo Oscar y yo especulábamos sobre la posibilidad de que alguna de las grandes multinacionales creara dispositivos que rompieran los moldes de la informática de la época, que acabara con el paradigma de interfaz de usuario vigente.

Cada vez más rápidos, cada vez más pequeños, con mayores capacidades de comunicación, pero en esencia, los ordenadores no hacían nada nuevo, o al menos esa era la sensación de los sufridos usuarios que seguían usando sus teclados y ratones para manejar un mundo virtual regido por escritorios, iconos, incompatibilidades y complejas aplicaciones.

Así era. En aquellos días, nos resultaba increíble que los usuarios no demandaran herramientas más versátiles y productivas, que se adecuaran mejor al uso cotidiano real y con las que no hubiera que luchar continuamente.

Más increíble aún resultaba el hecho de que las compañías no ofertaran productos realmente novedosos para hacerse con nuevos mercados, tal como hizo Apple en su día, primero con el mercado de la música y luego con la distribución del Séptimo Arte a través de la Red,... quien da primero, da dos veces.

Sin embargo, la informática había llegado a un punto de inflexión, a un excedente acumulado de capacidad de almacenamiento y proceso que a la postre se resultó el detonador del siguiente gran cambio.

La continua disminución del coste de los dispositivos permitió que a finales de la década la tecnología de las telecomunicaciones y la informática se introdujera en las vidas de las personas.

La mayoría de las personas poseía móviles de tercera generación, agendas electrónicas, potentísimos ordenadores de sobremesa o, en muchos otros casos, equipos ultraportátiles proporcionados por la empresa para dar movilidad a sus empleados. Incluso los habitantes del tercer mundo, especialmente aquellos en edad escolar, se habían pertrechado con toda una generación de portátiles económicos y dispositivo de acceso a la Red que permitirían un tanto la barrera socioeconómica que le separaba del mundo industrializado.

Tras un par de segundos mi equipo mostró su habitual conjunto de menús e iconos en forma de nube probabilística. No pude dejar de pensar lo distinto que resultaba al clásico escritorio de la antiguas generaciones de Sistemas Operativos. El cambio había sido tan profundo que, excepto para los Ingenieros TIC, la jerga informática había quedado atrás.

Los nuevos sistemas disponían al usuario en el centro del sistema, y todo orbitaba alrededor de ese concepto y en la forma en que los nuevos dispositivos ayudaban a realizar las tareas solicitadas abstrayendo al usuario de las complejidades ligadas al funcionamiento interno de las máquinas. Hacía muchos años que eso se había conseguido con los coches, simplemente le había llegado el turno a los ordenadores.

Recordé lo desconcertante que resultaba para un técnico como yo trabajar de esta forma durante los primeros días, el rechazo que supuso en algunos sectores su adopción como estándar y la agradable sensación que producía el asumir que te habías adaptado y no había vuelta atrás.

Era como cuando pruebas uno de esos nuevos Mercedes con pilas de combustible de hidrógeno y navegación automática. Puedes seguir conduciendo tu vieja cafetera, pero ya nunca será lo mismo.

Las Leyes de Moore y Metcalfe [2] habían allanado el camino: miniaturización, potencia, bajo consumo y conectividad total entre dispositivos y redes. La Inteligencia Artificial (IA) había hecho el resto.

Durante décadas, la IA había quedado relegada al ámbito de los laboratorios de investigación. Únicamente había comenzado a hacer discretas apariciones en el mercado a partir del momento en que las redes neuronales alcanzaran la madurez y aunque por aquél entonces resultaran útiles, su aplicación era limitada en la práctica.

Que una cámara de vídeo diferenciara los movimientos intencionados de aquellos debidos al mal pulso del usuario, que una alarma anti-incendios no confundiera el ambiente
cargado de humo de una estancia llena de fumadores con un incendio real, o que un sistema de vigilancia reconociera cuándo ocurría un movimiento sospechoso fuera de horas de oficina, constituían aplicaciones útiles e interesantes, pero limitadas y desde luego, muy alejadas de la comprensión del lenguaje o el reconocimiento dinámico de personas y objetos.

Resultaba imposible crear Inteligencia Artificial sin un modelo que describiese el funcionamiento del cerebro humano. [3]

Una vez se alcanzó este hito, considerado como histórico por muchos, las aplicaciones reales de la IA se sucedieron con gran rapidez. El desarrollo de las Memorias Jerárquicas Autoasociativas y los Motores Predictivos, que implementaban el modelo que simulaba la forma en que trabaja el cerebro humano, resultó el espaldarazo definitivo para la aparición de aplicaciones realmente novedosas.

Por supuesto, el sentido común también jugó un papel importante en todo este proceso de cambio de paradigma. Se habían acabado imponiendo los estándares abiertos como la mejor forma de conseguir interconectividad real entre sistemas.

Muchos argumentarían, que aunque no se hubiera alcanzado consenso y la guerra de estándares hubiera continuado como ocurrió en décadas anteriores, los Motores Predictivos hubieran establecido patrones y puntos de unión entre distintos formatos dando así solución automática al viejo problema de la interoperabilidad.

Cierto, pero una pérdida de energía, de cómputo, pero pérdida de todas formas. Ahora las compañías se concentraban en conseguir ampliar el sensorio de sus sistemas de Memoria Jerárquica y Motores de Predicción. Dicho de otro modo, las compañías que desarrollaban estos productos se especilizaban en cierto tipo de entrada de datos y tratamiento de los mismos.

Así, mientras ciertas empresas se especializaban en desarrollar Motores Predictivos que permitían que un dispositivo comprendiera con precisión el lenguaje hablado, otras lo hacían en el sensorio proveniente de satélites, sondas y estaciones meteorológicas, permitiendo que sus sistemas comprendieran los cambios meteorológicos de forma sorprendentemente precisa.

La interfaz de mi dispositivo era muy configurable pero yo prefería trabajar con el comportamiento por defecto, la predicción automática.

El sistema aprendía qué acciones necesitaba realizar en un momento determinado en función de varios parámetros, que internamente habían sido modelados y conceptualizados como 'modos de trabajo'.

Un sencillo menú presentó ante mí una serie de opciones complejas que internamente requerirían la interacción de varias aplicaciones del sistema. Tal como sucede con la mayoría de los sistemas vivos, como las colonias de insectos, e incluso con los asentamientos humanos y el crecimiento de las grandes ciudades, la emergencia aparece en los sistemas informáticos cuando el número de participantes es suficientemente elevado y el entorno lo posibilita.

Trabajar con este tipo de dispositivos era como tener un asistente personal, o para ser más precisos, como si un Pepito Grillo te recordara qué tienes que hacer y en la mayoría de los casos, cómo hacerlo.

Aunque la mayoría de las veces se asociaba el concepto de asistente personal al nuevo paradigma de informática orientada al usuario, internamente, estos sistemas trabajaban repartiendo el trabajo entre una miríada de pequeñas aplicaciones especializadas en ciertas funciones. Con el tiempo aparecía la emergencia, es decir, aparecían comportamientos no programados que resultaban en mejoras sustanciales en el comportamiento general del sistema.

Seleccioné la creación de un informe automático. El sistema me presentó en paralelo, la lista de mensajes enviados/recibidos, ordenadas por fecha y hora, las anotaciones de texto y las transcripciones de voz de los últimos 7 días.

De entre todas me interesaban las del día, así que las obtuve con un simple comando hablado 'filtra hoy'. Utilicé el lápiz apuntador para convertir algunas de ellas en entradas de mi agenda asignándoles fechas y horas adecuadas. Por supuesto esta agenda estaba replicada en mi hiperarchivo personal en la Red, algo así como las antiguas páginas Web pero mucho más capaz y versátil. Disponer la información personal en la Red permitía que los usuarios dispusiéramos de ella en cualquier momento y desde cualquier dispositivo de forma transparente.

Seleccioné las transcripciones de las incidencias más importantes y compuse el informe inteligente con otra orden verbal.

Mientras realizaba estas tareas, mi Tablet ya se había conectado a la Red inalámbrica a la que estaba suscrito. Como no viajaba mucho al extranjero no necesitaba servicio de 'roaming' entre redes, así que había terminado contratando una tarifa económica en una de las más de 15 operadoras de nuestro país. Suficiente para disponer de cobertura inalámbrica nacional a 100Mbps. Las conexiones realmente rápidas solían ser contratadas por empresas.

Gracias a Dios, ya no se hacía distinción entre voz y datos, así que en el momento de la contratación solo tuve que decidir velocidad, cobertura y, opcionalmente, un dispositivo para trabajar.

Descendiente directo de una generación de recolectores/coleccionistas de dispositivos e información, no había conseguido desintoxicarme de dichas prácticas. Como resultado yo era uno de esos bichos raros que en lugar de alquilar el equipo de conexión, había optado por comprarse uno. No es que resultaran especialmente caros, pero resultaba una estupidez debido a la elevada obsolescencia de la microelectrónica y a lo extendido del servicio de arrendamiento entre las teleoperadoras.

Los datos se trataban con tal nivel de confidencialidad que cualquiera podía cambiar de compañía de telco llevándose todos los datos que hubieran estado en tránsito en el dispositivo, así como el conjunto de predicciones aprendidas por el sistema, o dicho de otra forma, la personalidad de tu asistente.

Lo de llevarse es un eufemismo, claro. Los datos se alojaban en el ciberespacio, sin importar la ubicación geográfica final.

Los sistemas de archivos locales no eran sino meras memorias temporales intermedias que gracias a una gestión inteligente.

De esta forma desapareció la necesidad de disponer de los datos aquí o allí, ya que estaban siempre disponibles en la Red siempre que se tuviera acceso a la misma, o lo que es lo mismo, siempre. Huelga explicar cómo floreció y creció una poderosa industria de servicios que, al amparo de este modo de trabajo distribuido, hacían la vida más cómoda a los usuarios.

Toda la información viajaba cifrada según una clave del dispositivo y una personal e intransferible proveniente del propio circuito de identificación por radiofrecuencia incluído en el carné de identidad de cada individuo. Aunque no resultaba necesario, los más paranoicos complementaban el cifrado con alguna otra clave de procedencia biométrica ,lo que daba a la información carácter de absolutamente indescifrable.

Así, cuando mi dispositivo se conectó a través del proveedor de acceso, entabló negociación de cifrado y accedió, entre otras muchas cosas, a los mensajes y la información relevante de mis subordinados, a las que por supuesto estaba suscrito.

El sistema lo indicó con un pequeño icono parpadeante. Les eché un vistazo para darme cuenta de que, exceptuando un par de notas, las demás eran poco interesantes. "Seleccionando", dije y toqué suavemente con la yema del dedo aquellas notas y mensajes que consideré relevantes sobre la pantalla. Por último, regeneré el informe con otra orden verbal para que reflejara la inclusión de esta última selección.

Las nanopartículas de aluminio incrustadas en la pantalla semirígida conseguían, además de una regulación perfecta de la intensidad y brillo en función de la luz ambiente, que no se ensuciara por mucho que la tocaras con los dedos. Tocar esas pantallas resultaba un tanto extraño, algo así como tocar algún objeto frío y ligeramente húmedo, aunque realmente estaba a temperatura ambiente y seco.

El informe inteligente se creó en segundo plano utilizando mi plantilla por defecto, tal como estaba aleccionado. Sin duda necesitaría intervención, pues el resultado solía ser demasiado aséptico, pero eso lo dejaría para el día siguiente y lo haría con el teclado. No me inspiro igual usando el teclado que al dictado.

Es cierto que las nuevas generaciones ya casi no usaban teclado, sino gestos en pantalla y voz, pero los viejos dinosaurios habíamos trabajado con teclado más de 20 años y eso te condiciona.

Lancé un comando 'conecta teclado' mientras recogía el teclado inalámbrico que había junto a la pantalla de proyección de la habitación, pero no funcionó.

Al parecer mi asistente estaba intentando asociarse con otro teclado, el que solía usar a diario, que en esos instantes descansaba enrollado en mi pequeña bolsa de trabajo.

La flexibilidad del sistema evitó que tuviera que levantarme a por la bolsa. Bastó con un simple 'conecta este teclado' mientras pulsaba algunas teclas. El sistema lo encontró de inmediato. Ni siquiera había leído esa opción en el manual, pero era bastante intuitivo y funcional.

No en vano se había realizado un gran esfuerzo para lograr que los nuevos interfaces resultaran mucho más humanos pese a su incapacidad de ver, oir o entender como los humanos. El interfaz esperaba algún tipo de señal, cualquiera, por mi parte para identificar el teclado al que hacía referencia. Sus ojos y oídos eran sus fuentes de datos.

Una de las notas era un chiste graciosísimo que contó Fer durante la comida. Por suerte había enviado el audio. Aunque realmente casi toda la información se enviaba empaquetada, cifrada y con metadatos que describían de qué se trataba cuál era el origen y el destino, etc. De esa forma los mensajes podían enviarse a cualquier dispositivo, como ordenadores o teléfonos móviles sin distinguir entre formatos ni dispositivos.

Los mensajes, de cualquier tipo ya que no se distinguía formato, ni protocolo, ni dispositivo origen, no eran gestionados con una aplicación de correo electrónico del modo en que se realizaba en la era del Escritorio, sino que su gestión estaba directamente ligada al propio sistema operativo y estrechamente ligado a los metadatos que viajaban con el mensaje en cuestión. Eran estos metadatos los que describían qué contenían los datos, algo así como un etiquetado semántico que permitía que los ordenadores se adaptaran un poco mejor a la forma en que lo hacían los humanos.

Seleccioné el audio y ordené la transcripción y publicación en la sección humor de mi blog usando otro comando de voz. Por supuesto, el sistema me desplegó mi lista personal de blogs, webs e hiperarchivos. Solamente tuve que seleccionar dónde enviarlo, tarea que requirió un par de toques con el dedo y dictado de un pequeño texto descriptivo que decía 'El chiste del día...'.

Como al día siguiente tenía que desplazarme a un lugar que no conocía, busqué entre mis datos la dirección en cuestión, la seleccioné y solicité al sistema la ruta entre el dispositivo, que contaba con geolocalización, y el destino.

La aplicación era suficientemente inteligente para buscar primero de forma local en el histórico y en los mapas locales y, caso de no encontrarla, confeccionar una búsqueda usando XML para conectarse a servicios de localización gratuitos o mediante suscripción a través de internet.

Ordené al sistema que memorizara la ruta para tenerla 'a mano' el día siguiente.

La aplicación de comunicaciones mostraba el estado de la conexión de todos mis colegas, alguno de los cuales estaba online. Decidí ver qué tal le iba la vida, así que establecí videocon. Antes de eso conecté mi Tablet a la pantalla gigante de la habitación del hotel. De nuevo, fue suficiente con ordenar al sistema que se conectara a esa pantalla mientras la encendía. Por supuesto todo de forma inalámbrica, sin utilizar ni un solo cable.

Mientras estabamos de cháchara observé cómo un icono se iluminaba y parpadeaba en una pequeña zona de la gigantesca pantalla de la habitación. Llamada del jefe. Me disculpé durante unos minutos.

Como no tenía los auriculares a mano, utilicé los altavoces de la pantalla y el micro del dispositivo. El jefe quería que le echara un vistazo a un par de cortes realizados por el equipo de rodaje para que le diera mi opinión.

Nada más cortar la comunicación me dispuse a visualizarlos. El tema no estaba tan mal como me lo había pintado, pero tenía un par de comentarios que hacer al respecto.

Como los hiperarchivos guardaban gran cantidad de información asociada a un objeto, me resultó trivial establecer una videocon con el cámara del uno de los fragmentos en particular ya que su información de contacto estaba asociada al vídeo.

Tras una breve espera Raúl, el cámara, me contestó amablemente. Intuí que había solicitado información sobre mi persona a su sistema mientras la señal de llamada sonaba en su dispositivo. Al fin y al cabo ambos trabajabamos en el mismo proyecto y por tanto, en algún lugar del hiperarchivo del proyecto estaría la información sobre el personal participante.

La videocon de trabajo fue breve y productiva. Visualizamos un par de veces de forma sincronizada el vídeo en cuestión mientras dictábamos notas y añadíamos notas, gráficos y croquis asociados a fragmentos o fotogramas concretos del vídeo. Por supuesto, nuestros dispositivos se encargaban de generar un hiperarchivo con todo ese material que sería compartido automáticamente con aquellas personas que tuvieran permiso o necesidad de conocerlo. Nuestros sistemas extraerían ese flujo de trabajo del organigrama dinámico de nuestra empresa además de nuestras agendas personales.

En un momento determinado decidí que sería interesante que José Antonio, el Jefe de Comunicación de la empresa estuviera presente, así que le invité a conectarse.

Aunque se alojaba en mi mismo hotel, había salido a cenar y conectó con nosotros a través de su terminal telefónico. Bueno, estaría más restringido que nosotros, al menos en el plano visual. Los terminales telefónicos importaban casi todo la potencia, funcionalidad, y desde luego, modos de trabajo de los ordenadores modernos. De hecho no eran sino ordenadores ultraportables. Se disculpó un momento mientras preguntaba al camarero del restaurante si le permitiría utilizar durante unos minutos alguna pantalla. El camarero le acercó un Tablet de tamaño decente, aunque un poco baqueteado.

José Antonio conectó vídeo a la pantalla del Tablet prestado gracias a la que pudo apreciar los detalles sobre los que discutíamos. Trabajamos así durante diez minutos antes de despedirnos. Apenas una década antes ese mismo trabajo hubiera llevado horas, y no solo eso, sino que habría requerido la presencia física de los participantes.

Dí la orden verbal para comunicarme con el Jefe. Ni que decir tiene que el sistema sabía perfectamente con quién comunicarse. Tras acabar la conversación instruí al dispositivo para que me presentara al mundo como no_disponible y me pasara únicamente llamadas realmente urgentes. Tras haber trabajado con esa Memoria Jerárquica durante más de tres años, el modelo predictivo el sistema ya sabía lo que la palabra urgente significaba para mí.

Antes de dar por terminada mi sesión de trabajo solicité a mi Tablet que me recordara los asuntos personales pendientes que reclamarían mi atención durante los próximos días. Nada relevante salvo un cumpleaños de una amiga y... ¡vaya! otra visita al dentista para comprobar si ya era momento de desactivar la pasta de nanorreparadores que me había aplicado la semana anterior. Lo malo es que no podría acudir porque aún estaría de viaje.

Tras realizar la consabida búsqueda por voz de los datos de mi dentista actual, aún conservaba unos cuantos más, pero el sistema realizó una predicción correcta en función de la cantidad de accesos y las fechas de las visitas a los mismos, el sistema visualizó sus datos. No eran ni mucho menos horas de oficina, así que no me interesaba su teléfono, sino su URI, su dirección en la Red.

La realidad es que las empresas de software, comenzaron allá por el año 2008 a integrar funciones para trabajar con metadatos semánticos tanto en sus herramientas de autor, como en sus clientes de acceso a la por entonces llamada Internet y por supuesto en sus sistemas operativos y software intermedio. Así, una implementación parcial, pero funcional, de la Web Semántica subyacía a muchísimos servicios Red a finales de la década. [4]

Con la ayuda de la IA, etiquetar, añadir datos semánticos y buscar patrones para hacer búsquedas sobre los mismos, comenzó a realizarse de forma casi totalmente automática, lo que enriqueció tremendamente las páginas de hipervínculos y la flexibilidad de los servicios que éstas ofrecían a los usuarios.

Acudí directamente a la página de su consulta y busqué la opción de visitas. No vi nada que indicara que pudiera cambiar el día a una visita ya concertada. Tendría que cancelar la visita prevista y concertar otra de nuevo. Más trabajo para mi Tablet. Indiqué a mi dispositivo que hiciera la cancelación y oportuna consulta a mi agenda y a la del médico, exportada a través de su página en la Red, para una visita tan pronto como fuera posible.

El sueño me vencía y, puesto que ya había puesto orden a mis ideas y pergeñado el trabajo para el día siguiente, me dispuse a terminar el día.

Así que, ya en la cama, decidí solicitar el resumen de noticias de tv y radio que mi agregador de noticias había recogido para mí a lo largo del día. Lancé la aplicación sobre la pantalla grande y seleccioné los que me interesaban. Intuí que no podría manterme despierto por mucho más tiempo, así que tras 15 minutos de titulares, vídeo y audio, solicité un resumen breve que apenas fui capaz de digerir. Ordené al sistema que apagara la pantalla grande y que se pusiera en reposo. El dispositivo se durmió y el logo de mi 'Google-Sony' comenzó a emitir el leve brillo que indicaba su nuevo estado.

Los nanomateriales habían permitido la construcción de células de combustible muy capaces, la última generación de las cuales ya funcionaba con hidrógeno. Aunque mi viejo dispositivo, tenía ya un año y medio, aún se alimentaba con metanol resistía bastante bien el uso intensivo al que le sometía. Así, tras todo un día de uso, mi batería indicaba un 80% disponible. Suficiente para unos 4 días más de trabajo.

Antes de que mis ojos se cerraran definitivamente conseguí, a duras penas, extender el brazo para dejar mi asistente personal sobre la mesilla de noche.

El último pensamiento que acudió a mi mente antes de dormirme profundamente fue ... "al final, teníamos razón".


NOTAS:

[1] El usar la tan improbable joint venture 'Google-Sony' es una licencia que me he permitido sin más. Es probable que aquellos que hayáis leído Neuromante encontréis cierto paralelismo con la consola 'Ono Sendai' con la que el protagonista, Case, realiza sus incursiones en la Matriz. Habéis acertado. :-)

[2] Es probable que conozcáis la Ley de Moore, pero únicamente a modo de recordatorio expresa que el número de transistores, o lo que es lo mismo, la potencia y la capacidad de almacenamiento de los ordenadores, se duplica cada 18 meses. Se trata de una ley empírica que Gordon E. Moore formuló en 1965. Ha venido cumpliéndose desde su enunciado hasta nuestros días.

La Ley de Metcalfe enuncia que el valor de una red de telecomunicaciones es proporcional al cuadrado del número de usuarios del sistema.

[3] Es cierto que hasta hace bien poco no existía ningún modelo computacional serio y completo sobre el funcionamiento del cerebro. El simple hecho acumular más neuronas virtuales a las ya existentes redes neuronales no proporciona un salto cualitativo a las aplicaciones que implementan.

Para un repaso general y ameno al estado actual de la Inteligencia Artificial, podéis leer los siguientes artículos:

(a) http://pablo-rojas.blogspot.com/2006/03/inteligencia-artificial-de-hal-hasta.html
(b) http://pablo-rojas.blogspot.com/2006/04/inteligencia-artificial-de.html
(c) http://pablo-rojas.blogspot.com/2006/04/inteligencia-artificial-al-filo-de-la.html

En su magnífico libro 'On Intelligence', Jeff Hawkins, creador de las primeras agendas electrónicas, las famosas Palm Pilot, narra como invirtió gran parte de su fortuna personal en poner en marcha el RedWood Neuroscience Institute, dedicado al ambicioso proyecto de conseguir una definición precisa y lo más contrastada posible del un modelo de funcionamiento del cerebro humano.

En su página Web, www.onintelligence.com podéis suscribiros al newsletter. Hace tan solo un par de meses, el equipo del RNI envió un white paper con la descripción de una aplicación práctica de sus teorías, las Memorias Jerárquicas Autoasociativas.

Dicho documento técnico reposa ahora sobre mi mesita de noche y he de confesar que ha influenciado en gran medida la redacción de este pequeño artículo. Muchos técnicos, entre los que me incluyo, tenemos grandes esperanzas sobre este nuevo modelo y las implementaciones del mismo.

[4] El inventor de la Web, Tim Berners-Lee, dedica actualmente su trabajo en definir y crear herramientas para lo que será la futura Web Semántica. Los beneficios de utilizar lenguajes de definición de datos en los objetos publicados en la Web abrirán las puertas a nuevas aplicaciones en el futuro cercano. La página del Blog de Tim Berners-Lee es http://dig.csail.mit.edu/breadcrumbs/blog/4

1 comentario:

Anónimo dijo...

Eh, buena historia y bien contada.