Agentes racionales “acotados”: dispositivos “listos” y gestión débil del conocimiento

Asistente del openofficeEn el proyecto en el que estamos embarcados hemos tomado una decisión transcendental: hemos agentificado diversos módulos importantes del sistema. Es una decisión arriesgada, inusual en proyectos Web 2.0 (e incluso en la Web Semántica), pues apostamos por una nueva tecnología de Inteligencia Artificial, y, en principio, parece innecesaria para nuestro proyecto. Delegar cierta parte de la gestión del conocimiento en un sistema de agentes racionales (SAR) es un desafío apasionante que nos obligará a investigar, innovar y no limitarse a desarrollar. Personalmente, creo que va a funcionar.
La decisión se basa en una serie de razones a favor (aunque también tiene algunas desventajas) que, como es habitual en este blog, enumero:

  • Agentificar parte de nuestro proyecto ha clarificado enormemente la arquitectura del sistema. De hecho, un simple análisis de los tipos de agentes nos ha llevado a conocer su ubicación, y la arquitectura social del SAR.
  • Delegar la gestión de cierto tipo de conocimiento en agentes nos ha inducido a pensar en interesantes cuestiones relativas a cómo debemos acotar el carácter deliberativo del agente. Obtener y trabajar con SAR “acotados” es algo habitual, lo que es relativamente nuevo es su aplicación intensiva en el campo de la Web Semántica.
  • Nos ha sugerido la necesidad de elaborar una teoría de agentes gestores de conocimiento, en el caso en el que la complejidad del conocimiento es escasa. Serán listos (smarts) y virtualizarán un dispositivo accesible por humanos.
  • Se ha clarificado enormemente la arquitectura social híbrida (humanos y agentes) del sistema, sus dependencias y la conciliación de sus comportamientos.

Ahora, las dificultades (para las que parece que ya hemos encontrado soluciones):

  • La monitorización de los recursos utilizados es muy difícil, debido a la autonomía de los agentes.
  • Precisamente, la propia autonomía de ciertos grupos de agentes puede comprometer la seguridad del sistema.
  • La teoría que debemos diseñar no debe ser sólo implementable, tiene que serlo  muy eficientemente.
  • La escalabilidad estaría comprometida si la cuestión anterior no está bien resuelta, pero también si la plataforma no soporta bien una población de agentes activos muy grande. La forma de solucionarlo depende de la adecuación lógico-computacional de la teoría de gestión de conocimiento, y el uso de varios contenedores.
Anuncios