e-Tutorial a la carte

27 03 2007

La idea original es de Qath, pero me he interesado en el tema. La idea? Generación dinámica de tutoriales online. Como? Más o menos así:

  1. Un agente recorre (crawls) la web o los buscadores populares buscando palabras claves (tutorial, curso, etc,).
  2. Un segundo agente cataloga los tutoriales encontrados por el crawler según una ontología predefinida. Creando así una base de conocimiento.
  3. El usuario construye (con la ayuda de una aplicación Web) un índice (los temas que le interesan).
  4. Los puntos del índice se mapean a las clases de de la ontología.
  5. En base a eso se publica un Tutorial A La Carta para el usuario usando algun CMS o LMS.

Claro, más fácil decirlo que hacerlo y por supuesto que los tutoriales generados no van a ser perfectos, pero si se aplica algún agente de aprendizaje (en base a redes neuronales o similar) entonces podemos suponer que con el tiempo los tutoriales generados sean más “perfectos”.

Para entenar al agente es indispensable la interacción humana, es aqui donde la idea se vuelve interesante. The Web to the People! Se puede aplicar un modelo de red social al estilo Digg o Menéame, en el cuál los usuarios califiquen los tutoriales generados, es decir, al generarse un e-Tutorial, este se publica mediante RSS, otros usuarios lo ven y califican su contenido. Esto serviria como un feedback constante al agente de aprendizaje, los mejores tutoriales sobrevivirían y los malos desaparecerán de la base de conocimiento.

El agente encargado de crear la base de conocimiento tendria q parsear el tutorial obtenido por secciones de modo que los tutoriales creados sean una mezcla de tutoriales completos. La idea es sencilla (no fácil) y su implementación requiere gran trabajo, esperemos que Qath lo deje suficientemente avanzado para que otros puedan retomarlo y completarlo.

etutorial.png

Anuncios




Aumentando SCMS

31 07 2006

SCMS (Semantic CMS) se basa en una premisa fundamental: Cada Esquema de Contenido (Tipo de Contenido) se refiere a un área de conocimiento especifico. Es decir, nuestra base de conocimiento sera la suma de cada dominio específico del CMS. Las búsquedas inteligentes son, en principio, únicamente para los dominios del SCMS. Dicho eso, podemos ampliar dicho conocimiento, es decir expander cada dominio de forma semi-automática mediante el uso de agentes inteligentes. La idea es tener agentes que busquen en sitios conocidos para ampliar la información que se ha agregado al CMS y que automaticamente agregue anotaciones semánticas sobre dicha información.

Ah si, adjunto un esquemita:

Gestor de Contenidos Semántico





CMS Semantico

14 07 2006

Ayer comence un nuevo proyecto: Construir un Gestor de Contenidos Semántico la idea me venia dando vueltas desde hace ya un tiempo asi que comence ayer. Hoy me he decidido que hay varias propuestas de lo mismo pero nada claro. Esto es lo que estoy utilizando:

Ingredientes:

  1. Un framework en Java para crear CMSs: Lenya
  2. Un framework en Java para la Web Semántica (crear ontologias y un motor de inferencia): Jena
  3.  Uno o varios Agentes Inteligentes: No me he decidido si me lo creo personalizado o utilizo un API como el de Agglets.

Concepto:
Lenya provee los modulos necesarios para la gestión de contenidos (autenticación, publicación, edición, gestion de permisos, etc.). Para búsqueda Lenya (y todos los demás) utiliza un agente de búsqueda en seste caso Lucene. Sin embargo, dichos agentes de búsqueda no hacen sino una categorización binaria, para la Web Semántica (Web 2.0) necesitamos crear Ontologias, al tratarse de un CMS, los dominios de conocimiento para tales ontologias serán las páginas del sitio Web creadas y editadas. Por tanto no es necesario, tener un agente inteligente que navegue por toda la Web, pero no estaria mal que el agente aumente el conocimiento del Sitio a traves de la Web. Si es necesario en cambio, un agente construya una Base de Conocimiento a partir de dichas ontologías. Por último, se necesita de un Motor de Inferencia que nos permita realizar consultas en lenguaje natural y que el sistema interprete la consulta y nos devuelva respuestas válidas. (Para más información sobre este tema referirse a Wikipedia 3.0: El fin de Google).

Para armar dicha base de Conocimiento (y por tanto las ontologías) utilizaré OWL que es, básicamente, un lenguaje XML para Ontologías. Dado que la base de conocimiento esta en XML, resulta muy conveniente que el conocimiento (contenido del sitio Web) esté tambien en XML, de aqui que Lenya sea mi elección ya que guarda todo el contenido en XML y no en esquemas propietarios de bases de datos. Jena provee un API de OWL para Java así como tambien un motor para SPARQL. Lenya debe ser capaz de comunicarse bastante bien con Jena ya que tambien es un API Java y al basarse en Cocoon, permite hacer todo tipo de transformaciones XSLT, de forma que todas las piezas encajan perfectamente.

La integración de todo el sistema es básicamente remplazar las búsquedas de Lucene por consultas de SAPRQL a la Base de Conocimiento creada por un agente a partir de las ontologias formadas sobre cada página del sitio.

Ire informando del avance de este proyecto.





El fin de Google

13 07 2006

El fin de Google es un artículo interesante que sirve como:

  1. Introducción a la Web Semántica (Web 3.0)
  2. Intoducción a los Agentes Inteligentes de Internet (info-agents)
  3. Propone brillantemente una forma de acelerar el surgimiento de un Cerebro Global

Pero a la vez es más que eso… es un experimento social en internet sobre el comportamiento de las masas. La historia detrás del articulo original tiene que ver con Digg, el autor Marc Fawzi, publicó el articulo “Reality as a Service (RaaS): The Case for GWorld” en el servicio digg obteniendo apenas un par de comentarios y una aceptación más bien baja del articulo. Luego publicó un segundo artículo titulado “Wikipedia 3.0: El fin de Google” que es ni mas ni menos que el mismo articulo que RaaS obteniendo más de 33,000 lectores en las primeras 24 horas de su publicación. ¿El mismo? Bueno, no exactamente, habia una diferencia crucial… el título sensacionalista.





Analisis de Blogs para Inteligencia (Web USNAV 3.0)

6 07 2006

Los gringos estan trabajando en una especie de Agente Inteligente Semantico (basado en Ontologias) para navegar a traves de los millones de Blogs del planeta para intentar descubrir informacion relevante, confiable y (lo mejor de todo) actual/reciente que les pueda ayudar en su “guerra contra el terror”.

Este proyecto es factible si se cuenta con una buena ontologia (es decir, una para cada idioma) que describa fielmente lo que es “informacion relevante”. Al principio me sono como una buena idea hasta que descubri que para lograrlo piensan invertir $US450,000 en un nuevo enfoque radical: contar el numero de links que apuntan a cada fuente. (Insertar ironia aqui).





Todo tiene una antitesis

6 07 2006

Con respecto a la entrada anterior sobre Google, tambien existe una tesis que predice la “caida” de google. Se basa en la Web Semantica (Web 3.0) y en su poder para deducir (o inducir) respuestas, en lugar de simplemente buscar palabras claves. El problema (aparte de los obstaculos técnicos) esta en que recolectar y clasificar (categorizar) dicha información es un esfuerzo que requiere de miles de personas trabajando por mucho tiempo. El post Wikipedia 3.0: The End of Google (traducción al español) propone que la inmensa base de datos de Wikipedia junto con sus miles de colaboradores voluntarios son la respuesta al problema recien planteado, suponiendo que se les provea con las herramientas adecuadas.

Todo esto me recuerda un poco a lo que filososfos naturales (lo que hoy en dia llamariamos simplemente cientificos) como John Wilkins hacian a mediados de los 1600s, o sea, varias personas con altos conocimientos categorizando el conocimiento humano y trasladandolo a un lenguaje universal.