e-Tutorial a la carte

27 03 2007

La idea original es de Qath, pero me he interesado en el tema. La idea? Generación dinámica de tutoriales online. Como? Más o menos así:

  1. Un agente recorre (crawls) la web o los buscadores populares buscando palabras claves (tutorial, curso, etc,).
  2. Un segundo agente cataloga los tutoriales encontrados por el crawler según una ontología predefinida. Creando así una base de conocimiento.
  3. El usuario construye (con la ayuda de una aplicación Web) un índice (los temas que le interesan).
  4. Los puntos del índice se mapean a las clases de de la ontología.
  5. En base a eso se publica un Tutorial A La Carta para el usuario usando algun CMS o LMS.

Claro, más fácil decirlo que hacerlo y por supuesto que los tutoriales generados no van a ser perfectos, pero si se aplica algún agente de aprendizaje (en base a redes neuronales o similar) entonces podemos suponer que con el tiempo los tutoriales generados sean más “perfectos”.

Para entenar al agente es indispensable la interacción humana, es aqui donde la idea se vuelve interesante. The Web to the People! Se puede aplicar un modelo de red social al estilo Digg o Menéame, en el cuál los usuarios califiquen los tutoriales generados, es decir, al generarse un e-Tutorial, este se publica mediante RSS, otros usuarios lo ven y califican su contenido. Esto serviria como un feedback constante al agente de aprendizaje, los mejores tutoriales sobrevivirían y los malos desaparecerán de la base de conocimiento.

El agente encargado de crear la base de conocimiento tendria q parsear el tutorial obtenido por secciones de modo que los tutoriales creados sean una mezcla de tutoriales completos. La idea es sencilla (no fácil) y su implementación requiere gran trabajo, esperemos que Qath lo deje suficientemente avanzado para que otros puedan retomarlo y completarlo.

etutorial.png

Anuncios




Aumentando SCMS

31 07 2006

SCMS (Semantic CMS) se basa en una premisa fundamental: Cada Esquema de Contenido (Tipo de Contenido) se refiere a un área de conocimiento especifico. Es decir, nuestra base de conocimiento sera la suma de cada dominio específico del CMS. Las búsquedas inteligentes son, en principio, únicamente para los dominios del SCMS. Dicho eso, podemos ampliar dicho conocimiento, es decir expander cada dominio de forma semi-automática mediante el uso de agentes inteligentes. La idea es tener agentes que busquen en sitios conocidos para ampliar la información que se ha agregado al CMS y que automaticamente agregue anotaciones semánticas sobre dicha información.

Ah si, adjunto un esquemita:

Gestor de Contenidos Semántico





El fin de Google

13 07 2006

El fin de Google es un artículo interesante que sirve como:

  1. Introducción a la Web Semántica (Web 3.0)
  2. Intoducción a los Agentes Inteligentes de Internet (info-agents)
  3. Propone brillantemente una forma de acelerar el surgimiento de un Cerebro Global

Pero a la vez es más que eso… es un experimento social en internet sobre el comportamiento de las masas. La historia detrás del articulo original tiene que ver con Digg, el autor Marc Fawzi, publicó el articulo “Reality as a Service (RaaS): The Case for GWorld” en el servicio digg obteniendo apenas un par de comentarios y una aceptación más bien baja del articulo. Luego publicó un segundo artículo titulado “Wikipedia 3.0: El fin de Google” que es ni mas ni menos que el mismo articulo que RaaS obteniendo más de 33,000 lectores en las primeras 24 horas de su publicación. ¿El mismo? Bueno, no exactamente, habia una diferencia crucial… el título sensacionalista.





Analisis de Blogs para Inteligencia (Web USNAV 3.0)

6 07 2006

Los gringos estan trabajando en una especie de Agente Inteligente Semantico (basado en Ontologias) para navegar a traves de los millones de Blogs del planeta para intentar descubrir informacion relevante, confiable y (lo mejor de todo) actual/reciente que les pueda ayudar en su “guerra contra el terror”.

Este proyecto es factible si se cuenta con una buena ontologia (es decir, una para cada idioma) que describa fielmente lo que es “informacion relevante”. Al principio me sono como una buena idea hasta que descubri que para lograrlo piensan invertir $US450,000 en un nuevo enfoque radical: contar el numero de links que apuntan a cada fuente. (Insertar ironia aqui).





Todo tiene una antitesis

6 07 2006

Con respecto a la entrada anterior sobre Google, tambien existe una tesis que predice la “caida” de google. Se basa en la Web Semantica (Web 3.0) y en su poder para deducir (o inducir) respuestas, en lugar de simplemente buscar palabras claves. El problema (aparte de los obstaculos técnicos) esta en que recolectar y clasificar (categorizar) dicha información es un esfuerzo que requiere de miles de personas trabajando por mucho tiempo. El post Wikipedia 3.0: The End of Google (traducción al español) propone que la inmensa base de datos de Wikipedia junto con sus miles de colaboradores voluntarios son la respuesta al problema recien planteado, suponiendo que se les provea con las herramientas adecuadas.

Todo esto me recuerda un poco a lo que filososfos naturales (lo que hoy en dia llamariamos simplemente cientificos) como John Wilkins hacian a mediados de los 1600s, o sea, varias personas con altos conocimientos categorizando el conocimiento humano y trasladandolo a un lenguaje universal.