Equipo de científicos.
Investigadores de San Luis, España y México, que colaboran en el proyecto Web Information Quality - Evaluation Initiative (WIQ-EI), resultaron ganadores entre 21 equipos, de los cuales sólo tres lograron llegar a la segunda etapa del concurso organizado por la Bauhaus Universität Weimar (universidad alemana). En el mes de septiembre de 2012 deberán presentar el software desarrollado en Roma.
> Leer también: Software que anticipa las inundaciones.
¿Quién, alguna vez, no buscó algo de historia, geografía o literatura en la Web? ¿O quizás el significado de alguna palabra? ¿O la explicación de un suceso? ¿Quién, alguna vez, no recurrió a la información de internet o bien a datos provenientes de Wikipedia? Muchos lo hemos hecho e, incluso, confiado en que lo que dice “la enciclopedia” es lo correcto.
Lo cierto es que, si bien Wikipedia es una enciclopedia en línea generada por los usuarios y todos podemos contribuir a partir del aporte de nuestros saberes, existen profesionales de distintas áreas de las nuevas tecnologías de la información y la comunicación que buscan, día a día, mejorar la calidad de los datos que ésta contiene. Según los expertos en el tema, el mayor problema para controlar todo el conjunto de datos que circula por la red y, particularmente, por Wikipedia, radica en que al no tener la suficiente capacidad para monitorear lo que los usuarios generan, se sube a Wikipedia material que no cumple con formatos establecidos y que puede llega a ser incompleto o incorrecto.
Frente a estas fallas surge la necesidad de generar sistemas que detecten estas falencias en forma automática, para que las personas que trabajan en el mantenimiento de Wikipedia tengan listados completos de errores y se concentren en ellos con el fin de resolverlos. Investigadores del departamento de Informática de la Facultad de Ciencias Físico Matemáticas y Naturales forman parte del proyecto europeo Web Information Quality-Evaluation Initiative (WIQ-EI), integrado por universidades europeas y latinoamericanas que comenzaron a trabajar en el desarrollo de algoritmos y métodos inteligentes para medir la calidad de la información en contenidos web semi-estructurados o totalmente desestructurados. Es un equipo que ya lleva un año y medio de trabajo.
El sistema desarrollado está categorizado como de aprendizaje no supervisado. Es un software que clasifica y detecta páginas que puedan tener fallas de calidad (entendidas como el no cumplimiento de estándares establecidos para poder contribuir con material en Wikipedia), de las que no las tienen. El sistema predice automáticamente si una página tiene falla, lo que posibilita un mejor desempeño de los editores estables de Wikipedia, y conlleva a brindar información de mejor calidad a los usuarios.
Este sistema implementado es una propuesta que no está operativa en la actualidad en la Web. Los investigadores lo presentaron en el concurso “Quality Flaw Prediction in Wikipedia” (concurso internacional de calidad de información en Wikipedia), organizado en el contexto del Conference and Labs of the Evaluation Forum (CLEF), en el marco del laboratorio PAN - Uncovering Plagiarism, Authorship, and Social Software Misuse.
“Tenemos proyección a futuro; ése es nuestro objetivo”, comentaron a Argentina Investiga los profesionales, quienes apuntan a que, en el futuro, este software pueda estar operativo como un bot (software automático que realiza alguna tarea de mantenimiento) de Wikipedia y logre etiquetar las fallas que detecte y, a su vez, determinar qué falla se ha encontrado para que luego el editor encargado pueda corregirlas.
“Desde su creación, en enero de 2001 hasta la actualidad, Wikipedia es motivo de continua investigación en diferentes disciplinas académicas. En particular, en el contexto de la calidad de información, en Wikipedia la mayoría de la investigación realizada aborda la discriminación de featured articles, es decir, aquellos artículos que respetan los estándares de calidad de aquellos que no lo hacen”, comentaron.
Con todas las expectativas puestas en el mes de septiembre, fecha en que deberán viajar a Roma para presentar y defender el trabajo, el grupo multinacional continúa trabajando en el desarrollo de nuevas propuestas y mejoras de problemas que cotidianamente se presentan en la red de redes.
> Leer también: Polo Tecnológico Junín, un centro de avanzada.
Edgardo Ferretti y Marcelo Errecalde, de San Luis, junto a Manuel Montes y Gómez, del departamento de Ciencias Computacionales del Instituto Nacional de Astrofísica, Óptica y Electrónica de México; Paolo Rosso del departamento de Sistemas Informáticos y Computación de la Universidad Politécnica de Valencia, España, y Donato Hernández Fusilier y Rafael Guzmán Cabrera, de la división de Ingeniería Campus Irapuato-Salamanca de la Universidad de Guanajuato, México, son los investigadores que participaron del concurso.