Universidad Nacional de San Luis - Facultad de Cs. Físico-Matemáticas y Naturales

26 de Noviembre de 2012 | 5 ′ 18 ′′


Un software que clasifica y detecta páginas con fallas de calidad



El software fue creado por un grupo multinacional de investigación en el que participan científicos de la UNSL. Fue presentado en un concurso internacional que busca mejorar la calidad de los contenidos de Wikipedia y ganó el primer puesto. El sistema predice de manera automática si una página tiene fallas, lo que posibilita un mejor desempeño de los editores estables de Wikipedia.

Investigadores de San Luis, España y México, que colaboran en el proyecto Web Information Quality - Evaluation Initiative (WIQ-EI), resultaron ganadores entre 21 equipos, de los cuales sólo tres lograron llegar a la segunda etapa del concurso organizado por la Bauhaus Universität Weimar (universidad alemana). En el mes de septiembre de 2012 deberán presentar el software desarrollado en Roma.

¿Quién, alguna vez, no buscó algo de historia, geografía o literatura en la Web? ¿O quizás el significado de alguna palabra? ¿O la explicación de un suceso? ¿Quién, alguna vez, no recurrió a la información de internet o bien a datos provenientes de Wikipedia? Muchos lo hemos hecho e, incluso, confiado en que lo que dice “la enciclopedia” es lo correcto.

Lo cierto es que, si bien Wikipedia es una enciclopedia en línea generada por los usuarios y todos podemos contribuir a partir del aporte de nuestros saberes, existen profesionales de distintas áreas de las nuevas tecnologías de la información y la comunicación que buscan, día a día, mejorar la calidad de los datos que ésta contiene. Según los expertos en el tema, el mayor problema para controlar todo el conjunto de datos que circula por la red y, particularmente, por Wikipedia, radica en que al no tener la suficiente capacidad para monitorear lo que los usuarios generan, se sube a Wikipedia material que no cumple con formatos establecidos y que puede llega a ser incompleto o incorrecto.

Frente a estas fallas surge la necesidad de generar sistemas que detecten estas falencias en forma automática, para que las personas que trabajan en el mantenimiento de Wikipedia tengan listados completos de errores y se concentren en ellos con el fin de resolverlos. Investigadores del departamento de Informática de la Facultad de Ciencias Físico Matemáticas y Naturales forman parte del proyecto europeo Web Information Quality-Evaluation Initiative (WIQ-EI), integrado por universidades europeas y latinoamericanas que comenzaron a trabajar en el desarrollo de algoritmos y métodos inteligentes para medir la calidad de la información en contenidos web semi-estructurados o totalmente desestructurados. Es un equipo que ya lleva un año y medio de trabajo.

El sistema desarrollado está categorizado como de aprendizaje no supervisado. Es un software que clasifica y detecta páginas que puedan tener fallas de calidad (entendidas como el no cumplimiento de estándares establecidos para poder contribuir con material en Wikipedia), de las que no las tienen. El sistema predice automáticamente si una página tiene falla, lo que posibilita un mejor desempeño de los editores estables de Wikipedia, y conlleva a brindar información de mejor calidad a los usuarios.

Este sistema implementado es una propuesta que no está operativa en la actualidad en la Web. Los investigadores lo presentaron en el concurso “Quality Flaw Prediction in Wikipedia” (concurso internacional de calidad de información en Wikipedia), organizado en el contexto del Conference and Labs of the Evaluation Forum (CLEF), en el marco del laboratorio PAN - Uncovering Plagiarism, Authorship, and Social Software Misuse.

“Tenemos proyección a futuro; ése es nuestro objetivo”, comentaron a Argentina Investiga los profesionales, quienes apuntan a que, en el futuro, este software pueda estar operativo como un bot (software automático que realiza alguna tarea de mantenimiento) de Wikipedia y logre etiquetar las fallas que detecte y, a su vez, determinar qué falla se ha encontrado para que luego el editor encargado pueda corregirlas.

“Desde su creación, en enero de 2001 hasta la actualidad, Wikipedia es motivo de continua investigación en diferentes disciplinas académicas. En particular, en el contexto de la calidad de información, en Wikipedia la mayoría de la investigación realizada aborda la discriminación de featured articles, es decir, aquellos artículos que respetan los estándares de calidad de aquellos que no lo hacen”, comentaron.

Con todas las expectativas puestas en el mes de septiembre, fecha en que deberán viajar a Roma para presentar y defender el trabajo, el grupo multinacional continúa trabajando en el desarrollo de nuevas propuestas y mejoras de problemas que cotidianamente se presentan en la red de redes.

Edgardo Ferretti y Marcelo Errecalde, de San Luis, junto a Manuel Montes y Gómez, del departamento de Ciencias Computacionales del Instituto Nacional de Astrofísica, Óptica y Electrónica de México; Paolo Rosso del departamento de Sistemas Informáticos y Computación de la Universidad Politécnica de Valencia, España, y Donato Hernández Fusilier y Rafael Guzmán Cabrera, de la división de Ingeniería Campus Irapuato-Salamanca de la Universidad de Guanajuato, México, son los investigadores que participaron del concurso.


Silvina Chaves


Ser digital en tiempos de pandemia

Ser digital en tiempos de pandemia

La UNNOBA mantiene sus tareas esenciales en funcionamiento gracias a la infraestructura y los programas que implementa. ¿Hay riesgos de colapso comunicacional?, la creciente demanda ¿hará caer toda la infraestructura de internet? Diálogo con el prosecretario de TIC de la Universidad, Hugo Ramón.

Cómo se comporta el sistema respiratorio con respiración asistida

Científicos de Ingeniería lograron obtener modelos dinámicos que describen cómo se comporta el sistema respiratorio en condiciones de respiración asistida y con distintas patologías. Los especialistas trabajan en mejorar los modelos y adaptar el algoritmo de identificación para el caso de COVID-19.

Un robot para el control de cañerías subterráneas

El entramado subterráneo de las tuberías está sujeto a fallas estructurales ocasionadas por fisuras y roturas que ocasionan serios inconvenientes económicos. Es por esto que tres jóvenes ingenieros diseñaron el prototipo de un robot teledirigido para facilitar la inspección en el interior de las tuberías de la ciudad de Resistencia

Mujeres ingenieras, mujeres que resisten

Mujeres ingenieras, mujeres que resisten

Virgina Mazzone fue la primera graduada de Ingeniería en Automatización y Control Industrial (IACI) en la Universidad Nacional de Quilmes. La especialista explora las condiciones de modelado, monitoreo y optimización de procesos biológicos con bacterias y de productos de uso corriente en la industria siderúrgica. En diálogo con Argentina Investiga habla de su trabajo y opina sobre la actualidad de un campo históricamente dominado por los hombres.

Finaliza SAVE: investigación sobre análisis y visualización de información extraída de dispositivos móviles

Investigar en informática forense implica orientar los esfuerzos de los investigadores a facilitar la labor de los operadores judiciales, quienes manejan cada vez mayores volúmenes de información digital. Uno de los recursos más extendidos para recuperar información son los dispositivos móviles, objeto de estudio de SAVE, proyecto de investigación y desarrollo de InFo-Lab.

Un novedoso algoritmo para predecir la mortandad de peces

Un novedoso algoritmo para predecir la mortandad de peces

Con imágenes satelitales y el empleo de algoritmos, científicos de la Universidad Nacional de Río Cuarto diseñaron un modelo matemático que permitirá predecir la mortandad de peces en la cuenca del embalse del Río Tercero. Su uso podría adaptarse a otros espejos de agua. Anticipa brotes de saprolegniasis, enfermedad que mata a especies de mojarras.

Canal de videos 103

Palabras Claves