MADRID, 1 Mar. (EUROPA PRESS) -
La Universidad Carlos III de Madrid (UC3M) informó que el 80 por ciento de las páginas web de las administraciones públicas no facilitan el acceso a la información a los principales motores de búsqueda de Internet, según reveló un estudio que analizó más de 4000 webs gubernamentales.
El grupo de estudio en Tecnologías Aplicadas a la Información y la Documentación (TECNODOC) de la universidad investigó el uso que hacen de los ficheros 'robots.txt' y 'sitemaps.xml', fundamentales a la hora de aumentar la visibilidad de los contenidos 'on line', puesto que facilitan la labor de inspección y recolección de información que llevan a cabo las 'arañas' rastreadoras (crawlers) de los principales motores de búsqueda de Internet (Google, Yahoo, MSN, etc.), que recorren la 'Red' continuamente en busca de nuevas páginas.
Los resultados indican que tan sólo un 17 por ciento de los sitios web analizados incluyen un fichero 'robot.txt' válido, mientras que apenas un 3 por ciento del total de páginas gubernamentales aprovechan el fichero 'sitemaps.xml'.
Uno de los autores del estudio, Bonifacio Martín, del Departamento de Biblioteconomía y Documentación de la UC3M, señaló que estos datos constatan la "escasa" atención que las administraciones públicas de nuestro país están prestando a este tema tan importante en la web. Además, destacó que una buena definición del fichero 'robots.txt' en los sitios web permite establecer ciertas indicaciones para los 'crawlers' de los motores de búsqueda que pueden mejorar la gestión del tráfico web y facilitar la actualización de la información del motor de búsqueda de esas páginas web.
Asimismo, mediante el fichero 'sitemaps.xml' se puede afinar "mucho más" el trabajo que hacen estos robots al indicar información relativa al periodo de actualización o el nivel de importancia en la prioridad de indexación de cada página.
La idea de iniciar esta investigación, según indica el informe, surgió cuando los profesores de la universidad se dieron cuenta de que sus estudiantes solían acudir a fuentes de información no oficiales, como blogs y empresas, cuando esos sitios web solo se hacían eco de información publicada en algunos ministerios u otros organismos públicos.
El responsable del grupo TECNODOC, Tony Hernández Pérez explicó que para iniciar la investigación no buscaron analizar el posicionamiento de algunas páginas respecto a ciertas palabras sino la visibilidad de un sitio web, y si los sitios 'on line' de los ministerios estaban facilitando la tarea a los buscadores o, por el contrario, se la complicaban a propósito o por dejación.