La búsqueda y recuperación en Internet consta de métodos y técnicas complementarios a los empleados en el desarrollo de algoritmos en los motores de búsqueda, véase blog de la asignatura Técnicas Avanzadas de Recuperación de Información. En este sentido, se estudiarán con detenimiento todos los metadatos Dublin Core básicos y extendidos, para su aplicación en páginas web en forma de etiquetas embebidas dentro del código fuente de una página web y en formato RDF. Tales sistemas de meta-descripción favorecen los procesos de indexación y recuperación de cualquier página web, siendo considerados como uno de los factores que permite un posicionamiento en los ranking de resultados en los principales buscadores. Unido a este posicionamiento, se encuentran la webometría y la cibermetría que estudian cuantitativa y cualitativamente las características de los sitios web y sus páginas, así como su nivel de enlazamiento, topografía y grafo correspondientes. Estas técnicas de estudio de la web son de utilidad para elaborar investigaciones que determinan la importancia de cada sitio web, así como para desarrollar una base de conocimiento útil para su explotación, mediante minería de datos, por ejemplo.
Pero también se consideran de importancia, las técnicas de consulta avanzadas por medio del protocolo REST, empleando variables dinámicas en la URL de consulta de los principales buscadores, que en muchos casos actúa con una enorme versatilidad para resolver problemas de búsqueda más especializados. En este sentido, el conocimiento de técnicas básicas de hacking, pueden facilitar la recuperación de información en directorios, la localización de documentos y versiones de páginas web que resultan de difícil acceso. En resumen, puede definirse la búsqueda en Internet, como un verdadero campo de pruebas en continua expansión, cuyas tácticas y métodos se mantienen en continuo cambio y progresión.
No hay comentarios:
Publicar un comentario
Nota: solo los miembros de este blog pueden publicar comentarios.