Universidad Complutense de Madrid
E-Prints Complutense

Sistemas de recuperación e internet: Metadescripción, procesamiento, webcrawling, técnicas de consulta avanzada, hacking documental y posicionamiento web

Impacto

Downloads

Downloads per month over past year



Blázquez Ochando, Manuel (2013) Sistemas de recuperación e internet: Metadescripción, procesamiento, webcrawling, técnicas de consulta avanzada, hacking documental y posicionamiento web. Manual. mblazquez.es, Madrid.

[img]
Preview
PDF
4MB

Official URL: http://mblazquez.es/wp-content/uploads/ebook-mbo-sistemas-recuperacion-internet1.pdf


URLURL Type
http://www.mblazquez.esAuthor


Abstract

La búsqueda y recuperación en Internet consta de métodos y técnicas complementarios a los empleados en el desarrollo de algoritmos en los motores de búsqueda, véase blog de la asignatura Técnicas Avanzadas de Recuperación de Información. En este sentido, se estudiarán con detenimiento todos los metadatos Dublin Core básicos y extendidos, para su aplicación en páginas web en forma de etiquetas embebidas dentro del código fuente de una página web y en formato RDF. Tales sistemas de meta-descripción favorecen los procesos de indexación y recuperación de cualquier página web, siendo considerados como uno de los factores que permite un posicionamiento en los ranking de resultados en los principales buscadores. Unido a este posicionamiento, se encuentran la webmetría y la cibermetría que estudian cuantitativa y cualitativamente las características de los sitios web y sus páginas, así como su nivel de enlazamiento, topografía y grafo correspondientes. Estas técnicas de estudio de la web son de utilidad para elaborar investigaciones que determinan la importancia de cada sitio web, así como para desarrollar una base de conocimiento útil para su explotación, mediante minería de datos, por ejemplo.
Pero también se consideran de importancia, las técnicas de consulta avanzadas por medio del protocolo REST, empleando variables dinámicas en la URL de consulta de los principales buscadores, que en muchos casos actúa con una enorme versatilidad para resolver problemas de búsqueda más especializados. En este sentido, el conocimiento de técnicas básicas de hacking, pueden facilitar la recuperación de información en directorios, la localización de documentos y versiones de páginas web que resultan de difícil acceso. En resumen, puede definirse la búsqueda en Internet, como un verdadero campo de pruebas en continua expansión, cuyas tácticas y métodos se mantienen en continuo cambio y progresión.


Item Type:Monograph (Manual)
Uncontrolled Keywords:Recuperación de la información, Metadatos, Dublin Core, Internet, Webmetría, Posicionamiento web
Subjects:Sciences > Computer science > Internet
Social sciences > Library science and documentation > Bibliometrics
Social sciences > Library science and documentation > Information retrieval
ID Code:31306
Deposited On:10 Jul 2015 10:22
Last Modified:14 Jul 2015 07:23

Origin of downloads

Repository Staff Only: item control page