viernes, 2 de septiembre de 2016

Content Curators!!...La supervivencia de lo más relevante.

Hey amig@s, 

Esto se acabó, han sido una cuantas semanas de disfrute y aprendizaje, pero todo tiene un final.

Lo cierto es que cuando estás desarrollando una tarea que te resulta grata, las horas se acortan, los días se suceden y todo va a un ritmo vertiginoso.

Por una parte deseas terminar, obtener la recompensa después de un trabajo bien realizado, por otra la sensación de  final de ciclo que, siempre puedes superar con la matricula en otro curso.

Si encima es un curso en el que la colaboración, la evaluación y la comunicación entre los participantes tiene un gran protagonismo, solo puedes exclamar...

      Tempus Fugit!!


Lo cierto es que como en casi todos los cursos, se tiene que elaborar un trabajo final y éste se refiere a la última herramienta que hemos aprendido a utilizar, Scoop.it!, y el propósito de su uso.
Demos una vuelta de tuerca más a la búsqueda de información de calidad, conozcamos los....


Content Curators!!



Para el que sea un usuario más o menos asiduo de Internet, es probable que en muchas ocasines haya pensado cómo actuar para, dentro de la miríada de webs, blogs y artículos varios que pululan en la red, encontrar la información relevante a lo que necesita, qué hacer para no desechar artículos importantes y con rigor hacia aquello sobre lo que nos encontramos escribiendo o simplemente informándonos.

Cualquiera de nosotr@s podemos publicar un artículo en la Web sin que tengamos que acreditar un conocimiento del tema sobre el que escribimos, solo redactar y publicar.
Es por esto que en la Web tenemos la ventaja de encontrar información de diversas procedencias y variados puntos de vista, y la desventaja de encontrar información con variados puntos de vista y diversas procedencias.




Para intentar resaltar la información veraz publicada sobre de un tema, de otra que no lo sea, podemos utilizar algunas estrategias. 
Una de éstas es la curación de contenidos, pero....que es ésto?

Según Juan Arrellano en su artículo "Definiendo la curación de contenidos", publicado en Septiembre de 2011, es algo así:
"Una definición apropiada la encontré en el blog de Sergio Ortega: La curación de contenido se entiende como la capacidad por parte de un sistema o del ser humano de encontrar, organizar, filtrar y dotar de valor, relevancia, significatividad, en definitiva, de utilidad el contenido de un tema específico que procede de diversas fuentes (medios digitales, herramientas de comunicación, redes sociales…)".


Así pues podríamos decir que la curación es un proceso de selección de contenidos de un tema concreto.
Mientras que la agregación de contenidos tradicionales solo reunía contenidos de un tema en particular, la curación selecciona y filtra  los contenidos por relevancia.
El curador de contenidos se convierte en un experto en contenidos, por lo que debería de conocer bien el tema en cuestión que cura para ser definitivamente fiable.

La curación es un propósito, un fin y ésta se encontraría al final de la senda que consta de cinco fases :


  1. Consultar: Se consultan los contenidos en la web
  2. Compartir: Se comparten estos contenidos con otros usuarios.
  3. Comentar: Se realizan apuntes, comentarios, etc, sobre estos contenidos. 
  4. Producir: Se producen contenidos propios.
  5. Curar: Se filtran y seleccionan los contenidos.


Existen cinco modelos de curación de contenidos, no es que uno sea mejor que otro, simplemente permiten a la organizaciones mostrarse de modos distintos a los clientes de la red.

Veámoslos:


  • La agregación: el acto de reunir la información más relevante sobre un tema específico en un mismo lugar.  
  • La destilación: es una manera de realizar la curación de contenidos en un formato más simple, donde solo son compartidas las ideas de más relevancia.  
  • La elevación: tiene como misión de identificar tendencias en pequeñas porciones de información compartidas online. Un ejemplo serían los "tweets" en Twitter.  
  • El mashup: sería la unión de contenidos curados, y así crear un nuevo punto de vista.  
  • La cronología: considerando la reunión de información histórica organizada sobre la base del paso del tiempo para seguir la evolución de un determinado tema. 
La Web 2.0 se ha surtido de diferentes herramientas que propician la curación de contenidos, la idea es que los contenidos con relevancia se divulguen más que los que carezcan de ella, no siempre funciona, como ejemplo podemos ver diferentes vídeos virales que carecen de valor y/o credibilidad, y no por ello dejan de divulgarse hasta la saciedad.

Algunas de estas herramientas son: 

Facebook, Twitter, Tumblr, Delicious, Foursquare, Read it Later, etc.


También hay herramientas más potentes, en las que a modo de mural, podamos introducir posts, debidamente revisados y seleccionados, acerca de un tema que conozcamos, dotando a estas publicaciones de un valor añadido en lo que a rigor se refiere.

La que hoy nos ocupa es Scoop.it!


Siguiendo las sugerencias de nuestras docentes, para desarrollar un tablero que sea fiable, debemos seguir unos pasos:

  • Preguntarnos acerca de que áreas tenemos conocimiento.
  • En que parte de este área podemos contribuir, imprimiéndole nuestro sello personal. 
Para ello se debería elaborar una lista a modo de brainstorming con al menos diez temas propuestos para su curación. (Pueden ser de distintas áreas)

En mi caso:

  1. La alimentación en el mundo.
  2. Cultivos ecológicos.
  3. Cocina regional.
  4. Especias del mundo.
  5. Química culinaria.
  6. Recetas internacionales.
  7. Blogs de cocina.
  8. Mercados del mundo.
  9. La fusión de culturas en la cocina.
  10. Hierbas aromáticas.
Después reducirlas a cinco.

  1. La alimentación en el mundo.
  2. Cocina regional.
  3. Blogs de cocina.
  4. Mercados del mundo.
  5. Recetas internacionales.
Ahora las tres en las que nuestro aporte pueda ser mayor.

  1. Recetas internacionales.
  2. Mercados del mundo.
  3. Blogs de cocina.
Y por último la finalista, The winner is.....


        "Recetas Internacionales"



Acerca de esta temática, que me apasiona, y en la que puedo aportar el conocimiento adquirido a lo largo de los años, he creado un "Topic", en Scoop.it, con el nombre de un proyecto en desarrollo para un curso de esta universidad.

El nombre: "Food Around The World Project"

La URL del tablero de Scoop.it!http://www.scoop.it/t/cooking-50

Espero que os haya gustado.




Hasta siempre Compañer@s y Docentes.

   César

lunes, 22 de agosto de 2016

El proceso de formular preguntas estratégicas

"El que hace una pregunta es un tonto por cinco minutos, el que no la hace sigue siendo un tonto para siempre"

Proverbio chino



"Si yo tuviera una hora para resolver un problema y mi vida dependiera de la solución, invertiría los primeros 55 minutos para determinar la pregunta apropiada, porque una vez que supiera la pregunta correcta, podría resolver el problema en cinco minutos"

Con esta categórica frase, Albert Einstein puso de manifiesto la importancia de formular las preguntas correctamente.

Es obvio que la información es poder, y es esa información, o los pedazos que tenemos de ésta, lo que debemos utilizar para definir unos parámetros de búsqueda certera.



Aprendamos a preguntar!!




La idea es utilizar los retazos de información que tenemos para formular una pregunta base, desglosarla en elementos identificables, y después traducirlos en términos que los buscadores puedan interpretar. 

Estos términos se denominan: descriptores o palabras clave.

Reconocemos tres tipos de palabras clave:

Las palabras claves de campo temático:

Son los nombres de las disciplinas y/o los términos imprescindibles que indispensablemente tienen que estar presentes en un documento que versa acerca del tema de nuestra pregunta.

Las palabras claves de problema específico:

Son frases breves que mencionan el asunto o su parte más relevante.
Realmente no son palabras claves, sino frases específicas o expresiones claves.
Es recomendable usar expresiones que se utilicen habitualmente.

Las palabras claves de referencias de autor:

Son nombres de autores que se encuentran directamente relacionados con el objeto de la búsqueda y que son considerados referentes importantes en la materia.
Es conveniente incluir sólo apellidos, ya que las listas bibliográficas no siempre incluyen el nombre del autor.



Pongamos un ejemplo.

Hacemos una pregunta relacionada con nuestros intereses profesionales.

"Cuantos artículos relacionados con El Práctico de Cocina, habrá publicados?

La traducimos a los diferentes tipos de palabras clave.


  1. Campo temático: resumen mundial cocina
  2. Campo de tema específico: "el práctico"
  3. Campo de referencia por autor: Rabaso, Aneiros
Ahora trasladaremos estas mismas preguntas a un motor de búsqueda  llamado
Éste nos ayuda a  encontrar el material más relevante dentro del mundo académico permitiéndonos:

  • Consultar en diversas fuentes desde un mismo sitio.
  • Localizar en la web documentos académicos, citas, resúmenes, etc.
  • Obtener información relevante dentro de un campo de investigación o disciplina.
Vamos a verlo con imágenes.



La página de Google Académico, hay que pinchar el la flechita subrayada.



La página de búsqueda  con los comandos clave que aparecen en todo el artículo.



La página con los resultados.



La página con el artículo resultante.


Podemos hacer también búsquedas con las palabras clave que aparecen en el título del artículo buscado.
Los resultados son igualmente buenos.



Se observa que hemos cambiado el código de búsqueda.



Los resultados de la búsqueda.



El artículo buscado con todos su documentos adjuntos.





Debo decir que la experiencia al trabajar con este potente motor de búsqueda ha sido sumamente satisfactoria.
Nos permite utilizar el sistema booleano, pero sin introducir complejos comandos con los que podemos, como decirlo, ir a la deriva.
Simplemente con marcar nuestras preferencias de palabras clave y pinchar buscar.

La complejidad de las búsquedas avanzadas, simplificada para el usuario.


Esto es todo por hoy.

  Gracias por leerlo.


martes, 16 de agosto de 2016

Web Superficial Vs Web Profunda....Nadamos o Buceamos??

Hey amig@s,

Como ya hemos visto a lo largo de este curso, la búsqueda de información veraz requiere (haciendo un símil de pesca) de ciertos aparejos y la habilidad necesaria para faenar con ellos.

Los buscadores tradicionales solo arañan la superficie de la web, tras esta pequeña/gran capa se esconden extensos contenidos que van desde información verdaderamente alucinante, hasta las más depravadas e ilegales perversiones, pasando por sites gubernamentales y un largo etcétera de datos.

De la Web Superficial y sobre todo de la Web Profunda (que tiene más chicha), hablaremos hoy.


La Web Superficial es la porción de Internet que es indexada por los spiders de los motores de búsqueda.



Las arañas de los buscadores recorren las páginas web, almacenan información que contienen y buscan enlaces a otros sitios web para seguir actualizando sus bases de datos.

Con el tiempo acaban recorriendo todas las páginas de Internet que tienen enlaces desde otros URLs. 


Las principales características  de los sitios de la Web Superficial son: 


  • Son de acceso libre 
  • La información que contienen no forma parte de bases de datos 
  • Normalmente para acceder a la información no se necesita registro 
  • La mayoría  de esta información está formada por páginas Web Estáticas, o sea páginas o archivos con  URL fija y/o  accesibles desde otro enlace. 



Hay otras páginas que por distintos motivos (enlaces generados por JavaScript y Flash, páginas protegidas con contraseña, fichero de exclusión de robots, etc.) no pueden ser alcanzadas por los spiders de los buscadores.

Estas páginas forman la Web Profunda.

Esta web también llamada Invisible, según Lluis Codina debería llamarse "no indizable" por la incapacidad de los motores de búsqueda de indizar estas páginas y sitios web.


Sherman y Price en su artículo 'The Invisible Web: Uncovering Sources Search Engines Can’t See', (La Web Invisible: Descubriendo Fuentes que los Motores de Búsqueda no Pueden Ver), A Cyberage Book, Julio 2001, identificaron cuatro tipos de contenidos invisibles en la web:
  1. La Web Opaca (The Opaque Web).
  2. La Web Privada (The Private Web).
  3. La Web Propietaria (The Proprietary Web).
  4. La Web Realmente Invisible (The Truly Invisible Web). 

La Web Opaca está compuesta por archivos que bien podrían estar incluidos en los índices de los buscadores, pero no lo están por alguno de los siguientes motivos: 
  
  • Extensión de la indización: De vez en cuando, digamos por economizar, no todas las páginas de un sitio web son indizadas en los buscadores. 
  • Actualización de la indización: los buscadores no pueden seguir el ritmo al indizar todas las páginas existentes. Se agregan o modifican más deprisa de lo que pueden actualizar la información.
  • Se alcanza el máximo de resultados visibles: aunque los motores de búsqueda muestran a veces muchos resultados, normalmente limitan el número de resultados que se muestran de entre 200 a 1000. 
  • URL desconectadas: los buscadores  más recientes , muestran los documentos ordenados por relevancia según el número de veces que aparecen referenciados en otros. 
Si un documento o página no tiene un link que los dirija  desde otro documento, la página sea encontrada, ya que no se encuentra indizada. 

La Web Privada son  páginas Web que bien podrían estar indizadas en los 
buscadores pero son excluidas adrede por alguno de estos motivos: 
  • Las páginas están protegidas por contraseñas. 
  • Contienen un robot “robots.txt” para evitar ser indizadas. 
  • Contienen un campo en blanco “noindex” para evitar que el buscador consiga indizar la parte  que corresponde al cuerpo de la página. 
Normalmente esta Web está formada por documentos excluidos deliberadamente por los dueños de la información por diferentes razones y será muy difícil encontrar un modo legal de sortear esta barrera.

La Web Propietaria la componen aquellas páginas en las que es necesario registrarse para acceder al contenido bien sea de forma gratuita o pre-pago.

La Web Realmente Invisible la componen páginas que no pueden ser indizadas porque los buscadores tienen limitaciones técnicas, programas ejecutables, archivos comprimidos y/o páginas generadas a partir de datos que introduce el usuario, además de información almacenada en bases de datos que no puede ser recuperada a menos que se realice una petición específica. 





Quiero también mencionar a otra parte de Internet denominada Web Oscura (Dark Web).

Ésta es una parte de la Web Profunda formada por hosts inaccesibles, a los que no se puede acceder a través de medios convencionales y que generalmente se utiliza en entornos en los que es esencial proteger la identidad de los usuarios y el contenido de las comunicaciones.



La Web Oscura se caracteriza por el tipo de contenidos que la integran, normalmente relacionados con:

  • Actividades delictivas, terroristas, pederastas o violación de derechos de autor.
  • Información secreta relativa a actividades gubernamentales, militares o de espionaje.
  • Comunicación de información confidencial de índole comercial.
  • Lugares donde, debido a conflictos políticos, existen restricciones o censura en la difusión y acceso a ciertos tipos de contenido.



La Web Oscura se desarrolla a través de redes superpuestas sobre Internet, cuyos principales objetivos son preservar el anonimato del usuario, mantener la integridad del mensaje y garantizar el secreto de la información.






Dentro de la Web Profunda contamos con algunos recursos de búsqueda que son muy interesantes por ser fuentes de gran valor informativo.
Normalmente son páginas desarrolladas en inglés, pero pueden realizarse búsquedas en español.

Algunos de estos recursos son:

The WWW Virtual Library (http://vlib.org) se considera el catálogo más antiguo en la web y fue iniciado por Tim Berners-Lee, el creador de la web.

Academia.edu (https://www.academia.edu) es una red social 2.0 para investigadores, cuenta con un directorio de más de 12.000 publicaciones.
Se calcula que tiene 830.000 visitantes mensuales y cuenta con más de 
191.000 académicos de todo el mundo.

Reefseek.com (http://www.refseek.com/) es un motor de búsqueda en Internet para estudiantes e investigadores, su objetivo es hacer que la información académica sea de fácil acceso para todos.
Realiza búsquedas en más de un billón de documentos que incluyen páginas web, libros, enciclopedias, revistas y periódicos, vetando en la medida de lo posible cualquier resultado no relativo a ciencia e investigación.

Jurn (http://www.jurn.org)  otro motor de búsqueda que da la opción de buscar entre millones de artículos académicos libres, capítulos y/o tesis de múltiples disciplinas ( Humanidades, Negocios, Economía, Arte, Ecología, Ciencia, Historia, etc).

Microsoft Academic Search (http://academic.research.microsoft.com/) es el buscador académico de Microsoft.

TechXtra (http://techxtra.tradepub.com/) enfoca su información, en ingeniería, matemáticas e informática, siendo posible navegar a través de una larga lista de revistas especializadas de ingeniería gratuitas, documentos técnicos, descargas y podcasts.

Ciencia (http://ciencia.science.gov/) es la hermana gemela española del portal Science.gov (http://www.science.gov/) que se centra en proporcionar información científica e investigación del gobierno de los Estados Unidos de América. 
Puede indexar más de 60 bases de datos y 200 millones de páginas con información científica. También ofrece la posibilidad de búsqueda avanzada y de imágenes. 


Espero que esta información sea de vuestro agrado, además de permitirnos recuperar información netamente útil.

See you soon mates!!

jueves, 11 de agosto de 2016

Booleanos...What is it for?

Hola de nuevo chic@s.

Aquí estoy de nuevo para tratar de explicar la aplicación de variables en lo que se denomina "Búsqueda por palabras clave".




A quien no le ha pasado, que habiendo estado durante horas buceando en la red, sufriendo bombardeos constantes por parte de anuncios y ofertas de dudosa legalidad, hemos apagado el Pc sin haber obtenido el resultado deseado?

A mí, desde luego que si!!

Para minimizar  esta amenaza y acotar los resultados,  el mundo nos dio a un gran personaje que, irónicamente, nos dejó sin saber lo que era una búsqueda en Internet.

En el siglo XIX un matemático y filosofo británico llamado George Boole, ideó  el primer sistema de lógica matemática conocida como álgebra de la lógica o álgebra de Boole.

Este sistema de variables proporciona resultados en función de que se cumpla o no una cierta condición.

Se conocen como operadores booleanos.





Empezamos con ellos!!

AND (Y) o el símbolo + entre las palabras clave.

Nos darán resultados de páginas que contengan los dos términos especificados independientemente del orden.

OR (O) entre las palabras clave.

Nos mostrará páginas con uno de los dos términos especificados.

NOT (No) o el símbolo - (Guión medio) delante de las palabras clave.

Excluyen de la búsqueda el término de detrás del operador.

Podemos combinarlos para facilitar la búsqueda. OR + AND, etc.



Símbolos para facilitar las búsquedas.

El símbolo* (Asterisco).

Sustituye una cadena de caracteres.
También podemos utilizarlo como comodín o para recordar palabras en medio de una frase.

El símbolo ? (De interrogación).

Sustituye un solo carácter en una posición específica.

Las " (Comillas).

La usaremos para buscar una frase exacta o un conjunto de palabras.

El símbolo @ (Arroba).

Permite buscar etiquetas sociales.

El símbolo # (Almohadilla).

Busca temas por tendencias.

El símbolo .. (Dos puntos seguidos, sin espacios).

No proporciona registros que contengan valores incluidos en una determinada franja de elementos como precios, fechas, números, etc.



Operadores de búsqueda especiales.

define:


Nos permite obtener la definición de una palabra.

site:

Nos dará resultados dentro de uno o varios sitio o dominios web.

link:

Nos dirigirá a páginas que apunten a un sitio web en concreto.

related:

Nos proporcionará resultados de sitios web relacionados con una URL conocida.

allintitle:

Nos permite realizar búsquedas por titulo.

info:

Nos da información acerca de un sitio web determinado.



Para ampliar la información.


Os dejo el link hacia una presentación realizada en Google Slice.

Además!!



He de decir que el desarrollo de la presentación, así como la búsqueda utilizando este método,me ha proporcionados resultados interesantes e inesperados.

Así mismo compartirlo con vosotr@s será el culmen de esta mi obra divulgativa.

I hope you like it!!




lunes, 1 de agosto de 2016

Herramientas de Búsqueda

Aquí estoy otra vez compañer@s.

Internet es un amplio escenario en el que conviven datos e información de la más variopinta procedencia.

Alguna de esta información tiene un contenido veraz y fiel a la búsqueda deseada, otra en cambio se aleja diametralmente de nuestros objetivos.

Para cribar o discriminar la información que nos interesa de otra poco menos (o más) que tóxica, disponemos de unas herramientas de las cuales hablaremos aquí.


Buscadores

Utilizan unos tipos  de software especiales que recorren la web e indexan de forma automática las web, además de los documentos relacionados.

Están compuestos por cuatro componentes básicos:

  • Robot.
  • Motor de Indexación.
  • Índices.
  • Motor de Búsqueda.
El Robot o araña (Spider) es un programa que rastrea la web en busca de la información relevante de cada página visitada.

El Motor de Indexación analiza y condensa la información, para después organizarla y presentarla al usuario.

Los Índices o Ficheros Inversos son unos datos estructurales que facilitan la búsqueda asociando una o varia palabras clave (a excepción de artículos y/o preposiciones que se denominas "Palabras Vacías"), a una lista de ficheros relacionados con esta/s palabra/s.

El Motor de Búsqueda se encarga de procesar las consultas de los usuarios recorriendo los índices o ficheros inversos en busca de documentos relacionados, para después ordenarlos jerárquicamente y presentarlos al cliente.

Cabe destacar que esta herramienta realiza las búsquedas en sus propios índices, no directamente en Internet, por lo que solo se recupera una pequeña parte de la información existente en la web.


Metabuscadores

Son buscadores en buscadores.

Estos servidores web ejecutan búsquedas en los índices de un gran número de buscadores y/o directorios, eliminan los duplicados y presentan un resumen de los resultados ordenados jerárquicamente y en ocasiones con información acerca del buscador donde se ha realizado la recolección de los datos en cuestión.
Cada uno de los metabuscadores tiene un motor de búsqueda propio, pero con un proceso interno común entre ellos.


Directorios

También llamados buscadores temáticos, organizan la información por categorías y sub-categorías que registran las URL y una pequeña descripción de los sitios web indexados.

Se organizan por parte de los autores a partir de un registro de sitios, para después ser categorizados y jerarquizados por parte de los editores.





Guías Temáticas

Son recursos web organizados en áreas de dominio de temáticas diversas y elaborados por entidades académicas.

Suelen incorporar mecanismos de búsqueda en las páginas y por lo general su información es de gran calidad y frecuentemente actualizada.


Software Especializado


Son programas que se instalan en nuestro PC y que facilitan las búsquedas en Internet operando junto con los navegadores e imitando el comportamiento de una persona, actuando con autonomía al recorrer automáticamente Internet, aprovechando la estructura de enlaces de la web.

Se puede predefinir un criterio de búsqueda y recuperar de esta forma un documento o fichero en concreto.

Un software especialmente útil es "Copernic Agent", el cual mediante potentes herramientas de análisis, permite la búsqueda y clasificación en múltiples fuentes.



Podéis ver aquí un Padlet que he creado con información acerca de estas Herramientas de Búsqueda.



Espero que os resulte interesante.