domingo, diciembre 31, 2006
Búsquedas sociales
Eurekster [http://www.eurekster.com/] y su producto Swicki, que a diferencia de los buscadores tradicionales, va aprendiendo de las preferencias de búsqueda de los usuarios a medida que estos utilizan el sistema. Se basa en el concepto que lo que le gusta a un usuario también le gusta a otros usuarios con intereses comunes. Eurekster opera de forma similar a Amazon en su estrategia de sugerencias, utilizando filtros colaborativos asesora a un usuario sobre una determinada temática o estilo en base a lo que otros clientes del mismo segmento han elegido previamente.
Gravee [http://www.graave.com] es un buscador tradicional con algunas características propias. A medida que el usuaurio examina los resultados puede evaluarlos como positivos o negativos, tal información será tomada como recomendación para otros usuarios. Los sitios hallados pueden ser almacenados en una sección de favoritos. Los usuarios duenos de blogs pueden añadir en sus sitios interfaces de consulta con Gravee y recibir una recompensa económica por ello. Los generadores de contenido indexado por Gravee pueden tener un dinero a cambio de ellos. En Gravee se pretende cambiar compartir los ingresos publicitarios con los propietarios contenidos y aquellos que fomenten el uso del servicio.
Según la empresa Google su producto orientado a las búsquedas sociales “Co-op” [http://www.google.com/coop] es una infraestructura que le permite a sus usuarios utilizar sus conocimientos o experticia a los efectos de ayudar a pares a hallar información.
Su funcionamiento consiste en que los usuarios del buscador se pueden suscribirnos a fuentes importantes de información en diversas áreas del conocimiento. Los contenidos son etiquetados de manera que al realizar una consulta en las que hay contenido recomendado por las fuentes, se asocian etiquetas a los resultados con la finalidad de aportar más información para mejorar la precisión. Los usuarios registrados también pueden ser fuentes de información y etiquetar páginas web, de esta forma se convierten en proveedores de información con valor agregado. En este modelo, Google pretende que los usuarios expertos en un área del conocimiento etiqueten recursos y compartan sus búsquedas.
off topic: Quiénes son los bárbaros?
sábado, diciembre 30, 2006
La sociedad de la información como fuente de empleos
A partir de información recolectada por esta empresa de servicios, sobre
3,4 millones de postulantes y empresas que demandan recursos humanos, se plantea que "el sector de las tecnologías de la información ha adquirido como generador de empleo y como destino laboral más deseado". Tal dato se resume a patir de los números que indican que 1 de cada 3 postulantes desea obtener un empleo relacionado con la sociedad de la información. Por otro lado se concluye que el primer trabajo profesional más deseado es el relacionado con la administración de empresas.
viernes, diciembre 29, 2006
martes, diciembre 26, 2006
Listado de WebOS
107 gigabits por segundo
domingo, diciembre 24, 2006
Informe ITU "Digital Life 2006"
También se hace notar que ha habido un importante crecimiento en el ancho de banda que disponen los usuarios. S e plantea que en planeta existen 216 millones de usuarios debanda ancha por línea fija y 61 millones por líneas móviles de 3ra generación. Lo impresionante se da en China donde existen hoy 393 millones de celulares al cual le sigue el super país ejemplo de consumo USA con 201 millones.
Voy a ver si en los próximos días preparo un post con sus tablas y gráficos a los efectos de expandir esta información. .
Versión completa del informe Digital Life
Vía: pais.com
viernes, diciembre 22, 2006
jueves, diciembre 21, 2006
Evaluación de los Sistemas de recuperación de información - 2da Parte
Evaluación de los Sistemas de recuperación de información - 2da Parte
(Ir a la 1er parte)
Para analizar estas medidas planteamos el siguiente ejemplo: Existe una colección D la cual posee 100 documentos, digamos:
D = {d1, d2, d3, d4, d5,…,d98, d99, d100}
Ahora, supóngase que para una consulta q existen 10 documentos relevantes, R:
R = {d2, d45, d70, d77, d79, d81, d82, d88, d90, d91}
A pedido del usuario, el sistema entregó los primeros 12 documentos, A, rankeados de la siguiente forma:
A = {d79, d10, d90, d13, d20, d45, d60, d30, d77, d21, d88, d100}
(se han resaltado los documentos pertenecientes a R, es decir, los relevantes)
Los cálculos de performance de la recuperación para un tamaño de respuesta de 12 documentos resultan:
P = 5 / 12 = 0.42
E = 5 / 10 = 0.50
Sin embargo, se puede modificar el tamaño de la respuesta a los efectos de intentar recuperar más documentos relevantes, es decir, para aumentar la exhaustividad. En tal caso, supóngase una nueva respuesta – a la misma consulta – consistente de 16 documentos, A’:
A’ = {d79, d10, d90, d13, d20, d45, d60, d30, d77, d21, d88, d100, d1, d91, d29, d10}
Entonces, resulta:
P = 6 / 16 = 0.38
E = 6 / 10 = 0.60
Y luego, se solicita una nueva respuesta, pero ahora el tamaño de la lista consiste de 20 documentos, A’’:
A’’ = {d79, d10, d90, d13, d20, d45, d60, d30, d77, d21, d88, d100, d1, d91, d29, d11, d81, d2, d70, d82}
Los nuevos valores para P y E son:
P = 10 / 20 = 0.50
E = 10 / 10 = 1.00
Como se vio anteriormente, es posible evaluar la performance de un sistema bajo distintas situaciones. En nuestro caso particular hemos analizado la efectividad de un mismo sistema para una misma consulta sobre una misma colección para tres tamaños del conjunto de respuestas (12, 16 y 20).
miércoles, diciembre 20, 2006
La divulgación de la ciencia y su lugar en la era de las redes sociales
La discusión se da en torno a que hay que adaptar la formas de divulgación del conocimiento científico, afín de darle un dinamismo acorde a la generación actual del mismo.De alguna manera, éste artículo está en la línea crítica de los protocolos tradicionales de publicación.
Gracias por el dato Tiscar
Firefox crece en uso
martes, diciembre 19, 2006
Me gustó lo de blogfesor
Lo que me interesa compartir son pensamiento de Mario Nuñez Molina, el entrevistado, sobre lo que considera como el "blogfesor", aquí van:
"- El Blogfesor está orientado hacia la interacción, la participación y las redes sociales en el ciberespacio.
- Se beneficia de la inteligencia colectiva mediante servicios como Delicious, Furl, Flickr, Blinklist, entre otros.
- Considera que sus canales de RSS son herramientas de educación continua.
- Cree que toda persona es un experto sobre algún tema.
- Prefiere utilizar aplicaciones y programas libres.
- Es un "prosumidor". No sólo es un "consumidor"de la información sino que también la genera.
- Considera que lo más importante no es memorizar cómo se hacen las cosas, sino saber dónde puede conseguir la información que necesita en determinado momento.
- Sus aportaciones están bajo licencia de creative commons o copyleft.
- Pasa gran parte del tiempo clasificando lo que aprende o necesita aprender mediante etiquetas o tags.
- En vez de regirse por la ética de la competencia, se rige por la ética de la colaboración y la sinergia."
Librería para el análisis de redes sociales
Para aquellos que le interese el tema, recomiendo empezar a leer una introducción por Juán Merelo Guervós
lunes, diciembre 18, 2006
Serie de artículos sobre evolución de la web
Blogs, Wikis, Podcasting, Redes Sociales, Compartir Archivos: Como La Web Se Está Transformando A Si Misma - Parte I
Introducción A Blogs - Como La Web Se Está Transformando A Si Misma - Parte II
Introducción A Wikis: Como La Web Se Está Transformando A Si Misma - Parte III
domingo, diciembre 17, 2006
Esquemas y queries para manejar etiquetas.
sábado, diciembre 16, 2006
Off Topic: Investigación sobre que piensa nuestra juventud
Se entrevistaron a 3.050 jóvenes de Londres, Nueva York, Rio de Janeiro, Lagos, Nairobi, Moscú, El Cairo, Bagdad, Delhi y Yakarta.
"Sólo 14% cree que la "guerra contra el terror" está haciendo del mundo un lugar más seguro
Los jóvenes se muestran decididamente a favor de la inmigración: 4 de cada 5 creen que la gente debería poder elegir el país donde vivir, y dos tercios de aquellos encuestados creen que emigrarían para asegurarse un futuro mejor.
Tres cuartos de los jóvenes creen que su educación los ha preparado para el futuro, pero casi el mismo número está preocupado por conseguir un trabajo decente."
El dato que viene me impactó
"En términos de honestidad, son los jóvenes de Bagdad quienes se llevan las mejores calificaciones, comparados con sus coetáneos de ciudades como Londres.
Sólo un 2% de los iraquíes dijeron estar dispuestos a cometer un crimen para trasnformarse en millonarios de manera instantánea, mientras que un 3% admitió que robarían algo que deseen mucho y que no pueden costear.
En Londres, 31% cometería un crimen para ser millonario, y 15% robaría un objeto de su deseo."
Por último
"Al mismo tiempo, casi todos (96%) los jóvenes brasileros encuestados dijeron que creen en un Dios, y la mayoría (84%) dijeron que la religión es una fuente de bien."
Qué paso con el comunismo y la liberación espiritual del hombre?
Usuarios registrados en sistemas sociales
Sourceforge: 130,155 proyectos registrados y 1,398,099 usuarios registrados(26/9)
Technorati: 55 millones de weblogs
FeedBurner: 23,188,852 suscripciones y 248,103 de fuentes ( 9/18/06).
Flickr: 3.500.000 usuarios registrados que subieron más de 230 millones de fotos. ( 09/06)
del.icio.us: 1,000,000 de usuarios registrados (09/2006)
ALTO: lectura obligatoria para informáticos
jueves, diciembre 14, 2006
Internet 2 en Argentina: Otra mancha más al tigre
Fuente; Prensa UNL
Pd: perdón por la noticia, pero tanta improvisación continua cansa.
miércoles, diciembre 13, 2006
Estado de conectividad en América
martes, diciembre 12, 2006
Formación en matemáticas, un problema que se repite
Estudio sobre uso diario de servicios de Internet en USA
En otra página de Pew Internet pueden acceder al mismo tipo de datos, pero donde la pregunta es “si alguna vez el usuario realizó tal actividad”.
lunes, diciembre 11, 2006
Off Topic: Diagrama de flujo para aprobar un examen
Argentina, qué nos está pasando?
El ranking es un proyecto del Laboratorio de Internet (CINDOC-CSIC) que mediante técnicas cuantitativas intenta ponderar la importancia de las instituciones en base a enlaces hacía ellas. Para una mayor explicación acerca de este modelo de evaluación acudan a este enlace.
domingo, diciembre 10, 2006
Hitwise muestra como disputan el mercado Yahoo y Google
Por otro lado, Hitwise presenta una tabla comparativa de como internamente, en cada empresa, se reparten sus servicios basada en cantidad de visitas a cada uno.
Los10 términos más utilizados en consultas
Posición - Término - Volumen
1. dictionary 0.67%
2. wikipedia 0.54%
3. dictionary.com 0.17%
4. thesaurus 0.10%
5. quotes 0.09%
6. online dictionary 0.09%
7. spanish dictionary 0.07%
8. fafsa 0.06%
9. christopher columbus 0.05%
10. encyclopedia 0.05%
sábado, diciembre 09, 2006
Evaluación de los sistemas de recuperación de información
Evaluación de los sistemas de recuperación de información - 1ra Parte
Como hemos mencionado en el capítulo anterior, existen diferentes aproximaciones para resolver el problema central del área de RI. De aquí que contamos con sistemas basados en diferentes modelos y algoritmos, los cuales – como todo sistema – deben poder ser evaluados bajo ciertos criterios. Esta tarea permite medir los parámetros de funcionamiento que valoran al sistema y – además – posibilitan la comparación entre distintos SRI.
En sistemas tradicionales – como los de recuperación de datos – los parámetros típicos de evaluación son tiempo y espacio. La medición del tiempo de respuesta y de la cantidad de espacio de almacenamiento que el sistema utiliza brindan parámetros concretos y relativamente fáciles de medir. Mientras un sistema responda más velozmente y requiera menos almacenamiento, mejor será. El balance entre estos dos parámetros depende de los objetivos de diseño del sistema. Por ejemplo, si el requerimiento mayor corresponde a la velocidad del sistema para entregar respuestas porque con éstas se toman decisiones en tiempo real, no importará demasiado la cantidad de estructuras de datos que se van a implementar y que permitirán acelerar las búsquedas. Por el contrario, si el sistema va a correr sobre una PDA, el espacio de almacenamiento es muy importante y – tal vez – se pueda “esperar” un poco más por la respuesta.
Sin embargo, la evaluación de un sistema de RI no es una tarea sencilla. Debido a que el conjunto de respuesta no es exacto se requiere ponderar cómo éste se ajusta a la consulta y – peor aún – ésta a la necesidad de información del usuario. Aquí aparecen las cuestiones subjetivas que se plantean al especificar un query, al adoptar una representación lógica de los documentos de la colección y al utilizar una función de ranking determinada.
Por lo tanto, la evaluación más común se orienta a determinar cuán preciso es el conjunto respuesta a partir del concepto de relevancia. Para Baeza-Yates [2] este tipo de evaluación corresponde a la evaluación de la performance de la recuperación. En el mismo sentido, van Risbergen [61] plantea medir la efectividad del sistema de recuperación, la cual cuantifica su capacidad para recuperar documentos relevantes mientras no recupera documentos no relevantes. Un sistema más efectivo permite satisfacer en mayor medida la necesidad de un usuario.
2.1 – Medidas de Evaluación
Desde los primeros esfuerzos relacionados con la evaluación de los SRI hasta la actualidad, la aproximación clásica para describir la performance de la recuperación consiste en determinar cuántos documentos relevantes se recuperaron y cómo se rankearon para entregarlos al usuario.
Cuando un usuario plantea un query a un SRI, obtiene como respuesta una lista de documentos de acuerdo a un ranking determinado por el sistema. Como ya hemos mencionado, dicha respuesta está formada por documentos relevantes y otros que no lo son y la lista – generalmente – no contiene todos los documentos de la colección (en colecciones grandes, sería imposible de revisar toda la respuesta). En el gráfico 1 se muestra esta situación. Dada una consulta cualquiera, un SRI recuperará el grupo identificado como C, de los cuales solo una parte son relevantes (D).
A partir de esta situación, se puede establecer la tabla de contingencia anterior para la evaluación.Existen dos medidas ampliamente aceptadas en la comunidad de RI denominadas Precisión (en inglés, Precision) y Exhaustividad (Recall) planteadas por Cleverdon [13] hace varios años. La Exhaustividad se define como la proporción de los documentos relevantes que han sido recuperados y permite evaluar la habilidad del sistema para encontrar todos los documentos relevantes de la colección. Tal concepto podría resumirse a partir de la siguiente cuestión “¿Son todos los que están o nos faltan algunos?”.
La Precisión se define como la proporción de los documentos recuperados que son relevantes y permite evaluar la habilidad del sistema para rankear primero la mayoría de los documentos relevantes. Expresado en forma de pregunta: ¿Son todos relevantes o se “filtraron” algunos que no lo son?
Estas dos medidas se encuentran altamente relacionadas. Empíricamente se ha comprobado que una alta exhaustividad se acompaña de una muy baja precisión y viceversa (Gráfico 2), es decir, existe una relación inversa entre las [14].
Existe un compromiso entre Exhaustividad y Precisión, es decir, al aumentar la Exhaustividad recuperando mayor cantidad de documentos, veremos disminuir la Precisión. Esto se explica en el hecho – ya mencionado – que la salida de un SRI es un conjunto aproximado (no exacto) y – por lo tanto – entre ésta se encontrarán documentos no relevantes. Por el contrario, si recuperamos unos pocos documentos y todos son relevantes se tendrá una precisión máxima, pero seguramente se están perdiendo documentos útiles por no ser recuperados. El sistema ideal es aquel que siempre recupera todos los documentos relevantes y solo esos, situación que – hasta el momento – no existe.
Referencias
[2] Baeza-Yates, R. y Ribeiro-Neto, B. “Modern Information Retrieval”. ACM Press. Addison Wesley. 1999.
[13] Cleverdon, C.W., Mills, J. Y Keen, M. “Factors Determining the Performance of Indexing Systems”. ASLIB Cranfield Project. Vol. 1, Design, Vol2, Test Results. 1966.
[14] Cleverdon, C.W. “On the inverse relationship of recall and precision”. Journal of Documentation, vol. 28, págs. 195-201. 1972.
[61] van Rijsbergen, C.J. “Information Retrieval”. Department of Computing Science. University of Glasgow. 1979.
jueves, diciembre 07, 2006
Blogs sobre “blogs, semántica y geolocalización”
martes, diciembre 05, 2006
Caracterización del acceso a Internet en escuelas públicas de USA
Las distintas inteligencias
De la página mencionada extraigo las nueve inteligencias definidas por Howard Gardner :
Inteligencia lingüística, la que tienen los escritores, los poetas, los buenos redactores. Utiliza ambos hemisferios.
Inteligencia lógica-matemática, la que utilizamos para resolver problemas de lógica y matemáticas. Es la inteligencia que tienen los científicos. Se corresponde con el modo de pensamiento del hemisferio lógico y con lo que nuestra cultura ha considerado siempre como la única inteligencia.
Inteligencia espacial, consiste en formar un modelo mental del mundo en tres dimensiones, es la inteligencia que tienen los marineros, los ingenieros, los cirujanos, los escultores, los arquitectos, o los decoradores.
Inteligencia musical, es naturalmente la de los cantantes, compositores, músicos, bailarines.
Inteligencia corporal-cinestésica, o la capacidad de utilizar el propio cuerpo para realizar actividades o resolver problemas. Es la inteligencia de los deportistas, los artesanos, los cirujanos y los bailarines.
Inteligencia Intrapersonal, es la que nos permite entendernos a nosotros mismos. No está asociada a ninguna actividad concreta.
Inteligencia interpersonal, la que nos permite entender a los demás, y la solemos encontrar en los buenos vendedores, políticos, profesores o terapeutas.
Inteligencia emocional es formada por la inteligencia intrapersonal y la interpersonal y juntas determinan nuestra capacidad de dirigir nuestra propia vida de manera satisfactoria.
Inteligencia Naturalista, la que utilizamos cuando observamos y estudiamos la naturaleza. Es la que demuestran los biólogos o los herbolarios.
Me gusta esta teoría, es flexible y hasta me parece natural (no forzada).
lunes, diciembre 04, 2006
Enciclopedia de Matemáticas PlanetMath
PlanetMath es un proyecto mantenido por una comunidad de gente que desea que el conocimiento matemático sea fácilmente accesible. En noviembre del año 2006 se contabilizaron más de 5.600 entradas y 9.400 conceptos. EL material, el cual está compuesto de artículos y libros, documentos de investigación se encuentra regulado por la licencia GNU/FDL (Free Documentation License. LaTeX es la herramienta seleccionada para escribir en lenguaje matemático. Una carácterística particular es que siempre hay una imagen de la enciclopedia lista para descargarse y utilizarse fuera de línea.
domingo, diciembre 03, 2006
Con Uds. FeedRaider
viernes, diciembre 01, 2006
Debate sobre materiales papel versus digital en las bibliotecas
La Facultad de Informática de la UNLP ejemplo de calidad e integración con la realidad
Les copio la noticia en cuestión
La Plata, futura ciudad digital
Las grandes empresas del sector están en una constante búsqueda de "genios". Muchas veces se nutren de egresados y estudiantes de la UNLP o la UTN regional. Actualmente los jóvenes son en su mayoría obligados a emigrar. Pero ya hay compañías que observan a la capital bonaerense como un buen lugar donde radicarse para realizar sus desarrollos
La calidad de los profesionales argentinos dedicados al desarrollo de software y de técnicos especializados en las nuevas tecnologías se refleja en la alta demanda de las industrias del sector con base en el extranjero.
Las gigantes como IBM, Microsoft u Oracle se nutren de jóvenes argentinos, a tal punto que muchas de estas compañías realizan acuerdos estratégicos con universidades para procurarse de los mejores recursos humanos.Pero entre todas las ciudades del país que se han convertido en grandes formadoras de expertos, La Plata ocupa un lugar destacado.
Así quedó plasmado con las declaraciones de "Pete" Martínez, un alto ejecutivo de IBM con base en Boca Ratón, EE.UU y ex integrante del equipo que ideó la primera PC, cuando visitó el Diario Hoy hace pocos meses y dijo: "Los egresados de la Universidad Nacional de La Plata y los de la Universidad Tecnológica Nacional son envidiables por la excelencia en su formación".
Pero, la gran mayoría de los jóvenes profesionales terminan por trabajar en el exterior. Por el contrario, una empresa de capitales argentinos que lidera el desarrollo de soluciones para compañías de seguros ve que La Plata puede convertirse en un polo de desarrollo tecnológico para el resto del mundo y decidieron hacer punta.
Fue así que la firma Sistran -con fuerte presencia de platenses entre sus socios y ejecutivos- creó su Área de Desarrollo de aplicaciones, bajo el concepto de Software Factory, con oficinas en la capital del primer estado argentino.
El área dependerá de las Unidades de Negocio de México y Puerto Rico y su objetivo será en proyectos que surjan sobre tecnología .Net y arquitectura SOA (orientada a servicios) en dichos mercados.
Puntualmente tendrá 4 secciones: Interfaz de usuario, Componentes, Base de datos y Diseño. Su característica distintiva será apuntar a la especialización en cada una de ellas. Para dicho emprendimiento se han seleccionado 7 profesionales radicados en La Plata ciudad, integrando mayor cantidad de personal en un corto plazo.
"El área de desarrollo de aplicaciones, trabaja conceptualmente como software factory: una línea de producción de Software que concentra procesos de desarrollo, herramientas, frameworks, guías y templates para construir una aplicación específica. En otras palabras: es un modelo de servicios apoyado en una estrategia metodológica que ha madurado en el desarrollo de Software. El CORE de los sistemas seguirá siendo responsabilidad de Fábrica Corporativa por lo cual este área operará en forma coordinada bajo las metodologías de fábrica para atender los proyectos", explicó Bernardo Suburu, director Corporativo de Sistran.
En tanto, Mario Rosales, Director de Operaciones de Sistran México subrayó: "Detectamos la posibilidad de desarrollar el Polo informático de esta ciudad -que aún no ha sido explotado- con muchos recursos capacitados gracias al excelente nivel que proveen las Universidades tecnológicas. Es por ello que Sistran suma oportunidades de trabajo a los jóvenes estudiantes de La Plata para que continúen sus estudios y al recibirse cuenten con la experiencia necesaria para desenvolverse profesionalmente".
La empresa cuenta entre sus clientes regionales en Latinoamérica más importantes a AIG, CNP, Bradesco, Chubb, Generali, Horizonte, La República, La Veloz, La Mercantil Andina, Liderar, Sofrecom; Telecom Argentina, Swiss Medical Group, SMG Compañía de Seguros, Victoria Cía Argentina de Seguros, Winterthur Internacional XL Insurance Argentina y Royal Sun Alliance, entre otros. Y posee filiales en Brasil, Ecuador, Colombia, México, Guatemala, Puerto Rico y oficinas en Panamá.
Ojalá el ejemplo llegue a otros lugares!!!
jueves, noviembre 30, 2006
Nuevo estudio de Pew Internet sobre como se informa la población en USA cuando busca información científica
La televisión está en primer lugar y luego Internet cuando los usuarios desean obtener Información científica. El 41% obtiene la mayoría de la información de la TV, el 20% de Internet, el 14% de los periódicos y un 4% de las radios. En cambio, los usuarios con conexiones de banda ancha indican que el 34% obtiene información científica de la red y el 33% de la TV.
Del estudio se desprende que ,aparentemente, Internet es la primer fuente sobre la cual acude la gente cuando necesita información sobre un tema científico específico.
Para el 87% de los usuarios americanos (128 millones de adultos) Internet es una herramienta de investigación. Donde, por ejemplo, el 70% de los usuarios ha usado la red, alguna vez, para buscar el significado de un término científico. El 65% uso Internet para aprender cosas sobre historia de la ciencia. El 55 % uso la red para verificar hechos científicos o estadísticas. El 43% ha descargado datos científicos o gráficos.
Los buscadores representan la fuente más popular para comenzar una investigación sobre temas científicos entre aquellos usuarios que usan Internet como primer lugar para obtener tal tipo de información.
La mitad de todos usuarios de internet han visitado un sitio especializado en contenidos científicos.. Por ejemplo, un 23% ha visitado National Geographic, un 19% nasa.gov, un 14% Smithsonian site, 10% sience.com y 9% nture.com.
Cerca del 80% de los usuarios que buscan información en línea intenta comprobar su exactitud en otro sitio.
Técnica para facilitar búsquedas tolerantes a errores en la consulta o en el índice
Hace unos años atrás un ex alumno Diego Barrientos puso a punto y valido una técnica semejante, la cual usamos para corrección ortográfica o sugerencias del tipo Google "Ud. quizo decir". Aquí pueden hallar un documento que habla acerca del algoritmo y aquí encuentran unas librerías C desarrolladas por Diego.El trabajo aún no está totalmente finalizado, se puede mejorar la calidad de las sugerencias utilizando técnicas que permitan manejar los casos de empate de términos candidatos en las listas de sugerencias, una posible herramienta sería modelos de lenguaje. SI hay alguien que le interese el tema y el C podemos discutirlo.
miércoles, noviembre 29, 2006
Off topic: Blogs amigos
Telenoche, uso o abuso de la Wikipedia?
Muchachos, por respeto a las decenas de miles de personas que construyen y preservan el conocimiento de la humanidad, la próxima vez den crédito.
Relevamiento sobre razones para escribir un blog
martes, noviembre 28, 2006
Tutorial sobre blogs
Paper que presenta un modelo de un sistema de etiquetado
Cita: "HT06, Tagging Paper, Taxonomy, Flickr, Academic Article, ToRead." Cameron Marlow, Mor Naaman, danah boyd, Marc Davis. Proceedings of Hypertext 2006, New York: ACM Press, 2006.
Disponible en: http://www.danah.org/papers/Hypertext2006.pdf
Conocen a Tagsonomy?
lunes, noviembre 27, 2006
Libros para descargar
Jordi Mas i Hernàndez, “Software libre: técnicamente viable, económicamente sostenible y socialmente justo” primera edición, 2005. Disponible en http://www.softcatala.org/~jmas/swl/llibrejmas.pdf
Beatriz Busaniche et al. “Prohibido pensar, propiedad privada : los monopolios sobre la vida, el conocimiento y la cultura - 1a ed., Córdoba : Fundación Vía Libre, 2006.
Disponible en http://www.vialibre.org.ar/wp-content/uploads/2006/11/prohibidopensarpropiedadprivada.pdf
David Bueno. “Copia este libro”, Ed. Dmem S.L., 2005. Disponible en http://www.rebelion.org/docs/23824.pdf
Entrevista a Enrique Dans
Cuando se le pregunta acerca del spam responde “...el spam, en realidad, vive de una asimetría de conocimiento: el crecimiento de la Red es tan grande que el spam se nutre de las personas con poca experiencia que contestan a sus mensajes... Con el tiempo se popularizará el conocimiento acerca del spam, la cantidad de gente que contesta a ese tipo de mensajes será cada vez menor y el correo basura desaparecerá...”
Acerca del movimiento web 2.0 indica que brinda “...la posibilidad de desempeñar un papel activo. No se trata de que tengas que tener un blog, ni que estés obligado a comentar en ningún sitio, sino que, si te apetece hacerlo, tendrás sitio para ello, vivirás una actitud abierta y participativa. En breve, los sitios unidireccionales nos parecerán cosa del pasado, y cuando un medio no nos ofrezca ese tipo de prestaciones, nos encontraremos raros, incómodos...”
“...La brecha digital se reduce con servicios y contenidos de calidad, creando propuestas de valor adecuadas. ...Los poderes públicos deben limitarse a poner infraestructuras al alcance del usuario, cediendo por ejemplo el uso de sus infraestructuras a operadores en libre competencia que ofrezcan conectividad en unas condiciones interesantes para sus posibles clientes, compitiendo entre sí en mercados no distorsionados...”
domingo, noviembre 26, 2006
OLPC Argentina: Ruego a Dios que nuestros representantes sean eficaces y eficientes
Lo raro, y que todavía no me convence del proyecto, es que el grupo argentino oficial no ha abierto el juego a universidades, organizaciones profesionales y a organizaciones de usuarios, dado que esta gente está en todo el país y es la que puede 1) desarrollar soft, 2) seleccionar soft, 3) ver usos alternativos de la plataforma, 4) ayudar a construir servicios, 5) establecer redes sociales destinadas al desarrollo del alumno y su contexto familiar, 6) dar soporte técnico al alumno, la escuela, 7) ayudar a capacitar a los docentes, etc, etc, etc. Es decir a apropiarse de la tecnología en tiempo y forma, acordémonos que cuando en estos lares adquirimos un aparato electrónico ya es viejo y lo debemos amortizar en la menor cantidad de tiempo.
En este proyecto como pueblo argentino debemos ser eficaces (que llegue a todo destinatario) y eficientes ( que se use con propiedad) dado que es nuestro dinero el que se usó para comprar, por eso los que algo de tecnología manejamos debemos pedir a nuestros representantes una inversión racional. No tengan miedo en invertir en educación (solo la educación es la que hace a un soberano, el no tenerla la convierte en esclavo) pero háganlo de frente y con la sociedad y no de espaldas y para la foto (es una p. costumbre de los políticos en todos los niveles, decanos, rectores, ministros concejales, etc, etc.).
En el sitio Educ.ar pueden acceder al audio de una conferencia de hace unos meses atrás donde se explica en que consiste el proyecto OLPC y que beneficios brindaría.
Con mi deseo de éxito, saludos a todos
sábado, noviembre 25, 2006
Software social como recurso para mejorar comunidades de inteligencia
El trabajo se llama "The Wiki and the Blog: Toward a Complex Adaptive Intelligence Community" y fué publicado en la revista "Studies in Intelligence", Vol 49, No 3, September 2005.
jueves, noviembre 23, 2006
Recuperación de información en el espacio web
Con la aparición de la web surgieron nuevos desafíos para resolver en el área de recuperación de información debido – principalmente – a sus características y su tamaño. La web puede ser vista como un gran repositorio de información, completamente distribuido sobre Internet y accesible por gran cantidad de usuarios. Por sus orígenes como un espacio público existen millones de organizaciones y usuarios particulares que incorporan, quitan ó modifican contenido continuamente, por lo que su estructura no es estática.
Su contenido no respeta estándares de calidad, ni estilos ni organización. Como medio de publicación de información de naturaleza diversa se ha convertido en un servicio de permanente crecimiento. Una de las características de la información publicada en la web es su dinamismo, dado que pueden variar en el tiempo tanto los contenidos como su ubicación [6] [33].
El tamaño de la web es imposible de medir exactamente y muy difícil de estimar. Sin embargo, se calcula que son decenas de terabytes de información, y crece permanentemente. Está formada por documentos de diferente naturaleza y formato, desde páginas HTML hasta archivos de imágenes pasando por gran cantidad de formatos estándar y propietarios, no solamente con contenido textual, sino también con contenido multimedial.
La búsqueda de información en la web es una práctica común para los usuarios de Internet y los sistemas de recuperación de información web (conocidos como motores de búsqueda) se han convertido en herramientas indispensables para los usuarios. Su arquitectura y modo de operación se basan en poder recolectar mediante un mecanismo adecuado los documentos existentes en los sitios web. Una vez obtenidos, se llevan a cabo tareas de procesamiento que permiten extraer términos significativos contenidos dentro de los mismos, junto con otra información, a los efectos de construir estructuras de datos (índices) que permitan realizar búsquedas de manera eficiente. Luego, a partir de una consulta realizada por un usuario, un motor de búsqueda extraerá de los índices las referencias que satisfagan la consulta y se retornará una respuesta rankeada por diversos criterios al usuario. El modo de funcionamiento de los diferentes motores de búsqueda puede diferir en diversas implementaciones de los mecanismos de recolección de datos, los métodos de indexación y los algoritmos de búsqueda y rankeo.
Sin embargo, esta tarea no es sencilla y se ha convertido en un desafío para los SRI debido las características propias de la web. Baeza-Yates [2] plantea que hay desafíos de dos tipos:
a) Respecto de los datos
– Distribuidos: La web es un sistema distribuido, donde cada proveedor de información publica su información en computadoras pertenecientes a redes conectadas a Internet, sin una estructura ó topología predefinida.
– Volátiles: El dinamismo del sistema hace que exista información nueva a cada momento ó bien que cambie su contenido ó inclusive desaparezca otra que se encontraba disponible.
– No estructurados y redundantes: Básicamente, la web está formada de páginas HTML, las cuales no cuentan con una estructura única ni fija. Además, mucho del contenido se encuentra duplicado (por ejemplo, espejado).
– Calidad: En general, la calidad de la información publicada en la web es altamente variable, tanto en escritura como en actualización (existe información que puede considerarse obsoleta), e inclusive existe información con errores sintácticos, ortográficos y demás.
– Heterogeneidad: La información se puede encontrar publicada en diferentes tipos de medios (texto, audio, gráficos) con diferentes formatos para cada uno de éstos. Además, hay que contemplar los diferentes idiomas y diferentes alfabetos (por ejemplo, árabe ó chino).
b) Respecto de los usuarios.
– Especificación de la consulta: Los usuarios encuentran dificultades para precisar – en el lenguaje de consulta – su necesidad de información.
– Manejo de las respuestas: Cuando un usuario realiza una consulta se ve sobrecargado de respuestas, siendo una parte irrelevante.
Estas características – sumadas al tamaño de la web – imponen restricciones a las herramientas de búsqueda en cuanto a la cobertura y acceso a los documentos, exigiendo cada vez mayores recursos computacionales (espacio de almacenamiento, ancho de banda de las redes, ciclos de CPU) y diferentes estrategias para mejorar la calidad de las respuestas.
Referencias
[2] Baeza-Yates, R. y Ribeiro-Neto, B. “Modern Information Retrieval”. ACM Press. Addison Wesley. 1999.
[6] Brewington, B. E. y Cybenko Thayer, G. “How Dynamic is the Web?” En: Proceedings of the Ninth International World Wide Web Conference. 2000.
[33] Lawrence, S. y Giles, L. “Accessibility and Distribution of Information on the Web”. Nature, vol.400, n.6740, pags.107-109. 1999.
Anécdotas por Adrián Paenza
Comparativa sobre repositorios de documentos
Repositories in New Zealand".El grupo de trabajo ha presentado una nueva versión de un documento donde comparan tres alternativas basadas software open source: Dspace, Eprints y Fedora.
Hay buena información técnica acerca de las capacidades de cada plataforma.
miércoles, noviembre 22, 2006
Mapa conceptual de tecnología web
Paquetes de soft en azul, lenguajes en beige, tecnologías centrales o de core en verde e infraestructura en gris. Para mi gusto le faltan tecnologías y algunas relaciones más, pero es un buen comienzo.
lunes, noviembre 20, 2006
Modelos de Recuperación de Información
Los SRI (sistemas de recuperación de información)toman un conjunto de documentos (colección) para procesar y luego poder responder consultas. De forma básica, podemos clasificar los documentos en estructurados y no estructurados. Los primeros son aquellos en los que se pueden reconocer elementos estructurales con una semántica bien definida, mientras que los segundos corresponden a texto libre, sin formato. La diferencia fundamental de un SRI que procese documentos estructurados se encuentra en que puede extraer información adicional al contenido textual, la cual utiliza en la etapa de recuperación para facilitar la tarea y aumentar las prestaciones.
A partir de lo expresado anteriormente se presenta una posible clasificación de modelos de RI – la cual no es exhaustiva – de acuerdo a características estructurales de los documentos.
A continuación se describen – de forma somera – los modelos clásicos y el álgebra de regiones. Más adelante, en el capítulo 4, se profundizará en los modelos booleano y vectorial.
1. Modelo booleano
En el modelo booleano la representación de la colección de documentos se realiza sobre una matriz binaria documento–término, donde los términos han sido extraídos manualmente o automáticamente de los documentos y representan el contenido de los mismos.
Las consultas se arman con términos vinculados por operadores lógicos (AND, OR, NOT) y los resultados son referencias a documentos donde cuya representación satisface las restricciones lógicas de la expresión de búsqueda. En el modelo original no hay ranking de relevancia sobre el conjunto de respuestas a una consulta, todos los documentos poseen la misma relevancia. A continuación se muestra un ejemplo mediante conjuntos de operaciones utilizando el modelo booleano.
A = {Documentos que contienen el término T1}
B = {Documentos que contienen el término T2}
Si bien es el primer modelo desarrollado y aún se lo utiliza, no es el preferido por los ingenieros de software para sus desarrollos. Existen diversos puntos en contra que hacen que cada día se lo utilice menos y – además – se han desarrollado algunas extensiones, bajo el nombre modelo booleano extendido [64] [51], que tratan de mejorar algunos puntos débiles.
2. Modelo Vectorial
Este modelo fue planteado y desarrollado por Gerard Salton [49] y – originalmente – se implementó en un SRI llamado SMART. Aunque el modelo posee más de treinta años, actualmente se sigue utilizando debido a su buena performance en la recuperación de documentos.
Conceptualmente, este modelo utiliza una matriz documento–término que contiene el vocabulario de la colección de referencia y los documentos existentes. En la intersección de un término t y un documento d se almacena un valor numérico de importancia del término t en el documento d; tal valor representa su poder de discriminación. Así, cada documento puede ser visto como un vector que pertenece a un espacio n-dimensional, donde n es la cantidad de términos que componen el vocabulario de la colección. En teoría, los documentos que contengan términos similares estarán a muy poca distancia entre sí sobre tal espacio. De igual forma se trata a la consulta, es un documento más y se la mapea sobre el espacio de documentos. Luego, a partir de una consulta dada es posible devolver una lista de documentos ordenados por distancia (los más relevantes primero). Para calcular la semejanza entre el vector consulta y los vectores que representan los documentos se utilizan diferentes fórmulas de distancia, siendo la más común la del coseno.
Obsérvese el siguiente ejemplo donde se representa a un documento d y a una consulta c:
Documento: “La República Argentina ha sido nominada para la realización del X Congreso Americano de Epidemiología en Zonas de Desastre. El evento se realizará ...”
Consulta: “argentina congreso epidemiología”
3. Modelo probabilístico
Fue propuesto por Robertson y Spark-Jones [47] con el objetivo de representar el proceso de recuperación de información desde el punto de vista de las probabilidades. A partir de una expresión de consulta se puede dividir una colección de N documentos en cuatro subconjuntos distintos: REL conjunto de documentos relevantes, REC conjunto de documentos recuperados, RR conjunto de documentos relevantes recuperados y NN el conjunto de documentos no relevantes no recuperados.
El resultado ideal de a una consulta se da cuando el conjunto REL es igual REC. Como resulta difícil lograrlo en primera intención, el usuario genera una descripción probabilística del conjunto REL y a través de sucesivas interacciones con el SRI se trata de mejorar la perfomance de recuperación. Dado que una recuperación no es inmediata dado que involucra varias interacciones con el usuario y que estudios han demostrado que su perfomance es inferior al modelo vectorial, su uso es bastante limitado.
4. Modelos para documentos estructurados
Los modelos clásicos responden a consultas, buscando sobre una estructura de datos que representa el contenido de los documentos de una colección, únicamente como listas de términos significativos. Un modelo de recuperación de documentos estructurados utiliza la estructura de los mismos a los efectos de mejorar la performance y brindar servicios alternativos al usuario (por ejemplo, uso de memoria visual, recuperación de elementos multimedia, mayor precisión sobre el ámbito de la consulta y demás).
La estructura de los documentos a indexar está dada por marcas o etiquetas, siendo los estándares más utilizados el SGML (Standard General Markup Language), el HTML (HyperText Markup Language), el XML (eXtensible Markup Language) y LATEX.
Al poseer la descripción de parte de la estructura de un documento es posible generar un grafo sobre el que se navegue y se respondan consultas de distinto tipo, por ejemplo:
–Por estructura: ¿Cuáles son las secciones del segundo capítulo?
–Por metadatos o campos: Documentos de “Editorial UNLu” editados en 1998
–Por contenido: Término “agua” en títulos de secciones
–Por elementos multimedia: Imágenes cercanas a párrafos que contengan Bush
Para Baeza-Yates existen dos modelos en esta categoría “nodos proximales” [37] y “listas no superpuestas” [8]. Ambos modelos se basan en almacenar las ocurrencias de los términos a indexar en estructuras de datos diferentes, según aparezcan en algún elemento de estructura (región) o en otro como capítulos, secciones, subsecciones y demás. En general, las regiones de una misma estructura de datos no poseen superposición, pero regiones en diferentes estructuras sí se pueden superponer.
Nótese que en el ejemplo anterior existen cuatro niveles de listas para almacenar información relativa a contenido textual y estructura de un documento tipo libro. En general, los tipos de consultas soportados son simples:
· Seleccione una región que contenga una palabra dada
· Seleccione una región X que no que no contenga una región Y
· Seleccione una región contenida en otra región
Sobre el ejemplo de estructura planteado un ejemplo de consulta sería:
[subsección[+] CONTIENE “‘tambo” ]
Como respuesta el SRI buscaría subsecciones y sub-subsecciones que contengan el término “tambo“.
Cabe mencionar que algunos motores de búsqueda de Internet ya utilizan ciertos elementos de la estructura de un documento – por ejemplo, los títulos – a los efectos de realizar tareas de rankeo, resumen automático, clasificación y otras.
La expansión de estos lenguajes de demarcación, especialmente en servicios sobre Internet, hacen que se generen y publiquen cada vez más documentos semiestructurados. Es necesario – entonces – desarrollar técnicas que aprovechen el valor agregado de los nuevos documentos. Si bien – en la actualidad – éstas no se encuentran tan desarrolladas como los modelos tradicionales, consideramos su evolución como una cuestión importante en el área de RI, especialmente a partir de investigaciones con enfoques diferentes que abordan la problemática [18] [38] [45].
Referencias
[8] Burkowski, F. “Retrieval activities in a database consisting of heterogeneous collections of structured texts”. In Belkin, N., Ingwersen, P., Pejtersen, A. M., and Fox, E., editors, Proceedings of the 15th Annual International ACM SIGIR Conference on Research and Development in Information Retrieval, págs. 112–125, New York. ACM Press. 1992.
[18] Egnor, D. y Lord, R. “Structured information retrieval using XML”. En: Proceedings of the ACM SIGIR 2000 Workshop on XML and Information Retrieval, Julio 2000.
[37] Navarro, G. y Baeza-Yates, R. “A language for queries on structure and contents of textual databases”. Proceedings of the 18th Annual International ACM SIGIR Conference on Research and Development in Information Retrieval, págs. 93-101, New York. ACM Press. 1995.
[38] Ogilvie, P. y Callan, J. “Language Models and Structured Document Retrieval”. En: Proceedings of the first INEX workshop, 2003.
[45] Raghavan, S. Y Garcia-Molina, H. “Integrating diverse information management systems: A brief survey”. IEEE Data Engineering Bulletin, 24(4):44-52, 2001.
[47] Robertson, S.E y Spark-Jones, K. “Relevance Weighting of Search terms”. Journal of Documentation. 33, p.126-148. 1976.
[49] Salton, G. (editor). “The SMART Retrieval System – Experiments in Automatic Document Processing”. Prentice Hall In. Englewood Cliffs, NJ. 1971.
[51] Salton, G.; Fox, E.A. y Wu, H. “Extended Boolean information retrieval”. Communications of the ACM, 26(11):1022-1036. Noviembre, 1983
[64] Waller, W. G. y Kraft, D. H. “A mathematical model for a weighted Boolean retrieval system”. Information Processing and Management, Vol 15, No. 5, pp. 235-245. 1979.
WikiSym 2006
Walles y la razón de éxito de Wikipedia
domingo, noviembre 19, 2006
Ranking de penetración de Internet en América Latina
Sobre un total 89,13 millones de conexiones a Internet en total en Latino América y el Caribe se tiene el siguiente ranking.
1 Bermudas 65,4 usuarios cada 100 habitantes
2 Barbados 59,4 usuarios
3 Antigua y Barbuda 35,6 usuarios
4 Bahamas 31,9 usuarios
5 Dominica 32,9 usuarios
6 Martinica 32,8 usuarios,
7 Costa Rica 25,4 usuarios
8 Guayana 21,3 usuarios
9 Brasil 19,5 usuarios
10 Uruguay 19,3 usuarios
11 Argentina 17,7 usuarios
Creo que en Centro América y el Caribe la alta tasa se debe a la baja densidad de población sumado a la oferta de opciones turísticas destinadas a norteamericanos y europeos.
Las conexiones de Brasil y México suman el 60% de todas y un 25% la tienen Argentina, Chile, Colombia, Perú y Venezuela. Con respecto a desarrollo de tecnologías de conexión se sabe que en banda ancha Chile, tiene la mayor penetración 4,3 %, Argentina y México 2,2%, Brasil y Uruguay 1,8%, Venezuela 1,3%, Perú 1,2%, Colombia y República Dominicana 0,7%, El Salvador 0,6%, Panamá 0,5%, Ecuador y Nicaragua 0,2 % y Bolivia Paraguay 0,1%.
Fuente: Infobaeprofesional.com
sábado, noviembre 18, 2006
Material de clase sobre Data Mining
Sitio colaborativo sobre noticias relacionadas con la bibliotecología
viernes, noviembre 17, 2006
Uso de Google, por parte de médicos, como fuente de consulta de su profesión
Trabajos en línea de la “Conferencia Semantic Web”
jueves, noviembre 16, 2006
Proyecto social OpenStreetMap
miércoles, noviembre 15, 2006
La interacción del usuario con el Sistema de recuperación de Información (SRI)
Aquí sigo con la idea de presentar algunas partes del libro que he escrito con Gabriel Tolosa, titulado “Introducción a la Recuperación de Información”.
La tarea de recuperar información puede ser planteada de diversas formas, de acuerdo a cómo el usuario interactúa con el sistema o bien qué facilidades éste le brinda. Básicamente, la tarea se la puede dividir en:
1) Recuperación inmediata: El usuario plantea su necesidad de información y – a continuación – obtiene referencias a los documentos que el sistema evalúa como relevantes. Existen dos modalidades:
a) Búsqueda (propiamente dicha) o recuperación “ad-hoc”, donde el usuario formula una consulta en un lenguaje y el sistema la evalúa y responde. En este caso, el usuario tiene suficiente comprensión de su necesidad y sabe cómo expresar una consulta al sistema. Un ejemplo clásico son los buscadores de Internet como Google, Altavista o AllTheWeb.
b) Navegación o browsing: En este caso, el usuario utiliza un enfoque diferente al anterior. El sistema ofrece una interface con temas donde el usuario “navega” por dicha estructura y obtiene referencias a documentos a relacionados. Esto facilita la búsqueda a usuarios que no pueden definir claramente cómo comenzar con su consulta e – inclusive – van definiendo su necesidad a medida que observan diferentes documentos. Es este enfoque no se formula consulta explícita. Un ejemplo típico es el proyecto Open Directory.
En ambos casos, la colección es relativamente estática, es decir, se parte de un conjunto de documentos y la aparición de nuevos no es muy significativa. Por otro lado, las consultas son las que se van modificando ya que este proceso es proactivo por parte del usuario.
2) Recuperación diferida: El usuario especifica sus necesidades y el sistema entregará de forma continua los nuevos documentos que le lleguen y concuerden con ésta. Esta modalidad recibe el nombre de filtrado y ruteo y la necesidad del usuario – generalmente – define un “perfil” (profile) de los documentos buscados. Nótese que un “perfil” es – de alguna forma – un query y puede ser tratado como tal. Cada vez que un nuevo documento arriba al sistema se compara con el perfil y – si es relevante – se envía al usuario. Un ejemplo, es el servicio provisto por la empresa Indigo Stream Technologies denominado GoogleAlert.
En esta modalidad la consulta es relativamente estática (corresponde al profile) y el usuario tiene un rol pasivo. El dinamismo está dado por la aparición de nuevos documentos y es lo que determina mas resultados para el usuario.
En algunos casos, se plantea que documentos y consultas son objetos de la misma clase por lo que estos enfoques son – de alguna manera – visiones diferentes de una misma problemática. Bajo este punto de vista, documentos y consultas se pueden intercambiar. Sin embargo, esto no es siempre posible debido al tratamiento que se aplica a cada uno en diferentes sistemas. Algunos sistemas representan queries y documentos de diferente manera. Es más, existe una diferencia obvia en cuanto a la longitud de uno y otro que se tiene en cuenta bajo ciertos modelos de recuperación. Finalmente, en un sistema de búsqueda, existe el concepto de ranking de los documentos respuesta, mientras que en un modelo de filtrado, cada nuevo objeto es relevante a un perfil o no.
martes, noviembre 14, 2006
Según Netcraft, en el espacio web, existen alrededor de 100 millones de sitios
lunes, noviembre 13, 2006
Cómo son las busquedas de los investigadores en revistas electrónicas?
“Searching for electronic journal articles to support academic tasks” es el título de un artículo de investigación de Vakkari y Talja recientemente publicado. El estudio se focalizó sobre el uso de material en la Biblioteca Electrónica Nacional Finlandesa (FinELib). En la investigación se analiza cómo la jerarquía académica y el área de trabajo influencian las las estrategias de búsqueda utilizadas por el personal académico.
La principal conclusión indica que los patrones de búsqueda de artículos están cambiando debido a que hay un incremento en la disponibilidad de fuentes y posibilidades de acceso a material electrónico. Otros extractos interesantes son:
“Our results seem to confirm the findings (Tenopir et al. 2003) that in the electronic information environment, browsing journals is replaced by subject searching in databases. Searching both in full-text and reference databases was considered a considerably more important method of accessing journal literature than browsing journals.”
“There were some differences in search methods used for these tasks by academic status. First, younger researchers rely significantly more on keyword searching than senior researchers for finding journal articles for research purposes.”
Cita: Pertti Vakkari and Sanna Talja: “Searching for electronic journal articles to support academic tasks. A case study of the use of the Finnish National Electronic Library (FinELib)” in Information Research, Vol. 12 No. 1, October 2006.
domingo, noviembre 12, 2006
Para algunas universidades la enseñanza de la informática no sólo es cosmética
El tema en cuestión viene de que la Universidad de Sevilla organizó un concurso de desarrollo de software libre y recibió casi 100 proyectos provenientes de grupos de alumnos de toda españa.
Como dicen ellos, y la tienen clara, "...este certamen tiene como objetivo involucrar a los estudiantes universitarios en la participación y creación de proyectos de software libre para que, de esta forma, se creen las condiciones idóneas para generar un tejido tecnológico de futuros profesionales capaces de dar soporte de soluciones basadas en software libre a empresas e instituciones...". Que buenos estos tíos, se dedican a enseñar y no a decir que enseñan o hacer cosmética educativa.
Que el ejemplo nos colonice.