miércoles, 17 de noviembre de 2010

El Concepto
El contenido usado en mashups es típicamente obtenido de otra fuente vía una interface pública o API (web services), aunque existe gente en la comunidad que considera que los casos en que las interfaces son privadas no deberían contar como mashups. Otros métodos de obtener contenido para mashups incluyen Web Feeds (i.e RSS o Atom) y screen scraping.
Mucha gente experimenta con mashups usando las APIs de Amazon, eBay, Flickr, Google, Microsoft, Yahoo o YouTube lo que ha llevado a la creación de un editor mashup.
La arquitectura de los mashups está siempre compuesta de tres partes:
• El proveedor de contenidos: fuente de los datos. Los datos están disponibles vía una API y diferentes protocolos web como RSS, REST y Web Service.
• El sitio mashup: es la nueva aplicación web que provee un nuevo servicio utilizando diferente información y de la que no es dueña.
• El web browser cliente: es la interface de usuario del mashup. En una aplicación web, el contenido puede ser mezclado por los web browser clientes usando lenguaje web del lado del cliente. Por ejemplo javascript.
Los mashups
deben ser diferenciados de simples embebidos de datos de otro sitio para formar un documento compuesto. Un sitio que permite al usuario embeber vídeos de youtube, por ejemplo, no es un sitio mashup. Como ya se dijo , el sitio mismo debe acceder información externa a él usando una API y procesar esos datos de modo de incrementar su valor para el usuario.
Tipos de Mashups
Los mashups se presentan actualmente en tres formas: mashups de consumidores, mashups de datos y mashups empresariales.
El tipo más conocido es el de mashup de consumidores, que está muy bien ejemplificado por muchas aplicaciones que utilizan Google Maps. Los mashups de este tipo combinan datos de fuentes varias, escondiendo ello tras una interface gráfica simple.
Un mashup de datos mezcla datos de tipo similar proveniente de diferentes fuentes (ver Yahoo Pipes, http://pipes.yahoo.com/pipes/). Por ejemplo, combinando los datos de múltiples feeds RSS en un solo feed con nuevo un front-end gráfico.
Un mashup empresarial (ejemplo, JackBe, http://www.jackbe.com) integra usualmente datos de fuentes externas e internas. Por ejemplo, podría crear un reporte sobre la cuota de mercado de un negocio combinando la lista externa de todas las casas vendidas la semana anterior con datos internos de las casas vendidas por una sola agencia.
Un mashup de negocio es una combinación de todo lo anterior, enfocando en agregación de datos y presentación y agregando adicionalmente una funcionalidad colaborativa, haciendo que el resultado final sea una aplicación de negocio apropiada.
Mashups dentro de mashups son conocidos como “mashups monstruos”.
Es importante reconocer que los mashups ayudan o facilitan la integración de aplicaciones orientadas a arquitecturas SOA.
Ejemplos
Los mashups pueden ser divididos en cuatros grandes categorías: "mapas", "vídeo y fotos", "búsqueda y compras" y "noticias". Algunos ejemplos de cada categoría:
Mapas
Chicago Crime - El departamento de policía de Chicago tiene un mashup (http://gis.chicagopolice.org/CLEARMap_crime_sums/startPage.htm) que integra la base de datos del departamento de crímenes reportados con Google Maps de modo de ayudar a detener crímenes en ciertas áreas y avisar a los ciudadanos de áreas potencialmente más peligrosas.
WikiCrimes - WikiCrimes (http://www.wikicrimes.org) es un sitio web tipo wiki donde los usuarios de Internet pueden reportar crímenes pinchando banderas en un mapa basado en Google Maps. El sitio distingue categorías dependiendo del color.
minnus - minnus(http://www.minnus.com.ar) minnus es una comunidad virtual donde sus usuarios tienen acceso a información de todo tipo, ya sea cultural, social, histórica, comercial, ambiental, turística, de transito, etc. Dicha información se encuentra geoposicionada en un mapa creado con imágenes de satélite para así formar grupos con mismos intereses.

Vídeo y fotos
Flickr - Flickr es un sitio de almacenamiento de imágenes que permite a los usuarios organizar sus colecciones de imágenes y compartirlas. Utilizando su API el contenido puede ser usado en otros sitios creando mashups. Flickrvision (http://flickrvision.com) es un ejemplo.
Búsqueda y compras
Travature - Travature (http://www.travature.com) es un portal de viajes que ha integrado motores de meta búsquedas con guías de viajes tipo wiki y reseñas de hoteles. También permite compartir experiencias entre viajantes.
Noticias
Digg - Digg (http://digg.com/) es un mashup de varios sitios de noticias controlado casi enteramente por los usuarios del sitio.
BFreeNews.com - BFreeNews (http://bfreenews.com/) es un mashup de fuentes de noticias de calidad cruzadas con recomendaciones de noticias de Twitter y búsquedas de Google. Muestra las noticias más comentadas en twitter y más indexadas por Google en las últimas 24 horas.
Enciclopedias
Histourist - Histourist (http://www.histourist.com/) es un Mashup Semántico que ofrece una Enciclopedia multimedia geolocalizada de lugares históricos. Los artículos se preparan mediante una combinación de editores y robots de software que explotan los recursos on-line en fuentes definidas como "confiables" (BBC, National Geographic, DBpedia, The History Channel, etc.) )y en particular los servicios de la web semántica para enriquecer los artículos con videos, fotos, bibliografía, y clasificarlo en las taxonomías del servicio.





Un wiki (o una wiki) (del hawaiano wiki, «rápido»1 ) es un sitio web cuyas páginas pueden ser editadas por múltiples voluntarios a través del navegador web. Los usuarios pueden crear, modificar o borrar un mismo texto que comparten. Los textos o «páginas wiki» tienen títulos únicos. Si se escribe el título de una «página wiki» en algún lugar del wiki entre dobles corchetes (...), esta palabra se convierte en un «enlace web» a la página wiki.
En una página sobre «alpinismo», por ejemplo, puede haber una palabra como «piolet» o «brújula» que esté marcada como palabra perteneciente a un título de página wiki. La mayor parte de las implementaciones de wikis indican en el URL de la página el propio título de la página wiki (en Wikipedia ocurre así: http://es.wikipedia.org/wiki/Alpinismo), facilitando el uso y comprensibilidad del link fuera del propio sitio web. Además, esto permite formar en muchas ocasiones una coherencia terminológica, generando una ordenación natural del contenido.
La aplicación de mayor peso y a la que le debe su mayor fama hasta el momento ha sido la creación de enciclopedias colectivas, género al que pertenece la Wikipedia. Existen muchas otras aplicaciones más cercanas a la coordinación de informaciones y acciones, o la puesta en común de conocimientos o textos dentro de grupos.
La mayor parte de los wikis actuales conservan un historial de cambios que permite recuperar fácilmente cualquier estado anterior y ver qué usuario hizo cada cambio, lo cual facilita enormemente el mantenimiento conjunto y el control de usuarios destructivos. Habitualmente, sin necesidad de una revisión previa, se actualiza el contenido que muestra la página wiki editada


Ventajas
La principal utilidad de un wiki es que permite crear y mejorar las páginas de forma instantánea, dando una gran libertad al usuario, y por medio de una interfaz muy simple. Esto hace que más gente participe en su edición, a diferencia de los sistemas tradicionales, donde resulta más difícil que los usuarios del sitio contribuyan a mejorarlo.
Dada la gran rapidez con la que se actualizan los contenidos, la palabra «wiki» adopta todo su sentido. El documento de hipertexto resultante, denominado también «wiki» o «WikiWikiWeb», lo produce típicamente una comunidad de usuarios. Muchos de estos lugares son inmediatamente identificables por su particular uso de palabras en mayúsculas, o texto capitalizado - uso que consiste en poner en mayúsculas las iniciales de las palabras de una frase y eliminar los espacios entre ellas - como por ejemplo en EsteEsUnEjemplo. Esto convierte automáticamente a la frase en un enlace. Este wiki, en sus orígenes, se comportaba de esa manera, pero actualmente se respetan los espacios y sólo hace falta encerrar el título del enlace entre dos corchetes.
Características
Un wiki permite que se escriban artículos colectivamente (co-autoría) por medio de un lenguaje de wikitexto editado mediante un navegador. Una página wiki singular es llamada «página wiki», mientras que el conjunto de páginas (normalmente interconectadas mediante hipervínculos) es «el wiki». Es mucho más sencillo y fácil de usar que una base de datos.
Una característica que define la tecnología wiki es la facilidad con que las páginas pueden ser creadas y actualizadas. En general no hace falta revisión para que los cambios sean aceptados. La mayoría de wikis están abiertos al público sin la necesidad de registrar una
Páginas y edición
En un wiki tradicional existen tres representaciones por cada página:
• El «código fuente», que pueden editar los usuarios. Es el formato almacenado localmente en el servidor. Normalmente es texto plano, sólo es visible para el usuario cuando lo muestra la operación «Editar».
• Una plantilla (en ocasiones generada internamente) que define la disposición y elementos comunes de todas las páginas.
• El código HTML, puesto en tiempo real por el servidor a partir del código fuente cada vez que la página se solicita.
El código fuente es potenciado mediante un lenguaje de marcado simplificado para hacer varias convenciones visuales y estructurales. Por ejemplo, el uso del asterisco «*» al empezar una línea de texto significa que se generará una lista desordenada de elementos (bullet-list). El estilo y la sintaxis pueden variar en función de la implementación, alguna de las cuales también permite etiquetas HTML.



BlackboarD

Blackboard Inc. (NASDAQ: BBBB) es una compañía de software con sede en Washington, DC, EE. UU. Fundada en 1997, Blackboard se formó como firma consultora con un contrato con la organización sin fines de lucro IMS Global Learning Consortium (http://www.imsglobal.org). En 1998, Blackboard LLC se fusionó con CourseInfo LLC, una pequeña compañía proveedora de programas de administración de cursos originaria de la Universidad de Cornell. La nueva compañía se conoció como Blackboard Inc. La primera línea de productos de aprendizaje en línea (e-learning) fue llamada Blackboard Courseinfo, pero luego el nombre Courseinfo fue descontinuado en el 2000. Blackboard se convirtió en una compañía con acciones al público en junio de 2004. En octubre de 2005, Blackboard anunció planes de fusión con WebCT, una compañía rival de programas de aprendizaje en línea. La fusión se completó el 28 de febrero de 2006, la empresa resultante retuvó el nombre de Blackboard, dirigida por el President y CEO de BlackBoard, Michael Chasen.
A fecha del 2005, Blackboard desarrolló y licenció aplicaciones de programas empresariales y servicios relacionados a más de 2200 instituciones educativas en más de 60 países. Estas instituciones usan el programa de BlackBoard para administrar aprendizaje en línea (e-learning), procesamiento de transacciones, comercio electrónico (e-commerce), y manejo de comunidades en línea (online).
La línea de productos Blackboard incluye:
• Blackboard Academic Suite consiste de:
o Blackboard Learning System, un entorno de manejo de cursos. Actualmente esta plataforma está siendo usada a nivel mundial por diversas instituciones relacionadas con la educación, tal es el caso del Servicio Nacional de Aprendizaje SENA en Colombia. También la utilizan la Universidad Nacional de Colombia, la Universidad de los andes y la Pontificia Universidad Javeriana. En México tiene presencia desde hace más de 10 años en diversas universidades e instituciones como el Instituto Tecnológico y de Estudios Superiores de Monterrey (ITESM), la Universidad Iberoamericana y la Universidad Anáhuac.
o Blackboard Community System, para comunidades en línea y sistemas de portales
o Blackboard Content System, un sistema para el manejo de contenido
• Blackboard Commerce Suite, consiste de:
o Blackboard Transaction System, un sistema de procesamiento de transacciones (tarjeta débito) para identificaciones de universidades
o Blackboard Community System, Un sistema para transacciones de comercio electrónico
o Bb One, una red comercial para procesar transacciones de tarjetas débito patrocinadas por BlackBoard
Blackboard también tiene una arquitectura abierta, llamada Building Blocks (http://buildingblocks.blackboard.com), que puede se usar para extender la funcionalidad de los productos Blackboard o integrarlos con otros sistemas de programas.
c




BlackboarD

Blackboard Inc. (NASDAQ: BBBB) es una compañía de software con sede en Washington, DC, EE. UU. Fundada en 1997, Blackboard se formó como firma consultora con un contrato con la organización sin fines de lucro IMS Global Learning Consortium (http://www.imsglobal.org). En 1998, Blackboard LLC se fusionó con CourseInfo LLC, una pequeña compañía proveedora de programas de administración de cursos originaria de la Universidad de Cornell. La nueva compañía se conoció como Blackboard Inc. La primera línea de productos de aprendizaje en línea (e-learning) fue llamada Blackboard Courseinfo, pero luego el nombre Courseinfo fue descontinuado en el 2000. Blackboard se convirtió en una compañía con acciones al público en junio de 2004. En octubre de 2005, Blackboard anunció planes de fusión con WebCT, una compañía rival de programas de aprendizaje en línea. La fusión se completó el 28 de febrero de 2006, la empresa resultante retuvó el nombre de Blackboard, dirigida por el President y CEO de BlackBoard, Michael Chasen.
A fecha del 2005, Blackboard desarrolló y licenció aplicaciones de programas empresariales y servicios relacionados a más de 2200 instituciones educativas en más de 60 países. Estas instituciones usan el programa de BlackBoard para administrar aprendizaje en línea (e-learning), procesamiento de transacciones, comercio electrónico (e-commerce), y manejo de comunidades en línea (online).
La línea de productos Blackboard incluye:
• Blackboard Academic Suite consiste de:
o Blackboard Learning System, un entorno de manejo de cursos. Actualmente esta plataforma está siendo usada a nivel mundial por diversas instituciones relacionadas con la educación, tal es el caso del Servicio Nacional de Aprendizaje SENA en Colombia. También la utilizan la Universidad Nacional de Colombia, la Universidad de los andes y la Pontificia Universidad Javeriana. En México tiene presencia desde hace más de 10 años en diversas universidades e instituciones como el Instituto Tecnológico y de Estudios Superiores de Monterrey (ITESM), la Universidad Iberoamericana y la Universidad Anáhuac.
o Blackboard Community System, para comunidades en línea y sistemas de portales
o Blackboard Content System, un sistema para el manejo de contenido
• Blackboard Commerce Suite, consiste de:
o Blackboard Transaction System, un sistema de procesamiento de transacciones (tarjeta débito) para identificaciones de universidades
o Blackboard Community System, Un sistema para transacciones de comercio electrónico
o Bb One, una red comercial para procesar transacciones de tarjetas débito patrocinadas por BlackBoard
Blackboard también tiene una arquitectura abierta, llamada Building Blocks (http://buildingblocks.blackboard.com), que puede se usar para extender la funcionalidad de los productos Blackboard o integrarlos con otros sistemas de programas.



¿Qué herramientas nos ofrece la plataforme GOOGLE’
Google Calendar


Google Calendar es una agenda que permite tener diferentes calendarios diferenciados por colores. Permite compartir los calendarios privados con otros usuarios pudiendo darles diferentes niveles de permisos. Dispone de la posibilidad de incorporar calendarios públicos realizados por otros usuarios, tales como guía de programación de televisión, agenda de tu club favorito de fútbol, santoral, etc. El calendario se puede configurar para que envíe un recordatorio antes que pase un evento a al cuenta de correo electrónico del usuario con un archivo para importar la tarea a la agenda de Microsoft Outlook, incluso puede enviar un aviso SMS si se vive en una zona habilitada para ello. Hasta la fecha, esta en versión beta pero es funcional.
YouTube
Artículo principal: YouTube
YouTube es propiedad de Google, desde su compra en 10 de octubre de 200619 por 1.650 millones de dólares. En este sitio web, los usuarios pueden subir y ver vídeos.
Google Chrome
Artículo principal: Google Chrome
Google Chrome es el software navegador de la empresa Google. es el tercer navegador más utilizado en Internet, con una cuota de mercado del 7,16% a finales de julio de 2010. Está disponible gratuitamente bajo condiciones de servicio específicas.20
Latitude
Artículo principal: Google Latitude
En febrero de 2009 se lanza el servicio Google Latitude, una característica que permite a los propietarios de smartphones, ya sean usuarios de Chrome, o usuarios que ejecutan un gadget de iGoogle identificar sus ubicaciones actuales para sus amigos o para realizar un seguimiento de sus propios amigos, tanto para la coordinación de encuentros o para seguirlos durante un viaje. Los usuarios pueden enviar correos electrónicos, Google Talk, SMS y mensajes de actualización de estado a los demás directamente desde Latitud, y también es posible realizar llamadas a teléfonos.
La privacidad es considerada un elemento central del servicio, por lo que es opcional; los usuarios no tienen que revelar sus posiciones a algunos usuarios y pueden entrar en un lugar preestablecido para ocultar sus verdaderas posiciones.
Latitud está disponible con Google Maps para móviles de BlackBerry OS, Symbian S60 y los smartphones con Windows Mobile que tienen posicionamiento GPS incorporado o asistido. Los teléfonos Android como el T-Mobile G1, el iPhone y el iPod touch tendrán el software en corto plazo.
Cambios Google
Artículo principal: Logo de Google
Google ha llevado a cabo muchos cambios, tanto internos como externos, a lo largo de su evolución desde 1998. En mayo de 2010 la página experimentó numerosas modificaciones: logo más coloreado, cambios en el lateral de las búsquedas para mejorar la filtración, cambios en la búsqueda instantánea, cambio general de un tono azul a un tono gris, y posibilidad de seleccionar una imagen de fondo para la homepage del buscador.
Otros servicios
También dispone de una calculadora para operaciones aritméticas básicas, Google Calc, y un conversor de divisas, si escribimos una operación aritmética en la casilla de búsqueda, Google Calc se activará para darnos el resultado. Google Page Creator que ofrece un sencillo editor de páginas web con un espacio de 100 megabytes, Google Spreadsheets una hoja de cálculo en línea y Picasa un editor de imágenes gratuito en el cual se pueden subirlas a Internet y publicarlas en un álbum web.
Google TV se lanzará en 2011.21 El servicio de televisión de Google funcionará con Android 2.1. Además de contenido multimedia permitirá usar aplicaciones en el televisor. Sony, Logitech e Intel serán las primeras compañías en apoyar este sistema.21 22
A continuación se listan servicios adicionales también pertenecientes a Google:
• Aardvark
• Alertas Google
• Blogger
• FeedBurner
• Google Analytics
• Google App Engine
• Google Base
• Google Blogsearch
• Google Bumptop
• Google Chrome
• Google Chrome OS
• Google Code
• Google Code Search
• Google Desktop
• Google Diccionario
• Google Docs
• Google Earth
• Google Friend Connect
• Google Grupos
• Google Health
• Google Libros
• Google News
• Google Notebook
• Google Pack
• Google Public DNS
• Google Reader
• Google Sets
• Google Sandbox
• Google Scholar
• Google Sites
• Google SketchUp
• Google Talk
• Google Traductor
• Google Translator Toolkit
• Google Trends
• Google Voice
• Google Wave
• Google Webmasters Tools
• iGoogle
• Knol
• OpenSocial
• Orkut
• Panoramio
• Picasa
• YouTube
• Picnik

Google Summer of Code
Artículo principal: Google Summer of Code
El SoC es un evento que se hizo por primera vez en el verano de 2005 en el que Google paga dinero en efectivo a los estudiantes que completan un proyecto de software libre.
Google bomb
Artículo principal: Google bomb
A raíz de su importante posición de liderazgo en el mercado, Google es objetivo principal del así llamado spamming contra buscadores. En este sentido se intenta posicionar la mayor cantidad posible de palabras de búsqueda entre los primeros resultados. Estas palabras claves muchas veces no tienen ninguna relación con el contenido real de las páginas. Se utilizan técnicas como Páginas-Doorway, Farm-Links o Page-Cloacking.
Esta posibilidad se comprobó por vez primera a la luz de la opinión publica en relación con una Bomba-Google, que estaba orientada al presidente de los Estados Unidos George W. Bush. La palabra de búsqueda "miserable failure" (en castellano: "fracaso miserable") fue enlazada por los adversarios de Bush a la página oficial con la biografía de Bush en la Casa Blanca.23
Como contrapartida intentaron los partidarios de Bush hacer lo mismo contra Michael Moore (director del documental Fahrenheit 9/11). Desde ese momento los primeros puestos varían frecuentemente entre ambos.
Las manipulaciones que tienen como objetivo mejorar el ranking de websites especialmente en Google, son consideradas desde ese momento Google-Spamming. Para evitar el abuso, Google cambia su algoritmo con frecuencia.
Googleplex
Artículo principal: Googleplex
Googleplex es el nombre que reciben las instalaciones en donde los empleados de Google realizan su trabajo. La oficina central se encuentra en Mountain View, California, pero hay otras repartidas a lo largo del mundo.
Google está tomando medidas para garantizar que sus operaciones son ecológicamente racionales. En octubre de 2006, la compañía anunció planes para instalar miles de paneles solares para proporcionar hasta 1,6 megavatios de electricidad, suficiente para satisfacer aproximadamente el 30 % energía de los campus. El sistema será el mayor sistema de energía solar construido sobre una sede corporativa de U.S. y uno de los más grandes en cualquier sitio corporativo en el mundo. Google ha enfrentado a acusaciones de Harper's Magazine de ser extremadamente excesivo con su uso de energía, y fueron acusados de emplear su lema "No ser mal", así como su energía muy pública guardar campañas como medio de tratar de encubrir o compensar las enormes cantidades de energía realmente requieren sus servidores.
Críticas
Google se ha encontrado en el centro de varias controversias relacionadas con sus servicios y sus prácticas financieras. Por ejemplo, la búsqueda de libros de Google24 ha tenido disputas por los derechos de autor con algunos autores.25 26 27
También ha sido criticada por la cooperación con el gobierno de China para filtrar los resultados que puedan ser contrarios a las políticas del gobierno. Ha iniciado una política de censura para lograr expandirse en países como China.28 En razón de esto fue considerada "La Vergüenza Empresarial 2005" por la American Freedom Union.29
Las prácticas de constante colección de cookies y otras informaciones personales30 31 ha hecho dudar acerca del respeto por parte de Google de la privacidad de los usuarios.
La Agencia Española de Protección de Datos ha manifestado que Google es responsable de la eliminación de datos personales, y que dicha eliminación puede solicitarse por los usuarios incluso cuando sus datos permanezcan en páginas de terceros (como los Boletines Oficiales). El criterio de la Agencia es contrario a la práctica habitual de Google, por lo que desaparecer de Google es objeto de controversia32
Desde el 11 de diciembre del 2007, Google, como Bing, guarda "la información personal por 18 meses" y a causa de esto, Yahoo! y AOL "retienen consultas buscadas por 13 meses".[cita requerida]
Algunos gobiernos estatales de India han sembrado la preocupación sobre los riesgos a la seguridad33 debido a los detalles geográficos provistos por Google Earth. El juez del tribunal del distrito de Estados Unidos, Louis Stanton, el 1 de julio del 2008 ha ordenado a Google entregar datos de los usuarios de YouTube a Viacom para apoyar su caso en un millonario juicio por derechos de autor contra Google.34 35 Sin embargo, Google y Viacom el 14 de julio del 2008, han acordado comprometerse para proteger los datos de los usuarios de YouTube en el juicio. Google acordó mantener la información del usuario y las direcciones IP anónimas.
Google y la censura
Se ha convertido en un emblemático caso de complicidad con la censura al haber pactado con el gobierno de China los contenidos de sus páginas.36 37 38 Actualmente y como parte
de su estrategia comercial de búsqueda de nuevos mercados, los resultados del buscador orientados al usuario chino sufren un filtrado previo, que obvia, aunque informando de ello, los resultados que puedan ser contrarios a las políticas del Gobierno.39 40
Recopilación de datos a través de redes Wi-Fi
Varios países de Europa investigan si la compañía vulneró la privacidad de los ciudadanos al obtener datos de las redes Wi-Fi mientras el coche de Street View tomaba fotografías.41 42
Los datos transmitidos por dichas redes, la IP usada, así como cuentas de correo y la dirección MAC quedaban guardados en los sistemas de almacenamiento de los mismos coches y posteriormente transmitidos a la compañía.
La Agencia Española de Protección de Datos abrió una investigación en mayo[cita requerida] para determinar si Google ha vulnerado la normativa española de protección de datos





El podcasting

consiste en la distribución de archivos multimedia (normalmente audio o vídeo, que puede incluir texto como subtítulos y notas) mediante un sistema de redifusión (RSS) que permita suscribirse y usar un programa que lo descarga para que el usuario lo escuche en el momento que quiera. No es necesario estar suscrito para descargarlos.
El término podcast surge como contracción (llamada portmanteau en algunos ámbitos) de las palabras iPod y broadcast (transmisión)1
El origen del podcasting se sitúa alrededor del 13 de agosto de 2004, cuando Adam Curry usó una especificación del formato RSS, de Dave Winer, para incluir archivos adjuntos. A través de la etiqueta añadió archivos de audio a un archivo RSS y decidió crear un programa para poder gestionar esos archivos, al que llamó iPodder, en relación con el reproductor portátil de música que poseía, un iPod.
El término podcasting se utilizó por primera vez el 12 de febrero de 2004 en el periódico The Guardian,2 pero no hace referencia a la sincronización automática. Ben Hammersley, en un artículo titulado 'Audible Revolution', publicado en la edición digital de 'The Guardian' en febrero de 2004, habló en su reportaje de una "revolución del audio amateur".
Inicialmente se refería a las emisiones de audio, pero posteriormente se ha usado de forma común para referirse a emisiones multimedia, de vídeo y/o audio. Muchos audiolibros se descargan en forma de podcast.
Contenidos de un podcast
Un podcast se asemeja a una suscripción a un blog hablado en la que recibimos los programas a través de Internet. También una ventaja del podcast es la posibilidad de escuchar en lugares sin cobertura.
Su contenido es diverso, pero suele ser una persona hablando sobre diversos temas. Esta es la definición base. Ahora bien, puede ser ampliada de diferentes maneras. Hay podcasts sobre diversos temas, sobre todo tecnológicos. Mucha gente prefiere usar un guión y otros hablan a capella y de forma improvisada. Algunos parecen un programa de radio, intercalando música, mientras que otros hacen podcasts más cortos y exclusivamente con voz, igual que con los weblogs.
¿Cómo se escucha un podcast?
Se pueden escuchar o ver desde la página web en la que han sido colocados. Blogs como Wordpress y otros permiten realizar podcasting con el uso de herramientas gratuitas (plug-ins), como WordTube o Podpress. También se pueden descargar los archivos de sonido y video. A partir de ahí, es algo personal. Se pueden usar programas especiales que leen archivos de índices, descargan la música automáticamente y la transfieren a un reproductor mp3. También se puede optar por escucharlo en el ordenador e incluso copiarlo en CDs de audio a partir de los archivos mp3 u ogg, según el formato original.
Otros programas que permiten escucharlos son Doppler, disponible sólo en inglés y con una interfaz muy sencilla, e Ipodder, ahora llamado Juice, disponible en español.
El día 28 de junio de 2005 Apple lanzó iTunes 4.9 con soporte para Podcasting, lo que provocó que, por primera vez, un software usado por un amplio espectro de la población conociera este nuevo medio de comunicación.
¿Dónde se almacenan los podcast?
Es posible almacenarlos en cualquier servidor al que tenga acceso su manufacturador; sin embargo, mucha gente tiene problemas para alojar estos archivos tan grandes y que saturan tanto el ancho de banda. Afortunadamente existen opciones de alojamiento especializadas en podcasting y proyectos como Internet Archive. También se están empezando a usar tecnologías de distribución de archivos mediante las redes bittorrent y ED2K (eMule, eDonkey, MLDonkey, Ares, etc.) pero no son tan populares.
La mayor parte de los programas especializados permiten bajarlo de forma automática, ya sea de una web o de la red bittorrent.
RSS son las siglas de RDF Site Summary or Rich Site Summary , un formato XML para sindicar o compartir contenido en la web. Se utiliza para difundir información actualizada frecuentemente a usuarios que se han suscrito a la fuente de contenidos. El formato permite distribuir contenidos sin necesidad de un navegador, utilizando un software diseñado para leer estos contenidos RSS (agregador). A pesar de eso, es posible utilizar el mismo navegador para ver los contenidos RSS. Las últimas versiones de los principales navegadores permiten leer los RSS sin necesidad de software adicional. RSS es parte de la familia de los formatos XML desarrollado específicamente para todo tipo de sitios que se actualicen con frecuencia y por medio del cual se puede compartir la información y usarla en otros sitios web o programas. A esto se le conoce como redifusión web o sindicación web (una traducción incorrecta, pero de uso muy común).

Una cantidad considerable de páginas web siguen utilizando el término inglés web feed, que significa literalmente "alimento de red". Sin embargo, cuando Microsoft lanzó el navegador Internet Explorer 7 propuso el término "fuente web" o "fuente RSS"1 como alternativa a ese extranjerismo.
La utilización de la palabra "fuente" se fundamenta en que siempre ha sido usada por periodistas y otros comunicadores para referirse al proveedor de una información. Además, otra acepción de la palabra "fuente" es parecida al término inglés "feed": Plato grande, más o menos hondo, que se usa para servir los alimentos. Cantidad de comida que cabe en este plato.2
Actualmente (octubre 2008), más de un millón de páginas hispanas usan la palabra "fuente"3 para referirse a ellos y más de tres millones usan la palabra "canal".4

Confusión de términos fuente web y RSS
Comúnmente el término RSS es usado erróneamente para referirse a fuente web, independientemente de que el formato de dicha fuente sea RSS o no.
Fuente web se refiere al medio de redifusión web, mientras que RSS se refiere al formato de dicha fuente web. Originalmente el único formato de fuente web era RSS, así que se usaban de manera indistinta ambos términos. Sin embargo, actualmente el formato Atom es otro formato popular de fuente web.
No toda fuente web tiene formato RSS, algunas tienen formato Atom. En ocasiones, las páginas web ofrecen una fuente web en formato Atom y erróneamente la señalan como RSS.


Folcsonomía o folksonomía es una indexación social, es decir, la clasificación colaborativa por medio de etiquetas simples en un espacio de nombres llano, sin jerarquías ni relaciones de parentesco predeterminadas. Se trata de una práctica que se produce en entornos de software social cuyos mejores exponentes son los sitios compartidos como del.icio.us (enlaces favoritos), Flickr (fotos), Tagzania (lugares), flof (lugares) o 43 Things (deseos).

Ejemplo de Folcsonomía: Nube de tags
Si se compara con otros sistemas de categorización, como el de Gmail, que también se vale de etiquetas, se distingue en que los usuarios comparten las categorizaciones, lo que no sucede en Gmail.
Las folcsonomías surgen cuando varios usuarios colaboran en la descripción de un mismo material informativo. Por ejemplo, en del.icio.us muchas personas han guardado Wikipedia marcándola con diferentes etiquetas, pero coincidiendo la mayoría en reference, wiki y encyclopedia.
Jon Udell (2004) sugiere que "el abandono de las taxonomías en favor de las listas de palabras claves no es novedad, y que su diferencia fundamental es el intercambio de opiniones (el feedback) que se da en la folcsonomía y no en la taxonomía."1
Esta diferencia es también la que acerca la folcsonomía a la memética, en una relación similar a la que se produce entre las ontologías y la semántica.2 Por otra parte, el concepto tiene relación con el de clasificación facetada utilizado en biblioteconomía.
Derivado de taxonomía, el término folksonomy ha sido atribuido a Thomas Vander Wal.3 Taxonomía procede del griego "taxis" y "nomos": Taxis significa clasificación y nomos (o nomia), ordenar, gestionar; por su parte, "folc" proviene del alemán "pueblo" (Volk). En consecuencia, de acuerdo con su formación etimológica, folcsonomía (folc+taxo+nomía) significa literalmente "clasificación gestionada por el pueblo (o democrática)".
Aparecen dos tipos de folcsonomía según Thomas Vander Val:
- Folcsonomía amplia : Donde el creador no influye en las etiquetas que se ponen a su contenido, sino que son las propias personas usuarias quienes lo hacen, favoreciendo así que estas etiquetas estén en sus propios idiomas y sus propias palabras. Un ejemplo de folcsonomía amplia es Del.icio.us, página donde se pueden ordenar y compartir los enlaces favoritos.
- Folcsonomía estrecha: Al contrario a la anterior, sólo el creador del contenido o un número reducido de personas aplican las etiquetas al contenido. Generalmente esta folcsonomía esta directamente asociada a un objeto y es difícil saber cómo están siendo utilizadas. Por lo tanto, no genera vocabulario u otras descripciones emergentes. Un ejemplo de folcsonomía estrecha es Flickr, aplicación online de gestión de imágenes y vídeos que permite buscar, almacenar ordenar y compartir, donde la utilización de los tags la lleva a cabo el propietario.




Un blog, o en español también una bitácora, es un sitio web periódicamente actualizado que recopila cronológicamente textos o artículos de uno o varios autores, apareciendo primero el más reciente, donde el autor conserva siempre la libertad de dejar publicado lo que crea pertinente. El nombre bitácora está basado en los cuadernos de bitácora, cuadernos de viaje que se utilizaban en los barcos para relatar el desarrollo del viaje y que se guardaban en la bitácora. Aunque el nombre se ha popularizado en los últimos años a raíz de su utilización en diferentes ámbitos, el cuaderno de trabajo o bitácora ha sido utilizado desde siempre.
Este término inglés blog o weblog proviene de las palabras web y log ('log' en inglés = diario). El término bitácora, en referencia a los antiguos cuadernos de bitácora de los barcos, se utiliza preferentemente cuando el autor escribe sobre su vida propia como si fuese un diario, pero publicado en la web (en línea

Habitualmente, en cada artículo de un blog, los lectores pueden escribir sus comentarios y el autor darles respuesta, de forma que es posible establecer un diálogo. No obstante es necesario precisar que ésta es una opción que depende de la decisión que tome al respecto el autor del blog, pues las herramientas permiten diseñar blogs en los cuales no todos los internautas -o incluso ninguno- puedan participar agregando comentarios. El uso o tema de cada blog es particular, los hay de tipo: periodístico, empresarial o corporativo, tecnológico, educativo (edublogs), políticos, personales (Contenidos de todo tipo), etc.
Historia
Antes de que los blogs se hicieran populares, existían comunidades digitales como USENET,xrt listas de correo electrónico y BBS. En los años 90 los programas para crear foros de internet, como por ejemplo WebEx, posibilitaron conversaciones con hilos. Los hilos son mensajes que están relacionados con un tema del foro.
1994-2000
El blog moderno es una evolución de los diarios en línea, donde la gente escribía sobre su vida personal, como si fuesen un diario íntimo pero en red. Las páginas abiertas Webring incluían a miembros de la comunidad de diarios en línea. Justin Hall, quien escribió desde 1994 su blog personal, mientras era estudiante de la Universidad de Swarthmore, es reconocido generalmente como uno de los primeros blogueros.1
También había otras formas de diarios en línea. Un ejemplo era el diario del programador de juegos John Carmack, publicado mediante el protocolo Finger. Los sitios web, como los sitios corporativos y las páginas web personales, tenían y todavía tienen a menudo secciones sobre noticias o novedades, frecuentemente en la página principal y clasificados por fecha. Uno de los primeros precursores de un blog fue el sitio web personal de Kibo, actualizado mediante USENET.
Los primeros blogs eran simplemente componentes actualizados de sitios web comunes. Sin embargo, la evolución de las herramientas que facilitaban la producción y mantenimiento de artículos web publicados y ordenados de forma cronológica, hizo que el proceso de publicación pudiera dirigirse hacia muchas más personas, y no necesariamente a aquellos que tuvieran conocimientos técnicos. Últimamente, esto ha llevado a que en la actualidad existan diversos procedimientos para publicar blogs. Por ejemplo, el uso de algún tipo de software basado en navegador, es hoy en día un aspecto común del blogging. Los blogs pueden ser construidos y almacenados usando servicios de alojamiento de blogs dedicados, o pueden ser concretados y accedidos mediante software genérico para blogs, como por ejemplo usando los productos Blogger o LiveJournal, o mediante servicios de alojamiento web corrientes.
El término "weblog" fue acuñado por Jorn Barger el 17 de diciembre de 1997. La forma corta, "blog", fue acuñada por Peter Merholz, quien dividió la palabra weblog en la frase we blog en la barra lateral de su blog Peterme.com en abril o mayo de 1999.2 3 4 Rápidamente fue adoptado tanto como nombre y verbo (asumiendo "bloguear" como "editar el weblog de alguien o añadir un mensaje en el weblog de alguien").
Tras un comienzo lento, los blogs ganaron popularidad rápidamente; el sitio Xanga, lanzado en 1996, sólo tenía 100 diarios en 1997, pero más de 50.000.000 en diciembre de 2005. El uso de blogs se difundió durante 1999 y los siguientes años, siendo muy popularizado durante la llegada casi simultánea de las primeras herramientas de alojamiento de blogs:
• Open Diary lanzado en octubre de 1998, pronto creció hasta miles de diarios online. Open Diary innovó en los comentarios de los lectores, siendo el primer blog comunitario donde los lectores podían añadir comentarios a las entradas de los blogs.
• Brad Fitzpatrick comenzó LiveJournal en marzo de 1999.
• Andrew Smales creó Pitas.com en julio de 1999 como una alternativa más fácil para mantener una "página de noticias" en un sitio web, seguido de Diaryland en septiembre de 1999, centrándose más en la comunidad de diarios personales.5
• Evan Williams y Meg Hourihan (Pyra Labs) lanzaron Blogger.com en agosto de 1999, y que fue adquirido por Google en febrero de 2003
El blogging combinaba la página web personal con herramientas para poder enlazar con otras páginas más fácilmente —en concreto permalinks, blogrolls y trackbacks. Esto, junto a los motores de búsqueda de weblogs permitió a los blogueros llevar un seguimiento de los hilos que les conectaban con otros usuarios con intereses similares.






El término Web 2.0 (2004–presente) está comúnmente asociado con un fenómeno social, basado en la interacción que se logra a partir de diferentes aplicaciones en la web, que facilitan el compartir información, la interoperabilidad, el diseño centrado en el usuario o D.C.U. y la colaboración en la World Wide Web. Ejemplos de la Web 2.0 son las comunidades web, los servicios web, las aplicaciones Web, los servicios de red social, los servicios de alojamiento de videos, las wikis, blogs, mashups y folcsonomías. Un sitio Web 2.0 permite a sus usuarios interactuar con otros usuarios o cambiar contenido del sitio web, en contraste a sitios web no-interactivos donde los usuarios se limitan a la visualización pasiva de información que se les proporciona.
La Web 2.0 esta asociada estrechamente con (Tim O'Reilly), debido a la conferencia sobre la Web 2.0 de O'Reilly Media en 2004. Aunque el término sugiere una nueva versión de la World Wide Web, no se refiere a una actualización de las especificaciones técnicas de la web, sino más bien a cambios acumulativos en la forma en la que desarrolladores de software y usuarios finales utilizan la Web. El hecho de que la Web 2.0 es cualitativamente diferente de las tecnologías web anteriores ha sido cuestionado por el creador de la World Wide Web Tim Berners-Lee, quien calificó al término como "tan sólo una jerga"- precisamente porque tenía la intención de que la Web incorporase estos valores en el primer lugar.
Introducción
La red original, llamada Web 1.0, se basaba en páginas estáticas programadas en HTML (Hyper Text Mark Language) que no eran actualizadas frecuentemente. El éxito de las .com dependía de webs más dinámicas (a veces llamadas Web 1.5) donde los CMS Sistema de gestión de contenidos (Content Management System en inglés, abreviado CMS) servían páginas HTML dinámicas creadas al vuelo desde una actualizada base de datos. En ambos sentidos, el conseguir hits (visitas) y la estética visual eran considerados como factores importantes.
Los teóricos de la aproximación a la Web 2.0 creen que el uso de la web está orientado a la interacción y redes sociales, que pueden servir contenido que explota los efectos de las redes, creando o no webs interactivas y visuales. Es decir, los sitios Web 2.0 actúan más como puntos de encuentro, o webs dependientes de usuarios, que como webs tradicionales.
El término fue acuñado por Dale Dougherty de O'Reilly Media en una tormenta de ideas con Craig Cline de MediaLive para desarrollar ideas para una conferencia. Dougherty sugirió que la web estaba en un renacimiento, con reglas que cambiaban y modelos de negocio que evolucionaban. Dougherty puso ejemplos — "DoubleClick era la Web 1.0; Google AdSense es la Web 2.0. Ofoto es Web 1.0; Flickr es Web 2.0." — en vez de definiciones, y reclutó a John Battelle para dar una perspectiva empresarial, y O'Reilly Media, Battelle, y MediaLive lanzó su primera conferencia sobre la Web 2.0 en octubre de 2004. La segunda conferencia se celebró en octubre de 2005.
En 2005, Tim O'Reilly definió el concepto de Web 2.0. El mapa meme mostrado (elaborado por Markus Angermeier) resume el meme de Web 2.0, con algunos ejemplos de servicios.
En su conferencia, O'Reilly, Battelle y Edouard resumieron los principios clave que creen que caracterizan a las aplicaciones web 2.0: la web como plataforma; datos como el "Intel Inside"; efectos de red conducidos por una "arquitectura de participación"; innovación y desarrolladores independientes; pequeños modelos de negocio capaces de redifundir servicios y contenidos; el perpetuo beta; software por encima de un solo aparato.
En general, cuando mencionamos el término Web 2.0 nos referimos a una serie de aplicaciones y páginas de Internet que utilizan la inteligencia colectiva para proporcionar servicios interactivos en red dando al usuario el control de sus datos.
Así, podemos entender por Web 2.0, como propuso Xavier Ribes en 2007, "todas aquellas utilidades y servicios de Internet que se sustentan en una base de datos, la cual puede ser modificada por los usuarios del servicio, ya sea en su contenido (añadiendo, cambiando o borrando información o asociando datos a la información existente), bien en la forma de presentarlos o en contenido y forma simultáneamente".
El uso del término de Web 2.0 está de moda, dándole mucho peso a una tendencia que ha estado presente desde hace algún tiempo. En Internet las especulaciones han sido causantes de grandes burbujas tecnológicas y han hecho fracasar a muchos proyectos.
Además, nuestros proyectos tienen que renovarse y evolucionar. El Web 2.0 no es precisamente una tecnología, sino es la actitud con la que debemos trabajar para desarrollar en Internet. Tal vez allí está la reflexión más importante del Web 2.0. Yo ya estoy trabajando en renovar y mejorar algunos proyectos, no por que busque etiquetarlos con nuevas versiones, sino por que creo firmemente que la única constante debe ser el cambio, y en Internet, el cambio debe de estar presente más frecuentemente.





Moodle es un Ambiente Educativo Virtual, sistema de gestión de cursos, de distribución libre, que ayuda a los educadores a crear comunidades de aprendizaje en línea. Este tipo de plataformas tecnológicas también se conoce como LMS (Learning Management System).
Moodle fue creado por Martin Dougiamas, quien fue administrador de WebCT en la Universidad Tecnológica de Curtin. Basó su diseño en las ideas del constructivismo en pedagogía que afirman que el conocimiento se construye en la mente del estudiante en lugar de ser transmitido sin cambios a partir de libros o enseñanzas y en el aprendizaje colaborativo. Un profesor que opera desde este punto de vista crea un ambiente centrado en el estudiante que le ayuda a construir ese conocimiento con base en sus habilidades y conocimientos propios en lugar de simplemente publicar y transmitir la información que se considera que los estudiantes deben conocer.
La primera versión de la herramienta apareció el 20 de agosto de 2002 y, a partir de allí han aparecido nuevas versiones de forma regular. Hasta julio de 2008, la base de usuarios registrados incluye más 21 millones, distribuidos en 46.000 sitios en todo el mundo y está traducido a más de 75 idiomas.1

En términos de arquitectura, Moodle es una aplicación web que se ejecuta sin modificaciones en Unix, GNU/Linux, OpenSolaris, FreeBSD, Windows, Mac OS X, NetWare y otros sistemas que soportan PHP, incluyendo la mayoría de proveedores de hosting web.
Los datos son almacenados en una sola base de datos SQL: la versión 1.7 (publicada en noviembre de 2006), hace uso total de abstracción de base de datos para que los instaladores puedan elegir entre alguno de los diversos tipos de servidores de bases de datos (Oracle y Microsoft SQL Server son dos objetivos específicos de sistemas administradores de bases de datos). La versión actual de Moodle (1.9) fue publicada en marzo de 2008. MySQL y PostgreSQL fueron las únicas opciones en Moodle 1.6.
[editar] Instalación de Moodle
Su instalación no es muy diferente a la de otros CMS conocidos hasta el momento. Se debe tener en cuenta la forma en que se desea realizar la instalación: si es de forma integrada (servidores de aplicaciones y de base de datos en un solo servidor físico) o distribuida (servidor de aplicaciones y de base de datos en servidores físicos diferentes). Es recomendada la segunda alternativa, pero en caso de que solamente desee aprender sobre este CMS, utilice la primera opción.
La primera opción puede realizarse con XAMPP y el paquete que viene integrado con PHP, MySQL y Apache, que son necesarios para la instalación. Este paquete se tiene tanto para Linux como para Windows. Una vez instalado esto, únicamente queda desempaquetar Moodle e instalarlo.
También puedes traducir el programa, todos los paquetes de idioma de Moodle están ubicados en el directorio lang, con cada idioma en un único directorio nombrado con la abreviatura del idioma (en, fr, nl, es, ca ...). Puedes bajar el idioma deseado desde aquí http://download.moodle.org/lang16/
Una vez descomprimido el paquete, cópialo en el servidor en la carpeta moodledata/lang.
La próxima vez que accedas a la página principal de Moodle aparecerá para elegir, en la esquina superior derecha, el idioma que has copiado.
Si quieres que el idioma que has copiado sea el idioma por defecto de tu sitio Moodle, debes ir a Idioma -> Ajustes de idioma, en el panel de administración. En idioma por defecto hay que seleccionarlo. Si deseas que los usuarios no tengan la posibilidad de cambiar el idioma de Moodle puedes escribir “es_es” (si es español, dependiendo del idioma cambia) (sin comillas) en “Idiomas del menú de idiomas”. De esta manera aparecerá la plataforma Moodle siempre en el idioma escogido sin la posibilidad de que los usuarios puedan cambiar el idioma.
[Orígenes
Moodle fue creado por Martin Dougiamas, un administrador de WebCT en Curtin University, Australia, y graduado en Ciencias de la Computación y Educación. Su Ph.D. examinó el uso del software abierto para el soporte de una epistemología construccionista social de enseñanza y aprendizaje con comunidades basadas en Internet de investigación reflexiva. Su investigación tiene fuerte influencia en el diseño de Moodle, proporcionando aspectos pedagógicos perdidos en muchas otras plataformas de aprendizaje virtual.
Enfoque pedagógico
La filosofía planteada por Moodle incluye una aproximación constructiva basada en el constructivismo social de la educación, enfatizando que los estudiantes (y no sólo los profesores) pueden contribuir a la experiencia educativa en muchas formas. Las características de Moodle reflejan esto en varios aspectos, como hacer posible que los estudiantes puedan comentar en entradas de bases de datos (o inclusive contribuir entradas ellos mismos), o trabajar colaborativamente en un wiki.
Habiendo dicho esto, Moodle es lo suficientemente flexible para permitir una amplia gama de modos de enseñanza. Puede ser utilizado para generar contenido de manera básica o avanzada (por ejemplo páginas web) o evaluación, y no requiere un enfoque constructivista de enseñanza.
El constructivismo es a veces visto como en contraposición con las ideas de la educación enfocada en resultados, como en los Estados Unidos. La contabilidad hace hincapié en los resultados de las evaluaciones, no en las técnicas de enseñanza o en pedagogía, pero Moodle es también útil en un ambiente orientado al salón de clase debido a su flexibilidad.
Características generales de Moodle
Promueve una pedagogía constructivista social (colaboración, actividades, reflexión crítica, etc.). Su arquitectura y herramientas son apropiadas para clases en línea, así como también para complementar el aprendizaje presencial. Tiene una interfaz de navegador de tecnología sencilla, ligera, y compatible.
La instalación es sencilla requiriendo una plataforma que soporte PHP y la disponibilidad de una base de datos. Moodle tiene una capa de abstracción de bases de datos por lo que soporta los principales sistemas gestores de bases de datos.
Se ha puesto énfasis en una seguridad sólida en toda la plataforma. Todos los formularios son revisados, las cookies cifradas, etc. La mayoría de las áreas de introducción de texto (materiales, mensajes de los foros, entradas de los diarios, etc.) pueden ser editadas usando el editor HTML, tan sencillo como cualquier editor de texto.

viernes, 10 de septiembre de 2010

principios de electrónica

La teoría atómica



comenzó hace miles de años como un concepto filosófico, y fue en el siglo XIX cuando logró una extensa aceptación científica gracias a los descubrimientos en el campo de la estequiometría. Los químicos de la época creían que las unidades básicas de los elementos también eran las partículas fundamentales de la naturaleza y las llamaron átomos (de la palabra griega atomos, que significa "indivisible"). Sin embargo, a finales de aquel siglo, y mediante diversos experimentos con el electromagnetismo y la radiactividad, los físicos descubrieron que el denominado "átomo indivisible" era realmente un conglomerado de diversas partículas subatómicas (principalmenteelectrones, protones y neutrones), que pueden existir de manera separada.


La electricidad:



(del griego elektron, cuyo significado es ámbar) es un fenómeno físico cuyo origen son las cargas eléctricas y cuyaenergía se manifiesta en fenómenos mecánicos, térmicos, luminosos y químicos, entre otros1 2 3 4 , en otras palabras es el flujo deelectrones. Se puede observar de forma natural en fenómenos atmosféricos, por ejemplo los rayos, que son descargas eléctricas producidas por la transferencia de energía entre la ionosfera y la superficie terrestre (proceso complejo del que los rayos solo forman una parte). Otros mecanismos eléctricos naturales los podemos encontrar en procesos biológicos, como el funcionamiento del sistema nervioso. Es la base del funcionamiento de muchas máquinas, desde pequeños electrodomésticos hasta sistemas de gran potencia como los trenes de alta velocidad, y asimismo de todos los dispositivos electrónicos.


Un circuito eléctrico:



es una red eléctrica de componentes, tales como resistencias, inductores, capacitores, fuentes, ysemiconductores que tienen una trayectoria cerrada, y que a su vez, su corriente regresa al punto de origen.


Componente: Un dispositivo con dos o más terminales que puede fluir carga dentro de él. En la figura 1 se ven 8 componentes entre resistores y fuentes.
Nodo: Punto de un circuito donde concurren varios conductores distintos. A, B, D, E son nodos. C no es un nodo porque es el mismo nodo A al no existir entre ellos diferencia de potencial (VA - VC = 0).
Rama: Conjunto de todos los elementos de un circuito comprendidos entre dos nodos consecutivos. En la figura 1 se hallan siete ramales: AB por la fuente, AB por R1, AD, AE, BD, BE y DE. Obviamente, por un ramal sólo puede circular una corriente.
Malla: Un grupo de ramas que están unidas en una red y que a su vez forman un lazo.
Fuente:Componente que se encarga de convertir energía cinética en energía eléctrica. En el circuito de la figura 1 hay tres fuentes, una de intensidad, I, y dos de tensión, E1 y E2.
Conductor: Comúnmente llamado cable; es un hilo de resistencia despreciable (idealmente cero) que une los elementos para formar el circuito.


circuitos electrónicos:



Circuito digital: Circuitos que trabajan con señales digitales como los computadores, los controladores lógicos programables, los relojes electrónicos, entre otros.
Circuitos de señal mixta: contienen componentes analógicos y digitales. Los conversores analógico-digital y los conversores digital-analógico son los principales ejemplos.
Circuitos de corriente alterna: Son aquellos circuitos donde varía cíclicamente la corriente eléctrica.
Circuitos de primer orden: Son aquellos que contienen solo un elemento que almacena energía.


El electromagnetismo:



es una rama de la Física que estudia y unifica los fenómenos eléctricos y magnéticos en una sola teoría, cuyos fundamentos fueron sentados por Michael Faraday y formulados por primera vez de modo completo por James Clerk Maxwell. La formulación consiste en cuatro ecuaciones diferenciales vectoriales que relacionan elcampo eléctrico, el campo magnético y sus respectivas fuentes materiales (corriente eléctrica, polarización eléctrica ypolarización magnética), conocidas como ecuaciones de Maxwell.


Principios básicos de electricidad



Átomos y electrones
Toda la materia del universo está constituida por átomos. La Tabla Periódica de los Elementos enumera todos los tipos conocidos de átomos y sus propiedades. El átomo está compuesto de tres partículas básicas:


• Electrones: Partículas con carga negativa que giran alrededor del núcleo
• Protones: Partículas con carga positiva.
• Neutrones: Partículas sin carga (neutras).

• Ley de Coulomb: Las cargas opuestas se atraen y las cargas iguales se repelen.
• Modelo de Bohr: Los protones tienen cargas positivas y los electrones tienen cargas negativas.
El voltaje se denomina a veces "fuerza electromotriz" (EMF) La EMF es una fuerza eléctrica o presión que se produce cuando los electrones y protones se separan. La fuerza que se crea va empujando hacia la carga opuesta en dirección contraria a la de la carga de igual polaridad. Este proceso se produce en una batería, donde la acción química hace que los electrones se liberen de la terminal negativa de la batería.



Las fuentes de poder:

para dispositivos electrónicos, pueden clasificarse básicamente como fuentes de alimentación lineales y conmutadas. Las lineales tienen un diseño relativamente simple, que puede llegar a ser más complejo cuanto mayor es la corrienteque deben suministrar, pero sin embargo su regulación de tensión es poco eficiente. Una fuente conmutada, de las misma potencia que una lineal, será más pequeña y normalmente más eficiente pero será más compleja y por tanto más susceptible a averías.
Fuentes de poder lineales
Las fuentes lineales siguen el esquema: transformador, rectificador, filtro, regulación y salida.
En primer lugar el transformador adapta los niveles de tensión y proporciona aislamiento galvánico. El circuito que convierte la corriente alterna en continua se llama rectificador, después suelen llevar un circuito que disminuye el rizado como un filtro de condensador. La regulación, o estabilización de la tensión a un valor establecido, se consigue con un componente denominado regulador de tensión. La salida puede ser simplemente un condensador.
Fuentes de poder conmutadas
Una fuente conmutada es un dispositivo electrónico que transforma energía eléctrica mediante transistores en conmutación. Mientras que un regulador de tensión utiliza transistores polarizados en su región activa de amplificación

La electrónica analógica:



es una parte de la electrónica que estudia los sistemas en los cuales sus variables; tensión, corriente, ..., varian de una forma continua en el tiempo, pudiendo tomar infinitos valores (teóricamente al menos). En contraposición se encuentra la electrónica digitaldonde las variables solo pueden tomar valores discretos, teniendo siempre un estado perfectamente definido.
Pongamos un ejemplo:
Disponemos de una medida real concreta; la longitud total de un coche, por ejemplo.
En un sistema digital esta medida podría ser de 4 metros o de 4 metros y 23 centímetros. Podremos darle la precisión que queramos pero siempre serán cantidades enteras
En un sistema analógico la medida seria la real; es decir 4,233648596... en teoría hasta que llegásemos a la mínima cantidad de materia existente (siempre que el sistema de medida sea lo suficientemente exacto).



La electrónica digital:



es una parte de la electrónica que se encarga de sistemas electrónicos en los cuales la información está codificada en dos únicos estados. A dichos estados se les puede llamar "verdadero" o "falso", o más comúnmente 1 y 0, refiriéndose a que en un circuito electrónico digital hay dos niveles de tensión.
Electrónicamente se les asigna a cada uno un voltaje o rango de voltaje determinado, a los que se les denomina niveles lógicos, típicos en toda señal digital. Por lo regular los valores de voltaje en circuitos electrónicos pueden ir desde 1.5, 3, 5, 9 y 18 voltios dependiendo de la aplicación, así por ejemplo, en una radio de transistores convencional las tensiones de voltaje son por lo regular de 5 y 12 voltios al igual que se utiliza en los discos duros IDE de computadora.
Se diferencia de la electrónica analógica en que, para la electrónica digital un valor de voltaje codifica uno de estos dos estados, mientras que para la electrónica analógica hay una infinidad de estados de información que codificar según el valor del voltaje.
Esta particularidad permite que, usando Álgebra Booleana y un sistema de numeración binario, se puedan realizar complejas operaciones lógicas o aritméticas sobre las señales de entrada, muy costosas de hacer empleando métodos analógicos.
La electrónica digital ha alcanzado una gran importancia debido a que es utilizada para realizar autómatas y por ser la piedra angular de los sistemas microprogramados como son losordenadores o computadoras.

sábado, 10 de julio de 2010

tecnologia de la comunicaciòn

La telecomunicación (del prefijo griego , "Lejania" y del latín así que para nosotros significa algo como, "comunicación a distancia") es una técnica consistente en transmitir un mensaje desde un punto a otro, normalmente con el atributo típico adicional de ser bidireccional. El término' 'telecomunicación cubre todas las formas de comunicación a distancia, incluyendo radio, telegrafía, televisión, telefonía, transmisión de datos e interconexión de computadoras a nivel de enlace. El Día Mundial de la Telecomunicación se celebra el 17 de mayo. Telecomunicaciones, es toda transmisión, emisión o recepción de signos, señales, datos, imágenes, voz, sonidos o información de cualquier naturaleza que se efectúa a través de cables, radioelectricidad, medios ópticos, físicos u otros sistemas electromagnéticos.

HISTORIA:
las telecomunicaciones, comienzan en la primera mitad del siglo XIX con el telégrafo eléctrico, que permitió el enviar mensajes cuyo contenido eran letras y números. A esta invención se le hicieron dos notables mejorías: la adición, por parte de Charles Wheatstone, de una cinta perforada para poder recibir mensajes sin que un operador estuviera presente, y la capacidad de enviar varios mensajes por la misma línea, que luego se llamó telégrafo múltiple, añadida por Emile Baudot.
Más tarde se desarrolló el teléfono, con el que fue posible comunicarse utilizando la voz, y posteriormente, la revolución de la comunicación inalámbrica: las ondas de radio.
A principios del siglo XX aparece el teletipo que, utilizando el código Baudot, permitía enviar texto en algo parecido a una máquina de escribir y también recibir texto, que era impreso por tipos movidos por relés. El término telecomunicación fue definido por primera vez en la reunión conjunta de la XIII Conferencia de la UTI (Unión Telegráfica Internacional) y la III de la URI (Unión Radiotelegráfica Internacional) que se inició en Madrid el día 3 de septiembre de 1932. La definición entonces aprobada del término fue: "Telecomunicación es toda transmisión, emisión o recepción, de signos, señales, escritos, imágenes, sonidos o informaciones de cualquier naturaleza por hilo, radioelectricidad, medios ópticos u otros sistemas electromagnéticos".
El siguiente artefacto revolucionario en las telecomunicaciones fue el módem que hizo posible la transmisión de datos entre computadoras y otros dispositivos. En los años 60 comienza a ser utilizada la telecomunicación en el campo de la informática con el uso de satélites de comunicación y las redes de conmutación de paquetes.'La década siguiente se caracterizó por la aparición de las redes de computadoras y los protocolos y arquitecturas que servirían de base para las telecomunicaciones modernas (en estos años aparece la ARPANET, que dio origen a la Internet). También en estos años comienza el auge de la normalización de las redes de datos: el CCITT trabaja en la normalización de las redes de conmutación de circuitos y de conmutación de paquetes y la Organización Internacional para la Estandarización crea el modelo OSI. A finales de los años setenta aparecen las redes de área local o LAN.
En los años 1980, cuando los ordenadores personales se volvieron populares, aparecen las redes digitales. En la última década del siglo XX aparece Internet, que se expandió enormemente, ayudada por la expansión de la fibra óptica; y a principios del siglo XXI se están viviendo los comienzos de la interconexión total a la que convergen las telecomunicaciones, a través de todo tipo de dispositivos que son cada vez más rápidos, más compactos, más poderosos y multifuncionales, y también de nuevas tecnologías de comunicación inalámbrica como las redes inalámbricas.
Consideraciones de diseño de un sistema de telecomunicación
Los elementos que integran un sistema de telecomunicación son un transmisor, una línea o medio de transmisión y posiblemente, impuesto por el medio, un canal y finalmente unreceptor. El transmisor es el dispositivo que transforma o codifica los mensajes en un fenómeno físico, la señal. El medio de transmisión, por su naturaleza física, es posible que modifique o degrade la señal en su trayecto desde el transmisor al receptor debido a ruido, interferencias o la propia distorsión del canal. Por ello el receptor ha de tener un mecanismo de decodificación capaz de recuperar el mensaje dentro de ciertos límites de degradación de la señal. En algunos casos, el receptor final es el oído o el ojo humano (o en algún caso extremo otros órganos sensoriales) y la recuperación del mensaje se hace por la mente.
La telecomunicación puede ser punto a punto, punto a multipunto o teledifusión, que es una forma particular de punto a multipunto que funciona solamente desde el transmisor a los receptores, siendo su versión más popular la radiodifusión.
La función de los ingenieros de telecomunicación es analizar las propiedades físicas de la línea o medio de comunicación y las propiedades estadísticas del mensaje a fin de diseñar los mecanismos de codificación y decodificación más apropiados. Cuando los sistemas están diseñados para comunicar a través de los órganos sensoriales humanos (principalmente vista y oído), se deben tener en cuenta las características psicológicas y fisiológicas de percepción humana. Esto tiene importantes implicaciones económicas y el ingeniero investigará que defectos pueden ser tolerados en la señal sin que afecten excesivamente a la visión o audición, basándose en conceptos como el límite de frecuencias detectables por los órganos sensoriales humanos.
Posibles imperfecciones en un canal de comunicación son: ruido impulsivo, ruido de Johnson-Nyquist (también conocido como ruido térmico), tiempo de propagación, función de transferencia de canal no lineal, caídas súbitas de la señal (microcortes), limitaciones en el ancho de banda y reflexiones de señal (eco). Muchos de los modernos sistemas de telecomunicación obtienen ventaja de algunas de estas imperfecciones para, finalmente, mejorar la calidad de transmisión del canal.
Los modernos sistemas de comunicación hacen amplio uso de la sincronización temporal. Hasta la reciente aparición del uso de la telefonía sobre IP, la mayor parte de los sistemas de comunicación estaban sincronizados a relojes atómicos o a relojes secundarios sincronizados a la hora atómica internacional, obtenida en la mayoría de los casos vía GPS.
Ya no es necesario establecer enlaces físicos entre dos puntos para transmitir la información de un punto a otro. Los hechos ocurridos en un sitio, ocurren a la misma vez en todo el mundo. Nos adentramos en una nueva clase de sociedad en la que la información es la que manda. El conocimiento es poder, y saber algo es todo aquello que se necesita. En Europa la sociedad de la información se creó como respuesta de la Comunidad Europea al crecimiento de las redes de alta velocidad de los Estados Unidos y su superioridad tecnológica.

Otros aspectos de interés
El científico de los laboratorios Bell Claude E. Shannon publicó en 1948 un estudio titulado Una teoría matemática de la comunicación. Esta publicación fue un hito para la realización de los modelos matemáticos usados para describir sistemas de comunicación, dentro de la denominada teoría de la información. La teoría de la información nos permite evaluar la capacidad de un canal de comunicación de acuerdo con su ancho de banda y su relación señal-ruido.
En la fecha de la publicación de Shannon, los sistemas de telecomunicación estaban basados, predominantemente, en circuitos electrónicos analógicos. La introducción masiva decircuitos integrados digitales ha permitido a los ingenieros de telecomunicación aprovechar completamente las ventajas de la teoría de la información, emergiendo, a partir de la demanda de los fabricantes de equipos de telecomunicación, un área especializada en el diseño de circuitos integrados llamada procesamiento de señales digitales.