Regístrese en PayPal y empiece a aceptar pagos con tarjeta de crédito instantáneamente. --

jueves, abril 30, 2009

Los creadores de 'spam' se aprovechan del virus de la gripe porcina


MADRID - La alarma provocada por la gripe porcina hace que los creadores de 'spam', los correos electrónicos enviados masivamente con fines publicitarios, se aprovechen de ella para estafar a sus destinatarios o dañar sus ordenadores, según una sociedad especializada.

"Los 'spammers' rápidamente han aprovechado esta situación de alerta para extender sus campañas de 'spam'", explicó la compañía japonesa de seguridad informática Trend Micro en un comunicado difundido este jueves en Madrid.


"Ya se han detectado casos de correo basura con mensajes del tipo '¡La gripe porcina afecta a todo el mundo!' o '¡Brote de gripe porcina!'", según Trend Micro, que subrayó que los creadores de este tipo de mensajes aumentan "fuertemente" la posibilidad de que sus correos sean abiertos al utilizar las palabras "gripe porcina" en el título de sus mensajes.


"La gripe porcina se ha convertido en un virus informático que aprovecha el miedo, la confusión y el interés por la información disponible en la 'web' (...) para propagar códigos maliciosos, correos electrónicos basura e infectar equipos informáticos", avisó Juan Pablo Castro, responsable tecnológico de Trend Micro para América Latina.


Trend Micro es una empresa fundada en 1988 que comercializa programas para combatir y protegerse de virus informáticos.


En Japón, el Instituto Nacional de Enfermedades Infecciosas (INMI) advirtió este jueves en su página internet de que varios usuarios recibieron un correo electrónico enviado falsamente por la entidad acompañado de un documento adjunto titulado "Información sobre la gripe porcina" que contenía un virus informático.

Google hace búsquedas online para hacer un mapa de la gripe porcina en México


SAN FRANCISCO, EEUU - Google.org, el brazo filantrópico del gigante de internet, inició el miércoles una investigación 'online' respecto al tráfico por internet en México sobre la gripe porcina para crear un mapa que dé pistas sobre la expansión de la dolencia en ese país.


Google.org ha estado haciendo algo parecido con relación a Estados Unidos en su sitio web 'Google Flu Trends' (tendencias de la gripe por Google), pero la expansión mundial de la enfermedad lo llevó a extender su investigación a México, para obtener un alcance mayor.


"Hemos lanzado 'Google Flu Trends' después de haber descubierto que existe una relación cercana entre las búsquedas de temas vinculados a la gripe con el hecho de que mucha gente tenga síntomas de la enfermedad", dijeron los ingenieros de software de Google Jeremy Ginsberg y Matt Mohebbi en un blog en el sitio de la firma de Mountain View.


"Google Flu Trends puede ser capaz de detectar brotes de gripe incluso antes de otros sistemas, puesto que estima la actividad de la dolencia en tiempo real", explicaron.

Disney se une a NBC y Fox en el sitio de vídeos Hulu


NUEVA YORK - El grupo estadounidense de medios Disney anunció este jueves que se sumaba a sus competidores de NBC Universal (grupo General Electric) y Fox (News Corporation) al capital del sitio de vídeos en internet Hulu, competidor del líder YouTube, que pertenece a Google.

Disney no especificó el monto de su participación en Hulu, ni cómo será el nuevo reparto de las partes de la sociedad.


No obstante, indicó que tres de sus responsables -entre los cuales su director general Robert Iger- se unirían a los ocho administradores del Consejo de Administración de la empresa fundada en 2007.


Hulu ya cuenta entre sus accionistas con NBC Universal, News Corp y el fondo de inversión Providence Equity Partners.


Con la participación de Disney, que ofrecerá en Hulu sus exitosos programas de televisión como 'Grey's Anatomy' ('Anatomía de Grey') y películas de Walt Disney, Hulu debería confirmar su avance entre los sitios de vídeos.

lunes, abril 27, 2009

Photoshop se convierte en red social

Adobe ha llevado un paso más allá su popular programa de edición de imágenes Photoshop. La compañía se ha unido a la moda más en alza de la Red y ha construido una red social dedicada al programa, donde sus usuarios podrán encontrar y compartir todo lo que deseen.

'Photoshop Marketplace' quiere ser la página definitiva de la nutridísima comunidad de usuarios del programa más popular y aclamado de edición de imágenes. Mezcla conceptos como tienda de productos on-line, enciclopedia de conocimientos sobre Photoshop y web 2.0, construida como una red social al estilo de Tuenti o Facebook.

Adobe quiere lanzar el portal completo en verano y por eso ya anima a compañías y organizaciones a que "cuelguen" sus aplicaciones, herramientas, ampliaciones, usos en el campo de la docencia, etc. Según informa Betanewsodos estos contenidos pueden ser probados y puntuados por la comunidad de usuarios.

Photoshop Marketplace se lanzará al mismo tiempo que otro portal similar dedicado a Adobe AIR, el entorno para construcción de aplicaciones para Internet RIA (Rich Internet Applications).

Yes.fm crece un 58% en marzo


La radio por 'streaming' española más popular sigue creciendo imparable, tanto en catálogo como en escuchas. En el pasado mes de febrero Yes.fm alcanzó las 830.000 visitas y experimentó un crecimiento del 58 por ciento. Además, está rozando los 600.000 usuarios únicos y acaba de estrenar con éxito una aplicación específica para iPhone e iPod Touch.

Para el director de contenidos de la radio on-line, Kiko Fuentes, "estas cifras muestran que www.yes.fm es la referencia de la música 2.0 en España y, sobre todo, que existen alternativas de éxito al consumo tradicional de música".

El 'streaming' da la posibilidad de escuchar música a través de Internet sin necesidad de descargarla. Casi 600,000 amantes de la música han encontrado en www.yes.fm su aliado perfecto para escuchar, ordenar y descubrir grupos similares a sus cantantes preferidos.

"La escucha contenidos musicales por 'streaming' ofrece muchas ventajas a los usuarios, puesto que no exige ocupar espacio en los ordenadores para almacenar la música, amen de la posibilidad de tener un archivo fonográfico de más de dos millones de canciones perfectamente ordenadas y a tu disposición las 24 horas del día, los 7 días a la semana", ha argumentado Fuentes.

Además. www.yes.fm ha sido el primer servicio en lanzar una aplicación gratuita para dispositivos iPhone e iPod que permite a los usuarios acceder a su cuenta y a todas sus prestaciones desde su teléfono móvil, para que la escucha de su música preferida no tenga límites. "Una muestra de la gran acogida que está teniendo nuestro servicio es que al día siguiente de anunciar la disponibilidad de la aplicación, se convirtió en el número uno de descargas en iTunes", ha añadido Fuentes.

'Assassin's Creed' llega a iPhone e iPod Touch


Uno de los juegos más populares y punteros técnicamente de esta generación está a punto de aterrizar en una plataforma que no nació como consola de videojuegos pero que ha despuntado en este terreno. El primer 'Assassin's Creed' desembarcará en iPhone e iPod Touch con un vistoso apartado gráfico.

El primer 'Assassin's Creed' transporta a los jugadores al año 1191 después de cristo, en las Cruzadas. El protagonista del juego es Altair, miembro de una orden de asesinos que ejecutan a personas supuestamente malvadas para alcanzar un bien mayor. A pesar de su ambientación de época, en realidad el juego esconde una interesante trama de ciencia ficción.

El protagonista y el guión serán los mismos que en la entraga para Playstation 3 y Xbox 360 pero el desarrollo recordará a la entrega para Nintendo DS, 'Altair Chronicles'. Será un plataformas con unos gráficos en 3D espectaculares que está siendo desarrollado por GameLoft.

En esta nueva aventura, Altair podrá moverse en diferentes planos del escenario, por los que podrá saltar con su característica habilidad. Tampoco faltarán las peleas con soldados y con los caballeros de la orden del Temple. Para vencer podremos usar hasta seis armas diferentes: espada, daga, bomba de humo, ballesta, bomba explosiva y gancho.

Además, habrá minijuegos como robar para conseguir pistas con las que avanzar en las misiones. Por supuesto, el fin último de éstas será asesinar a los objetivos que nuestro jefe nos vaya marcando y así acercarnos a un misterioso artefacto que podría terminar con las Cruzadas.

Algunas características del 'Assassin's Creed' para iPhone e iPod Touch es que tendrá unos gráficos bastantes superiores a los que mostraba la entrega para Nintendo DS o que su precio se prevé que será de 9,99 euros, lo que representaría un máximo en los juegos de la plataforma. Eso sí, su duración rondará las 3 horas.

Google augura un año "muy fuerte" para Android

Mientras que Nokia ha sufrido malas ventas en el primer trimestre del año y Apple ha aumentado un 123 por ciento las de su iPhone con respecto al mismo periodo de 2009, la industria se pregunta: ¿Qué pasará con Android? No paran de surgir nuevos modelos que están a punto de llegar a nuestro país con el sistema operativo y Google mira el futuro con optimismo.

La compañía del buscador tiene muchas esperanzas puestas en su sistema operativo para este 2009. La competencia es dura pero muchas compañías se han mostrado ya interesadas en desarrollar dispositivos que trabajen con Android.

De esta forma, el Consejero Delegado de Google, Eric Schmidt, ha avanzado esta semana -coincidiendo con el anuncio de los resultados económicos de la compañía- que a lo largo de este año se anunciarán proyectos "bastante significativos" en este terreno, según recoge la publicación especializada Computer World.

Schmidt ha destacado que "muchas compañías" han comenzado a desarrollar dispositivos que funcionan con Android por su cuenta y riesgo y no bajo la producción de Google, como ocurrió por ejemplo con el famoso HTC Dream, el primer móvil con este sistema operativo.

También se ha hablado mucho sobre el salto de Android al terreno de los ordenadores, concretamente de los 'netbooks' o ultraportátiles. En este sentido, se rumorea que la empresa Asustek Computer, pionera en este mercado, está trabajando en un Eee que utilice el sistema operativo de Google.

Android podría convertirse en un gran dolor de cabeza para Microsoft, que llegó algo tarde al mercado de los 'netbooks', cuyos primeros modelos apostaron por Linux y después se abrieron a XP debido a la gran demanda del público por Windows. Por este motivo, la de Redmond está desarrollando una versión algo limitada específicamente creada para 'netbooks' de Windows 7, la próxima versión de su sistema operativo.

viernes, abril 24, 2009

Implantes tecnológicos



Aumentan las soluciones quirúrgicas que incluyen terminaciones artificiales para el cuerpo humano

Una motorista circula por una calzada urbana y de repente se detiene en un semáforo porque una notificación holográfica que sale de su casco le avisa de que su cerebro acaba de recibir un mensaje de correo electrónico. Esta estampa pertenece a un cómic, pero tal vez un día no tan lejano llegue a ser real. La utilización de dispositivos electrónicos que añadan capacidades extras a los seres humanos se ha desarrollado en las últimas décadas en el ámbito de las historias de ciencia ficción, donde creadores distópicos se imaginan un futuro dominado por las máquinas. Mientras, en el mundo real los científicos continúan diseñando aparatos que mejoran la calidad de vida humana.

Recambios sintéticos


En la actualidad, los implantes más avanzados se utilizan dentro del campo de la medicina. Marcapasos o prótesis de titanio son de uso corriente en hospitales de todo el mundo desde hace décadas. Los marcapasos contienen una pila que alimenta a un motor que manda impulsos eléctricos al corazón para mantenerlo tonificado y estable. El titanio se utiliza asimismo para prótesis de caderas y ensamblaje de huesos dadas sus propiedades de poco peso y elevada resistencia a la torsión y a la corrosión.

Pero estos dos ejemplos no son los únicos: otras partes del cuerpo también reciben implantes que mejoran la calidad de vida de las personas, como la reconstrucción del tejido óseo mediante material sintético reabsorbible (el fosfato de calcio), las prótesis de rodilla, el corazón artificial o los implantes dentales de metales (incluido el titanio).

Además, diversos tipos de prótesis espectaculares han prosperado en los últimos años. Un ejemplo interesante por las implicaciones que tiene, no sólo prácticas sino también emocionales, son las manos artificiales que responden a las señales eléctricas procedentes del cerebro. Con la llegada de la señal, músculos y tendones se contraen de manera coordinada y el sujeto puede coger objetos o gesticular con los dedos de un modo más o menos ágil.

También destacan los implantes de oído, que estimulan mediante señales eléctricas el nervio auditivo aumentando la capacidad de escucha; o las retinas artificiales que permiten a determinados invidentes recibir ciertas señales y por tanto ver, aunque sean sombras o perfiles. Estos dos tipos de implante ya se encuentran disponibles en el mercado para pacientes que puedan permitirse su coste, que es en la mayoría de los casos muy elevado.

Por ejemplo, una pierna artificial C-Leg, que está provista de la primera rodilla modular con la fase de apoyo e impulsión controlada por microprocesadores, tiene un coste superior a los 50.000 euros. Ahora bien, el paciente que incorpore está pierna podrá andar con un alto grado de normalidad e incluso correr y hacer deporte. De hecho, de cara al futuro se espera popularizar este tipo de implantes y reducir su precio, de modo que puedan llegar al mayor número posible de personas que los precisen.

De momento, muchos de estos dispositivos están en fase de desarrollo. Por ejemplo, en el caso de las retinas, actualmente disponen de una resolución muy escasa que da una visión parcial, aunque lo suficiente como para poder distinguir objetos y el movimiento de los mismos. Se estima que la visión humana está situada en torno a los 200 megapíxeles aunque al cerebro sólo llega una imagen de entre 1 y 1,5 megapixeles; estas retinas sólo pueden ofrecer por ahora unos cientos de píxeles de resolución.

Implantes minúsculos
Científicos del Instituto Tecnológico de Massachusetts están desarrollando un dispositivo del tamaño de una célula que sea capaz de calcular el crecimiento de un tumor y controlarlo
Por su parte, la nanotecnología (dispositivos microscópicos) también está jugando un papel importante en los implantes tecnológicos. Científicos del MIT (Instituto Tecnológico de Massachusetts) están desarrollando un dispositivo del tamaño de una célula que sea capaz de calcular el crecimiento de un tumor y controlar del mismo modo su tratamiento mediante el análisis de diferentes sustancias, como la glucosa y el oxigeno.

En el caso del cerebro, las tecnologías actuales están ensayando con diferentes dispositivos que mandan señales eléctricas a las partes más profundas del mismo para estimular los núcleos subtalámicos y mantenerlos tonificados, ya que son unas de las partes que se ven afectadas en la enfermedad de Parkinson.

Para mejorar las respuestas neuronales en determinadas enfermedades, científicos de la Universidad de Texas han ideado una técnica mediante el uso de nanotubos de carbono, logrando un mejor rendimiento en las terapias mediante estimulación eléctrica. En este sentido, los implantes cerebrales se han convertido en los más controvertidos por la capacidad que puedan tener de interferir en los actos de los individuos y manipular su voluntad.

A medio plazo, este tipo de implantes servirá para detectar problemas de salud como diabetes, cáncer o coronarios. Sin embargo, estas tecnologías también se están desarrollando para usos más lúdicos, como el desarrollo de un implante mamario con reproductor de MP3 incluido, según explicaron hace unos años los responsables de los laboratorios de BT.

Chips subcutáneos
Más cercanos en el tiempo, entre los implantes más generalizados están los chips insertados bajo la piel. En España, este tipo de chips es utilizado por los veterinarios para identificar a los animales domésticos. Sin embargo, existen diferentes variantes más desarrolladas que permiten el control de la ubicación de la persona o animal que lleve el chip insertado mediante tecnología de radiofrecuencia. Esta variante se usa en Inglaterra para tener controlados a determinados delincuentes.


Una de las empresas que comercializa estos chips es VeriChip. Dispone de varios productos en el mercado, algunos de ellos pensados para enfermos de Alzheimer, a los cuales se les implanta un chip que integra tecnología RFID (Radio Frequency Identification). De esta manera, pueden ser identificados y controlar su posición por si se pierden. También si algún sanitario encuentra a estas personas perdidas, puede tener acceso a su historial con el desarrollo de la enfermedad, así como a sus datos personales, lugar de residencia, personas de contacto, etc.

Este tipo de chips, que no necesitan baterías, puede ser leído de forma inalámbrica con un dispositivo apropiado. Ello genera una serie de problemas éticos y de privacidad, ya que suponen un acceso poco blindado a datos personales de los individuos y con bajos niveles de seguridad en la protección de los mismos.

Otro aspecto que se debe tener en cuenta y que genera reticencias alrededor de estas tecnologías es que algunos estudios realizados sobre animales parecen haber encontrado una relación entre la implantación de chips RFID y la aparición de algunos tumores malignos. Actualmente se está analizando si estos tumores han sido fruto del implante, sin que por el momento se hayan extraído conclusiones.

Críticos con los implantes tecnológicos
En 2005, el Grupo Europeo de expertos en Ética, Ciencias y Tecnologías (GEE), presidido por el filósofo sueco Göran Hermerén, concluyó que los usos no médicos de los implantes tecnológicos en el cuerpo humano son "una amenaza potencial a la dignidad y a la sociedad democrática". Según el GEE, los implantes tecnológicos son éticos y no problemáticos, por ejemplo, si pensamos en los marcapasos. Sin embargo, si bien unos implantes se pueden utilizar para reparar capacidades corporales deficientes, otros son más cuestionables desde el punto de vista ético, particularmente si tales dispositivos son accesibles desde redes digitales.

Tanto los implantes médicos como los no médicos requieren claramente un "consentimiento informado", advierte el GEE. Esta información no debe referirse solamente a las ventajas y riesgos ligados a la salud del portador, sino también a los posibles riesgos de que tales dispositivos sean usados para localizar a estas personas y para obtener la información almacenada en los mismos sin previo consentimiento. Además, debe tenerse en cuenta la ética de la inviolabilidad del cuerpo humano, no como una barrera al avance de la ciencia y la tecnología, sino como el límite para no caer en un uso erróneo.

Por otra parte, consideran que es necesaria una regulación, ya que actualmente los implantes tecnológicos no médicos en el cuerpo humano no son cubiertos explícitamente por la legislación existente. En opinión de algunos expertos, los implantes tecnológicos que tienen fines médicos deberían ser regulados de la misma manera que las drogas.

El transhumanismo, ¿realidad o ficción?
El transhumanismo se sitúa en las antípodas del Grupo Europeo de expertos en Ética, Ciencias y Tecnologías (GEE). Se trata de una corriente filosófica y cultural que ve la necesidad de mejorar la condición humana mediante el uso de tecnologías que aumenten las capacidades físicas actuales. Esta corriente de pensamiento se basa en el uso de la razón, sustentada en los derechos humanos y en los ideales promovidos por las escuelas de la ilustración y el humanismo.

El movimiento fue descrito por Julian Huxley en los años 50 del siglo pasado, pero hasta la década de los 80 no consiguió el apoyo para convertirse en una corriente de pensamiento apoyada por científicos, artistas y futuristas.

Los transhumanistas piensan que tecnologías ya existentes, y otras que están en vías de desarrollo, aplicadas a gran escala, modificarán la sociedad de igual forma que lo han hecho las tecnologías informáticas. Consideran que se pueden superar las actuales limitaciones biológicas mediante tecnologías que hagan a los seres humanos más saludables, longevos y con una mayor capacidad intelectual, física y emocional. Para ello, exponen avances como la genética, la nanotecnología o la inteligencia artificial.

Uno de los aspectos más destacables (y pintorescos) de este movimiento filosófico es el relacionado con la evolución humana. Los teóricos del transhumanismo consideran que se deberá adoptar una serie de medidas basadas en tecnología para acelerar la evolución de los humanos. Entre otras propuestas, se considera necesario realizar modificaciones en distintas partes del cuerpo humano, como el cerebro, el sistema nervioso o los receptores del cuerpo. De esta forma, la evolución humana pasará de ser una línea recta a una curva exponencial, donde en un corto periodo de tiempo se podrán conseguir habilidades actualmente inimaginables.

En este sentido, el transhumanismo sostiene que las maquinas llegarán a superar al ser humano en cuanto a inteligencia, cualidades físicas y emocionales. En este momento, tal y como sostiene Ray Kurzweil, científico, escritor y experto en sistemas de inteligencia artificial, se producirá la denominada singularidad tecnológica. Es decir, las máquinas harán avanzar exponencialmente su capacidad sin la intervención del hombre y sin que éste sea capaz de comprender los avances que se han realizado, ya que escapan a su capacidad intelectual y razonamientos. Por tanto, la única manera que tendrán las personas de interactuar con estas máquinas será mediante implantes tecnológicos que las pongan a su altura.

Los extropianos
El movimiento paroxista de los extropianos surge como una rama de los transhumanistas. Comparten con estos las ideas de mejorar el cuerpo humano mediante el uso de la tecnología, sin embargo, los extropianos consideran que estos planteamientos para mejorar y desarrollar la vida no deben estar basados en ninguna creencia dogmática. En último extremo, los extropianos apoyan la idea de prescindir del cuerpo humano y desarrollarse y vivir dentro de un sistema en red. Sus principios se basan en la búsqueda de duración indefinida de la vida, la supresión de los limites políticos, culturales o biológicos, la autotransformación y el uso de la tecnología.

jueves, abril 23, 2009

Un robot 'cariñoso' ayudará a los niños hospitalizados en su recuperación


Probo, un robot forrado de peluche destinado a ayudar a la curación de los niños hospitalizados, ha sido presentado hoy por científicos belgas, una primicia que podría llegar al mercado el año próximo.

Dotado de 20 motores, una cámara y un potente ordenador, Probo está preparado para desplazarse, hablar, reconocer las expresiones del rostro de sus interlocutores, interpretar las emociones y reaccionar en consonancia.

Además, el aparato también expresa sus emociones, y el objetivo de sus creadores es que los niños establezcan un puente emocional con él para ayudar a su curación.

El primer "robot para abrazar"

Forrado de suave y blando peluche verde, con una forma que recuerda a un elefante y grandes ojos que se mueven, Probo afirma ser "el primer robot para abrazar" en una pantalla táctil en su vientre, con la que también podrán interactuar los niños.

"Apenas hay robots que interactúan con seres humanos", ha señalado Dirk Lefeber, un investigador de la Universidad Libre de Bruselas (VUB), durante la presentación del prototipo.

Tras construir este prototipo después de cuatro años de trabajo, la VUB prevé que a partir de un año podrá comenzar a comercializar nuevas unidades de Probo a un precio de unos 50.000 euros cada una.

Ingenieros estadounidenses desarrollan un sistema para hacer ecografías con el teléfono móvil


Pronto no será imprescindible ir a un centro de salud para hacerse una ecografía, ya que bastará con conectar el móvil a una pequeña sonda a través de un dispositivo USB para recoger las imágenes y enviarlas a cualquier parte del mundo.

Uno de los inventores de la sonda, tan pequeña que cabe en la palma de la mano, asegura que podría convertirse en "el ordenador esencial del mundo en desarrollo".

Los dos ingenieros de la Universidad de Washington en Saint Louis (EEUU), William Richard y David Zar, han indicado que "la medicina del siglo XXI se diagnostica por imagen", aunque han reconocido que 70% de la población mundial no tiene acceso a resonancias magnéticas o a escáneres.

Desarrollo

El objetivo del nuevo sistema, financiado con 100.000 dólares (77.000 euros) por Microsoft, es preparar a las zonas remotas del mundo en desarrollo para que recojan las imágenes y las envíen a una unidad centralizada. Algunas sondas cuestan menos de 2.000 dólares (unos 1.530 euros), y la propuesta es que valgan 500 (385 euros).

Para que las sondas funcionaran con los teléfonos inteligentes, llamados smartphones, los investigadores han tenido que optimizar cada aspecto de su diseño y funcionamiento, desde el consumo de energía y la transferencia de datos hasta los algoritmos de formación de imágenes.

Función militar

El sistema es prometedor para los pacientes de distrofia muscular de Duchenne, una enfermedad degenerativa que se puede ralentizar mediante esteroides. La posibilidad de hacer ecografías del tejido muscular de estos pacientes permite conocer la eficacia de las hormonas y poder ajustar las dosis.

En ese sentido, los dos pioneros del proyecto pretenden colaborar con el Instituto de Tecnología de Massachusets (MIT) para integrar su concepto de sonda-teléfono inteligente en una serie de pruebas médicas sobre el terreno en países en desarrollo.

Una de sus aplicaciones puede ser también la militar, ya que el sistema permitiría a los médicos diagnosticar con rapidez la extensión de las heridas de un soldado para tratarle con mayor eficacia.

martes, abril 21, 2009

TDT: como pasar de la tele en blanco y negro al color

Para acceder a la TDT, hemos de comprobar que la cobertura está asegurada, adaptar la antena colectiva del edificio y comprar un receptor externo, o un televisor que lo incluya


Comienza la cuenta atrás. Dentro de un año, este mismo mes, la televisión analógica descansará en paz. El 4 de abril de 2010 diremos adiós definitivamente a esta tele y seremos testigos de la coronación de la TDT, televisión digital terrestre, como reina de las pantallas. Será el único sistema, junto a las plataformas digitales de pago por satélite o por cable e Internet, a través del cual se podrá ver la tele. El cambio es a mejor: no hay que pagar cuota alguna, podremos disfrutar de más canales que con la analógica y, además, la emisión tendrá mayor calidad de imagen y sonido. Pese a que los últimos datos oficiales indican que la cobertura TDT está garantizada para el 93% de la población, hace un mes sólo el 48,5% de los hogares españoles disponía de acceso a la TDT. Los telespectadores vascos figuran entre los más remolones: únicamente el 30% de los hogares del País Vasco tiene la televisión digital terrestre implantada, lo que hace que sea la comunidad más perezosa en ponerse al día, si bien el éxito de la implantación de la TV por cable en esta comunidad explique en cierta medida este fenómeno. El otro extremo lo representa Cataluña, con cerca del 60% de los hogares conectados a la televisión digital, seguida de la comunidad de Madrid, con un 59% de los hogares adaptados. Ya más lejos, se sitúan Canarias (53,2%) y Andalucía (50%).

Cuenta atrás
Con la TDT habrá más canales y la emisión tendrá mayor calidad de imagen y sonido
No hay tiempo que perder. Según la fase II del Plan Nacional de Transición a la TDT, el próximo 31 de diciembre es la fecha límite para que todos los hogares se equipen con la nueva tecnología digital terrestre, aunque el uso de la analógica finaliza el 4 de abril de 2010. Los expertos en nuevas tecnologías de CONSUMER EROSKI, responsables del canal temático Tecnología, recomiendan no dejar para el último momento la adaptación a la TDT y proporcionan información útil sobre el receptor que se debe adquirir, el tipo de cobertura y sus precios.

Más canales, mejor sonido y mayor calidad de imagen
Fuimos capaces de olvidarnos del casete (no así del vinilo, que sobrevive) convencidos por los argumentos del CD. También arrinconamos las cintas y el reproductor de vídeo y acogimos con los brazos abiertos al DVD, al que a su vez reemplazaremos por reproductores que no necesiten soportes de grabación, pero eso es otra película. Lo relevante es que con la televisión viviremos otro gran cambio. Pasaremos, también en este caso, de lo analógico a lo digital. Hace casi 20 años aparecieron las primeras plataformas digitales para ver televisión, y en estos momentos hay muchas modalidades de televisión digital: por antena convencional de televisión (TDT), por satélite (Digital+), por cable (Euskaltel, Ono...) y por red telefónica junto al ADSL (Imagenio, Orange TV o Jazztelia TV). De ellas, la única que llega a todo el país y que seguirá dando un servicio universal y gratuito (al menos, en parte) será la TDT, que entra en nuestros hogares utilizando la infraestructura que durante décadas ha transportado la televisión convencional: las antenas que coronan los tejados.

Para el consumidor no es un cambio traumático porque no precisa de grandes inversiones para recibir la señal ni de complejos procesos de adaptación. Pero sí será un gran salto cualitativo, tanto al menos como lo fue el paso del blanco y negro a la tele de color. Entre las ventajas de la TDT, por un lado, el aumento del número de canales. Ahora hay más de 20 canales de ámbito nacional a los que se suman, según la zona, los autonómicos y los canales locales. Y también se podrá escuchar las radios desde la tele. Además, mejora la calidad de sonido e imagen, aunque ésta depende de la buena voluntad de las cadenas de televisión que, por el momento, han optado porque haya más cadenas con peor calidad de emisión. Eso sí, la TDT en ningún caso logrará la definición de imagen que llegan a ofrecer los televisores planos más modernos, 1080 líneas, ya que se queda en el mejor de los casos en 720 líneas. Por otro lado, la señal digital no se degrada (no se verá "nieve" ni imágenes dobles), aunque sí se pixela en cuadraditos cuando la recepción de antena no es suficiente. La emisión tampoco registra interferencias, ni importa la distancia respecto de la estación de emisión ni es sensible a las tormentas o vientos. Y las películas emitidas por la TDT se podrán ver en versión original con subtítulos o dobladas a cualquier idioma disponible y en formato panorámico, similar al que se ve en las salas de cine. Otro de los valores añadidos de la TDT es que cuenta con guías electrónicas de programación - siglas EPG- que ofrecen información sobre las horas de inicio y fin de los contenidos de la programación.

Primer paso: comprobar la cobertura
El Real Decreto 920/2006 de 28 de julio, que aprueba el Reglamento general de prestación del servicio de televisión por cable, fija fechas en las que se deben alcanzar ciertos porcentajes de cobertura. Para finales de julio, el 96% de la población debería tener garantizado el acceso a la TDT. No obstante, aunque haya cobertura generalizada, puede que el ciudadano resida en una zona en la que aún no se reciba la señal y resulte imposible disfrutar de los contenidos de la TDT. Ante la duda, se puede comprobar si el municipio se encuentra en una zona de cobertura o no, si recibe la señal digital. Hay páginas web como Televisión Digital y Impulsa TDT en las que se puede comprobar este extremo de forma sencilla, basta con introducir el código postal de la población para comprobar si la cobertura está disponible, parcialmente disponible o si es nula en esa zona. En cualquier caso, la información proporcionada en estas web se basa en cálculos teóricos y puede que la cobertura real no coincida con la indicada. Lo mejor es recurrir a un antenista autorizado que conozca el mapa de cobertura de su zona y que pueda ejecutar el segundo e imprescindible paso para que la TDT llegue a nuestro hogar: la adaptación de la antena.

Seguir por el tejado
La TDT se recibe a través de la antena convencional, sea esta individual o colectiva. Aunque no es necesario instalar una antena nueva, en función de la antigüedad del inmueble habrá que modificar las existentes y hacerlo según los requisitos técnicos de la TDT. En general, los edificios construidos después de 1998 cuentan con una Infraestructura Común de Telecomunicaciones (ICT), mediante la cual se puede captar, adaptar y distribuir la señal de la TDT a todas las viviendas del edificio. La obligación de cumplir con la normativa ITC no se exigía hasta febrero de 2005, por lo que los inmuebles edificados a partir de entonces deben estar adaptados y han de garantizar la recepción de un número considerable de canales de TDT. No obstante, en ciertos casos puede ser necesaria la instalación de un amplificador extra para ver las cadenas que faltan. De cualquier modo, esa información la debe suministrar el antenista, al igual que el importe económico de los trabajos que se van a realizar. Por término medio, adaptar una antena colectiva para recibir la señal digital cuesta entre 500 y 800 euros por edificio. Uno de los factores que pueden incrementar este precio es el estado de la instalación: un cableado deteriorado con el que ya se veía mal la televisión analógica, deberá sustituirse por uno nuevo. De todos modos, cuantos más vecinos haya para repartir el coste, más barato le saldrá a cada uno la adaptación a la TDT.

Sólo antenistas autorizados
Si la junta de vecinos prefiere posponer la decisión de adaptar la antena colectiva a la señal digital, los interesados verán frustrado su deseo de "antenizarse". En este supuesto, pueden instalar una antena exterior propia, disponible a partir de 30 euros. Esta es la opción a la que pueden recurrir también quienes residan en edificios antiguos en los que la necesidad de sustituir gran parte del cableado convierte la operación en demasiado onerosa. La llegada de la TDT está haciendo que los instaladores de antenas sean muy requeridos, tendencia que se agudizará cuanto más se acerque la fecha del apagón analógico. Por ello, hemos de asegurarnos de que contratamos el servicio a un profesional autorizado y con experiencia. Para comprobarlo, se puede visitar la web oficial del Ministerio de Industria que enumera por zonas los establecimientos autorizados para realizar trabajos de adaptación a la TDT. Conviene solicitar un presupuesto en el que se especifiquen las labores que se van a efectuar y las horas de tarea necesarias. Una vez finalizado el trabajo, deben entregar una factura en la que figure, además del importe, el nombre comercial, el CIF y la dirección de la empresa responsable.

¿Descodificador? El más barato
Una vez que la señal digital está disponible en las tomas de antena del hogar, el siguiente paso es preparar el equipo doméstico. Hay dos opciones. Si el consumidor tiene un televisor tradicional y desea conservarlo, deberá comprar un receptor digital externo -o descodificador- para cada uno de los aparatos de TV que tenga en su hogar. El precio de estos descodificadores ha bajado mucho: si hace apenas tres años costaban a partir de 120 euros, su precio medio actual ronda los 35 euros. Hay modelos de menos de 30 euros y otros que superan los 500 euros. ¿La razón? Los más caros son descodificadores interactivos que ofrecen un mayor número de funciones, mientras que los más básicos proporcionan prestaciones limitadas. Si se tiene en cuenta que todavía las cadenas que emiten por TDT no han desplegado los servicios interactivos, lo inteligente es adquirir los modelos más baratos. El imparable avance de la tecnología hará que dentro un par de años o quizá más, cuando estos nuevos servicios se desarrollen, salga a cuenta comprar un descodificador más complejo y más caro, pero hasta entonces no merece la pena. La otra opción es comprar (o disponer de él, claro está) un televisor digital, -de plasma o LCD-, con un descodificador integrado. Son caros, pero, entre otras ventajas, los televisores digitales incorporan en su interior el receptor para la TDT, con lo que se ahorra espacio e incomodidades de cables e interruptores.

Vender una tele que no tiene TDT sin avisar se sanciona
Desde el pasado mayo, los vendedores están obligados a informar sobre la caducidad de los televisores no adaptados a la TDT. Por tanto, el comerciante que venda un aparato televisivo sin sintonizador de TDT y no avise al comprador de que, a menos que compre un descodificador externo no podrá ver la tele a partir del 4 de abril de 2010 -fecha del apagón analógico- incurre en infracción sancionable por la Administración competente en Consumo.

Tanto si lo que se compra es un televisor con descodificador integrado como si lo que se adquiere es un receptor externo, los aparatos deben lucir el sello DVB-T que garantiza la compatibilidad con las emisiones de la televisión digital terrestre. Si el comprador ha sido víctima de alguna de estas prácticas, tiene derecho a tramitar una reclamación en la Oficina Municipal de Información al Consumidor (OMIC) de su municipio, donde se encargarán de gestionar la queja y la sanción para el establecimiento.

Precio sí, pero también consumo
Tan importante como el precio del aparato es la electricidad que consume el receptor. Siempre que se pueda, hay que elegir los que tengan un botón de apagado y encendido. Muchos receptores de TDT sólo permiten ser dejados en reposo o stand by, con el despilfarro en energía que esta práctica supone. Por otra parte, además del teletexto, la búsqueda automática de canales o el soporte para subtítulos son opciones que se valoran de forma positiva, así como la función PIP (Picture in Picture), que permite ver dos canales al mismo tiempo, muy útil durante las pausas publicitarias para percatarse de cuándo se acaban los anuncios adheridos al programa que estábamos disfrutando.

Qué nos deparará el futuro
Uno de los cambios de la TDT respecto a la forma tradicional de ver la televisión son sus servicios interactivos. Elegir la programación, la hora de disfrutar de un programa, o incluso realizar gestiones y compras son algunos de ellos. Para utilizar estas prestaciones se debe instalar un decodificador interactivo- receptor externo, o integrado en el televisor- que incorpore el estándar MHP (Multimedia Home Platform). Son más caros -entre 100 y 500 euros- porque sus funciones son más complejas que las de un receptor básico, que sólo permite acceder a los canales generalistas. Se trata de una inversión cuya rentabilidad a corto plazo es cuestionable. Porque, a diferencia de otros países europeos en los que la TDT también se encuentra en fases progresivas de implantación, en España las cadenas de televisión han desarrollado sólo de forma limitada los servicios interactivos para la TDT. Por esta razón, debemos reflexionar si merece la pena desembolsar ese sobrecoste por un receptor del que no sacaremos todo el rendimiento.

Cinco preguntas para entender la TDT
¿Es gratis la televisión digital terrestre (TDT)?
Sí, para disfrutar hoy de la TDT no hay que pagar cuota de abono. El usuario tiene que asumir el coste de la adaptación, esto es, el ajuste de la antena y la compra de un descodificador externo o de un televisor nuevo que ya lo incorpore.

¿Qué beneficios aporta la TDT?
Ofrece más canales y más calidad en imagen y sonido (puede llegar a ser similar a la del DVD), se pueden ver los contenidos en formato panorámico, en otros idiomas o con subtítulos. Y en el futuro desplegará servicios interactivos todavía no disponibles.

¿Cómo recibir la televisión digital terrestre en casa?
Comprobemos si tenemos cobertura en nuestra zona; un instalador autorizado adaptará la antena colectiva o individual. Hemos de disponer de un sintonizador en cada televisión, puede ser externo (desde 30 euros) o interno (la mayoría de los televisores planos lo llevan incorporado).

¿Puedo ver la televisión analógica y la digital a través del mismo receptor?
Hasta el 4 de abril de 2010, sí. A partir de entonces desaparecerán las emisiones analógicas y no se podrá ver la televisión en los hogares no adaptados.

¿Tengo que cambiar mi televisor actual para ver la TDT?
No. Si quiere conservar su aparato, basta con comprar un descodificador externo. Si cambia de televisor, asegúrese de que cuenta con sintonizador de TDT.

viernes, abril 17, 2009

La telefonía "low cost" se consolida


Los operadores móviles virtuales ganan cuota de mercado con ofertas más económicas y en el último trimestre han captado el 25% de las nuevas altas

Los operadores móviles virtuales (OMV) nacieron a raíz de una serie de disposiciones realizadas en febrero 2006 por la Comisión del Mercado de las Telecomunicaciones (CMT) para desarrollar una competencia efectiva en el mercado de la telefonía móvil, sector se supera el 100% de la penetración del servicio entre la población. Su ventaja es que al no tener que invertir en el mantenimiento de redes propias pueden ofrecer tarifas más baratas. Por contra, para establecer un contrato con ellas hay que aportar un móvil comprado a precio de mercado o liberado.

Según las disposiciones de la CMT, los denominados operadores móviles con Poder Significativo de Mercado (PSM), es decir, Movistar, Vodafone y Orange junto con Yoigo (que tiene menor cuota de mercado pero redes propias), deben ofrecer sus redes para que otras empresas puedan prestar servicios de telecomunicaciones. Además, entre otras características, deben disponer de las condiciones técnicas necesarias para ofrecer interoperabilidad de servicio en redes virtuales y atender a las solicitudes de acceso a sus redes a precios razonables para fomentar la competencia.

Esta decisión de la CMT de abrir el mercado fue denunciada por Telefónica, el operador mayoritario, mediante un recurso administrativo. Dicho recurso ha sido desestimado por la Audiencia Nacional en enero de 2009, confirmando la legalidad de los OMV al considerar que existe poca competencia en el mercado de la telefonía móvil en España.

Ventajas e inconvenientes
Actualmente hay una veintena de OMV con un total de 850.00 líneas contratadas. Esta cifra representa casi el 2% de la cuota de mercado de los operadores móviles de voz. Sin embargo, en los últimos meses los OMV se han posicionado como los de segundo mayor crecimiento en cuanto a alta de líneas. En los datos facilitados por la CMT sobre la situación del mercado, en enero de 2009, el 25,2% de la cuota de ganancia neta de líneas producidas en el último trimestre pertenece a OMV.

Con ofertas ventajosas, se han convertido en servicios atractivos para distintos colectivos como los jóvenes, los inmigrantes o las personas que utilizan el teléfono sólo como una extensión de su ordenador. Y poco a poco se van generalizando, aunque cuentan con el freno de los móviles subvencionados por parte de los operadores dominantes y sus consiguientes cláusulas de permanencia por 18 meses.

Sin embargo, son empresas que, en general, no subvencionan aparatos, por lo que para conseguir un contrato hay que aportar previamente el móvil a precio de mercado (suelen ser caros respecto a los móviles subvencionados) o bien liberado. Lo que en realidad sube es el coste del contrato, aunque evita las cláusulas de permanencia y permite abandonar la compañía cuando se desee sin compromisos ni sanciones. Además, no exigen ni consumos mínimos ni establecen cuotas anuales.

Ahora bien, debido a la complejidad de ofertas y tarificaciones existentes en el mercado, los usuarios deben tener en cuenta los usos que realizan, así como el coste no sólo de la llamada y su tarificación por segundos, sino también el coste de establecimiento de llamada, que varía de un operador a otro.

Diferencias
La diferencia básica entre los PSM y los OMV consiste en que los operadores con red disponen de una licencia de uso y explotación de una banda de frecuencia del espectro. Además, han realizado inversiones para desarrollar su propia infraestructura de red con el fin de prestar servicios a los usuarios. Por su parte, los operadores virtuales no disponen de esta licencia y por tanto deben utilizar los servicios de red de los operadores de licencia para poder ofrecer servicios de telecomunicaciones.

El coste de estas inversiones en infraestructuras necesarias para el despliegue de redes es muy alto, y por eso en momentos de crisis económica dos de los grandes operadores de red en Europa, Telefónica y Vodafone, han anunciado que van a compartir sus redes en diferentes países del continente, entre ellos España, para abaratar el coste de estas infraestructuras.

Entre los operadores móviles virtuales se distinguen dos tipos de compañías. Por un lado se encuentran los OMV llamados "completos", ya que a pesar de no disponer de una infraestructura de red propia sí cuentan con elementos y recursos para poder dar una numeración telefónica a sus clientes. De esta forma, a pesar de no usar sus propias redes, las llamadas terminan dentro de su propia red troncal.

Por otra parte, existen los llamados OMV prestadores de servicios o revendedores. Son empresas que no disponen de numeración propia ni red troncal y utilizan los asignados previamente por el operador de red con el cual han llegado a un acuerdo. Es decir, los revendedores de OMV realizan principalmente acciones comerciales para captar clientes.

¿Portabilidades en un día?
Una de las claves del éxito de los OMV radica en la portabilidad, es decir, en la posibilidad de cambiarse entre diferentes operadores móviles y conservar el número de teléfono. Por empuje de la CMT y de la Comisión Europea, los procedimientos para la gestión de la portabilidad se están realizando de forma cada vez más efectiva. En España, entre el año 2000 y 2007, se realizaron más de 15 millones de probabilidades de línea de teléfono móvil.

Sin embargo, actualmente el tiempo necesario para realizar una portabilidad está en torno a los 10 días. La comisaria europea de telecomunicaciones, Viviane Reding, ha manifestado que quiere mejorar este plazo, para que en la medida que sea posible las portabilidades de líneas de teléfono fijas o móviles se puedan realizar en un solo día. El Parlamento Europeo y en el Consejo de Ministros de la Unión Europea están debatiendo las medidas necesarias para hacer de esta reivindicación una realidad.

jueves, abril 16, 2009

¿Qué programas P2P son más seguros?

Diversas aplicaciones crean redes anónimas o tratan de impedir que se pueda monitorizar la actividad de los usuarios

La presión de las industrias culturales y de las sociedades de gestión de los derechos de autor ha provocado que en países como Francia o Inglaterra se estudien medidas para frenar el intercambio de contenidos audiovisuales, que incluyen hasta la suspensión de la conexión del usuario. Para evitar todas estas molestias de dudosa constitucionalidad, los usuarios pueden emplear diversos programas P2P que les permiten compartir con sus amigos y familiares de forma más privada el material que deseen.

Compartir de forma privada

Francia ha propuesto establecer un sistema de tres avisos para frenar la compartición de contenidos con Copyright en las redes P2P, tras los cuales se cortaría al usuario la conexión a la Red. Los internautas que intercambiaran contenidos sujetos a derechos de autor recibirían tres avisos. El primero se produciría por correo electrónico, el segundo por teléfono o por carta postal y el tercero implicaría una sanción de entre dos y doce meses sin poder contratar una conexión a Internet. Éstas y otras propuestas similares han provocado protestas de organizaciones de usuarios de Internet que temen que se rompa la neutralidad de la Red. Por otro lado, se estima que aplicar la llamada "Ley Sarkozy" (dado que nace a propuesta del presidente francés) tendría un coste estimado por su Gobierno de 70 millones de euros.

La polémica surge porque este tipo de leyes suponen que haya una entidad que controle el tráfico de Internet y los movimientos de cada persona durante su navegación. Esto contraría la práctica habitual de que sólo se pueden intervenir las comunicaciones bajo mandato judicial y si hay sospechas fundadas de que se produce un delito. Por este motivo, el Parlamento Europeo ha aprobado un informe en el que se rechaza que los gobiernos o empresas corten la conexión a Internet como forma de penalización y que quiere evitar que la "vigilancia y el control sistemático" se impongan como forma de prevenir el intercambio de contenidos sujetos a derechos de autor.

Nuevos programas, más seguros
En paralelo a esta polémica aparecen nuevos programas, como OneSwarm, para compartir contenidos en Internet. Hacen hincapié en la seguridad, de forma que sea más complicado que terceros puedan descubrir qué es lo que se intercambia. BitTorrent o eMule se han optimizado para compartir los archivos a gran velocidad pero sus diseñadores no se preocuparon por la privacidad. Una tercera persona con los conocimientos necesarios puede saber qué es lo que se intercambia y cuáles son los números IP que participan.


Estas cifras, que acreditan a cada equipo con acceso a la Red, permiten, con una orden judicial, conocer desde qué hogar o dispositivo se produce la conexión, puesto que los proveedores de Internet deben guardar estos datos. Precisamente, una de las peticiones de las sociedades de gestión de los derechos de autor y de las industrias culturales consiste en tener acceso automático a esta identificación, una acción imposible bajo las leyes actuales. Se trata de un fenómeno muy parecido al que acaeció en el momento en que la industria musical logró que Napster cerrara. En aquel entonces surgieron nuevos programas que mejoraron las prestaciones del original y que extendieron la costumbre de compartir.

Los pioneros en la seguridad P2P
Varios programas se han destacado por su preocupación por la privacidad desde el comienzo del uso del P2P para compartir archivos. Por ejemplo, Filetopia, una aplicación para Windows que apostó por la seguridad y que cifra todas las comunicaciones e intercambios de archivos con clave pública. Además de servir para compartir contenidos, permite a los usuarios crear salas de chat e incorpora un cliente de mensajería instantánea. No ha lanzado ninguna nueva versión desde 2002, pero se mantiene funcional.

Freenet es otro proyecto que permanece desde entonces, aunque con un impacto muy reducido y con carencias acusadas en este tipo de programas, como la falta de una forma eficiente de encontrar los archivos, pues carece de buscador. Su gran baza reside en que impide tanto la censura como que se localice en qué ordenador se encuentra un determinado archivo, porque una vez cargado viaja a otro ordenador de otra persona. De este modo, ni los propios usuarios de esta red saben lo que contiene su pedazo de disco duro, porque los archivos se encuentran cifrados. En mayo de 2008 Freenet publicó la versión 0.7.0, en donde se añade la posibilidad de utilizar el programa sólo con aquellos contactos que se seleccionen, una posibilidad que se conoce en inglés como "darknet".

Otra alternativa veterana es GNUnet, un software de código libre creado en 2001 y que emplea el cifrado para preservar los contenidos y evitar que se descubra quién los comparte. También dispone de un sistema para premiar con mayor velocidad de descarga a los usuarios que más contenidos aporten. Hay versiones para Windows, Mac OS X y Linux.

OneSwarm
OneSwarm se basa en seleccionar las personas con las que se intercambian los archivos, una posibilidad que se conoce como "Friend 2 Friend" (F2F)
OneSwarm es una de las nuevas propuestas para compartir contenidos digitales de forma más privada. Se trata de un programa disponible para Windows, Linux y Mac OS X (gracias a que usa Java) realizado por la Universidad de Washington a partir del protocolo BitTorrent.

Se basa en seleccionar las personas con las que se intercambian los archivos, una posibilidad ya vista en otros programas y que se conoce como "Friend 2 Friend (F2F)" (De amigo a amigo). A grandes rasgos, se añaden los contactos, con la facilidad de que si se usa Google Talk automáticamente detecta a los amigos que también utilizan este programa. Si se hace clic en el nombre de uno de ellos, se muestran los archivos que comparte. Cada usuario puede decidir con qué amigos intercambia un contenido o si quiere alcanzar toda la red de usuarios.

Además, añade opciones interesantes como la previsualización de los contenidos, el manejo de los enlaces torrent convencionales para iniciar las descargas en este protocolo, aunque sin el añadido de la privacidad de OneSwarm; soporte para DHT, un buscador interno de contenidos en la red, o la posibilidad de acceder en remoto para configurar el programa.

Su objetivo no es el anonimato absoluto sino evitar que gobiernos o empresas puedan monitorizar el uso de la red y ver quiénes intercambian. Para ello, impide descubrir las direcciones IP originales, mediante el cifrado SSL. Por otro lado, las peticiones de búsqueda y el intercambio de contenidos se producen sin que nadie, excepto los usuarios más cercanos, conozca el origen de las peticiones y de los archivos, una característica que dificulta en gran medida posibles rastreos. Salvo por este matiz, el intercambio se produce de la misma forma que en BitTorrent.

Este software destaca por un aspecto curioso: no se maneja desde sus propias ventanas como las demás aplicaciones que se instalan en los ordenadores, sino a través del navegador del usuario, lo que recuerda a programas ya desaparecidos como Audiogalaxy. Se puede utilizar con cualquiera de las últimas versiones de Firefox, Opera, Safari o Chrome, pero no funciona bien con el navegador mayoritario, Internet Explorer. Sus creadores se han guardado entre sus opciones la posibilidad de mostrar OneSwarm a la manera convencional.

Otros programas
Los usuarios disponen de otras alternativas para asegurar el intercambio de archivos P2P. Así, de otra universidad, esta vez la holandesa Vrije, procede Turtle F2F, un programa de código libre para Linux que funciona con principios parecidos a los de OneSwarm y pretende construir la red a partir de los contactos más cercanos de cada usuario.

Por su parte, AnoNet ha ideado una red privada virtual (VPN) anónima que permite realizar dentro cualquiera de las actividades que normalmente se efectúan en la Web, entre ellas compartir archivos. Las redes privadas virtuales resultan habituales en los entornos empresariales como una forma de garantizar, a través de cifrado, la confidencialidad de los datos en las conexiones de los trabajadores en remoto. AnoNet emplea su propio rango de direcciones, 1.0.0.0/8, asociado a un sistema de dominios inventado por ellos, terminados en ".ano", accesibles solamente desde el propio programa.

AnoNet emplea su particular rango de direcciones, accesibles solamente desde el mismo programa y asociado a un sistema de dominios de invención propia y terminado en ".ano"
I2P (Invisible Internet Project) permite a otras aplicaciones enviar datos a través de Internet de forma anónima. Para este programa se han creado versiones de eMule y Vuze, el programa de BitTorrent, ya que dispone de un complemento que le añade esta capacidad. Al igual que AnoNet, permite a sus usuarios publicar sitios web en un rango especial de direcciones que se traducen al dominio ".i2p", únicamente válido a través de este software. Según sus promotores, todavía se trata de un producto no terminado que sólo se debe usar de forma experimental.

Otro programa interesante es Remobo. Crea lo que ha denominado "redes privadas instantáneas". Por ejemplo, si en una casa hay varios ordenadores encendidos y con este software instalado, automáticamente se forma una red entre ellos. Pero si el usuario entra desde un PC situado en el trabajo también puede acceder a ellos.

Al mismo tiempo, cada usuario puede añadir a contactos con los que se comparten los contenidos de todos sus ordenadores. Para intercambiar los archivos utiliza BitTorrent y el usuario que los descarga tiene la libertad de elegir el programa de esta red que prefiera. Se encuentra en fase de pruebas y se puede instalar tanto en Windows como en Mac OS X. Waste es otra opción. Se trata de un programa de código libre ideado para crear pequeñas redes y compartir archivos de forma segura. Además, incorpora chats cifrados.

Ipredator
The Pirate Bay es uno de los centros más activos de la red BitTorrent. Alberga los enlaces a los archivos torrent y se ha distinguido por su defensa de la cultura del intercambio. El pasado mes de marzo lanzó un proyecto de pago denominado Ipredator para asegurar las comunicaciones de los protocolos P2P mediante una VPN. Este servicio se encuentra en una fase de pruebas cerrada y tiene un coste de cinco euros al mes con la promesa del sitio sueco de que no almacenará los datos personales.

Por otra parte, las propias aplicaciones P2P han lanzado versiones que incorporan sistemas de cifrado débil que tratan de evitar rastreos, desde eMule hasta varias populares del protocolo BitTorrent, como BitComet, Vuze o Transmission.

El problema del número de usuarios
El éxito de un programa de intercambio de archivos depende en gran medida de su popularidad. Cuantas más personas acceden, mayor es el número de archivos que contiene la red y más se incrementa, y con ello su atractivo de cara a los nuevos usuarios. Así, los centros de atención son actualmente BitTorrent y eMule para los vídeos, películas y grandes archivos, y Ares para la música.

Sin embargo, las redes P2P que hacen hincapié en la seguridad tienen bastantes menos usuarios y, por lo tanto, menor cantidad de archivos y menor atractivo para nuevos internautas en busca de contenidos. El usuario debe elegir entre privacidad o contenidos mientras no se conviertan en populares estas alternativas.

Programas para grabar conversaciones en Skype


Este tipo de software añade características como un contestador automático o efectos sonoros

Skype es una de las aplicaciones más utilizadas para realizar llamadas por Internet. Sus propietarios han lanzado recientemente su versión 4, con una renovada apariencia pero que todavía no permite grabar las conversaciones de voz, una característica que se puede añadir a través de terceros programas. La grabación de conversaciones puede resultar muy útil, por ejemplo, para realizar entrevistas laborales y periodísticas o reuniones de negocios a distancia.

Grabar una charla telefónica puede ser muy útil para aquellas personas que necesitan realizar transcripciones. Por ejemplo, periodistas o investigadores. También brinda nuevas oportunidades a quienes se dedican al mundo del podcasting, la traslación del formato radiofónico a la Red. De esta manera, se puede almacenar una entrevista y emitirla posteriormente dentro de un podcast. Las posibilidades aumentan porque Skype permite conversaciones entre varias personas a la vez y con ello abre paso a incorporar tertulias al estilo radiofónico o reuniones de trabajo de las que se quiera hacer luego una memoria.

Aunque Skype no lo incluya por defecto, otros programas de este tipo menos utilizados como Gizmo5 añaden esta característica. En Skype la opción más cómoda consiste en recurrir a un software externo, se trata de programas de terceras empresas que han proliferado para cubrir esta ausencia. Estos son algunos de los más destacados.

Call Graph
Call Graph es una aplicación gratuita que se financia con publicidad. No presenta ningún límite en la práctica y la única diferencia con la versión de pago (25 dólares, unos 19 euros por licencia vitalicia) radica en que en ésta se eliminan todos los anuncios. Como se trata de un programa externo, el usuario debe autorizar dentro de Skype la comunicación entre ambos. En cuanto se instala, aparece un recuadro para realizar esta operación. Durante la grabación, el usuario puede tomar notas en otra ventana.

Los contenidos se archivan con el nombre de la persona a la que se ha llamado y la fecha y la hora de la comunicación. Por otro lado, en paralelo y como otra forma de financiación ofrece servicios de pago de transcripción de las conversaciones y espacio web para almacenar las grabaciones y trabajar en grupo.

Pamela Call Recorder
Dentro de los complementos que se pueden descargar e instalar directamente desde los Extras de Skype, destaca Pamela Call Recorder. Por defecto, arranca junto al programa y cada vez que se inicia una comunicación pregunta al usuario si desea registrarla. Permite almacenar el sonido en los formatos comprimidos MP3 y Ogg Vorbis, y en WAV. La versión gratuita tiene un límite de grabación de 15 minutos y para superarlo se debe adquirir la de pago, denominada Professional, que tiene un coste de 14,95 euros por cada licencia vitalicia.

Como características extras añade un contestador automático de texto, por si alguien escribe al usuario cuando no se encuentra delante del ordenador, y toda una serie de efectos sonoros para introducir en las charlas, desde aplausos hasta redobles de tambores. Este programa sólo funciona en la versión de Skype para Windows.

Pretty May Call Recorder resulta muy similar al Pamela y también se puede instalar desde su sistema de complementos. Sin embargo, su versión de pago es más cara (24,95 dólares, unos 18 euros).

PowerGramo
PowerGramo ofrece opciones interesantes, como un contestador automático, eliminar los ruidos de fondo que pueda provocar el ordenador, introducir música en la conversación, como si el usuario fuera un pinchadiscos radiofónico, o guardar conjuntamente los mensajes de texto que se escriban durante la charla hablada.

Este software, cuyo coste se sitúa en su versión más básica en 14,95 dólares, no limita el tiempo de grabación, que se produce en los formatos Ogg Vorbis o en WAV, y puede exportar estos archivos a MP3 o WMA. Por otra parte, cuenta con una versión profesional, que cuesta 34,95 dólares y que, por ejemplo, graba las voces de las personas en dos pistas diferentes, de forma que una edición posterior tenga más posibilidades.

Hot recorder
Hot Recorder apuesta por almacenar las conversaciones tanto de Skype como de Google Talk, Yahoo! Messenger y otros programas de voz sobre IP. Incluye contestador automático y diversos efectos sonoros para introducir durante la charla. Graba en su propio formato, denominado ELP, aunque después permite exportar los archivos a MP3, Ogg Vorbis y WAV. Este programa cuenta con una versión gratuita que en la práctica sólo sirve para probarlo porque limita la grabación a dos minutos. Adquirir el producto completo asciende a 14,95 dólares (unos 11,50 euros).

También para las videoconferencias
Aunque la mayor parte de las aplicaciones se centran en registrar el audio de las conversaciones, también se han creado algunas para almacenar el vídeo, de momento todas ellas de pago. Entre ellas destaca la edición profesional de Pamela Call Recorder. Otros ejemplos se encuentran en SuperTintin, que graba tanto en Skype como en Windows Live Messenger por 24,95 dólares (unos 19 euros), o SkypeCap, un programa que funciona en Windows y en Mac OS X, y que permite grabar tanto las videoconferencias como las llamadas convencionales. Tiene un coste de 49,95 dólares (unos 39 euros).

Entornos de escritorio ligeros para Linux

Xfce se presenta como una alternativa en Linux para usar un ordenador viejo o un ultraportátil sin que se resienta la velocidad

La evolución de los sistemas operativos más populares (Windows y Mac OS X) exige ordenadores más potentes en cada nueva versión y convierte en obsoletos los más antiguos. Linux, en cambio, se ve afectado en menor medida gracias a la libertad de elección que disfrutan sus usuarios a la hora de escoger entornos de escritorio más ligeros, como Xfce.

Los entornos de escritorio ligeros y rápidos se han convertido en una necesidad acuciante no sólo en ordenadores con unos cuantos años de antigüedad, sino también en los ultraportátiles y los ordenadores de escritorio baratos, porque montan componentes no punteros que pueden no resultar suficientes para Windows Vista.

En Linux, los usuarios más avezados son capaces de trabajar completamente en modo texto, tecleando comandos para abrir las aplicaciones, para copiar y pegar archivos, para crear carpetas y otras tareas habituales en los ordenadores. Sin embargo, por comodidad y para expandir este sistema operativo libre a más usuarios, se creó el entorno visual necesario para que se pudiera usar igual que en Windows, y que se denomina Sistema de Ventanas X. En Linux el más utilizado es el X.Org.



Sin embargo, otro programa, denominado entorno de escritorio, controla cómo se actúa con este elemento. Por ejemplo, determina cómo funcionan las diferentes barras de herramientas, los fondos, los salvapantallas, los iconos o los menús. Prácticamente, se responsabiliza de cómo el usuario percibe el sistema operativo, a excepción del comportamiento de las ventanas que enmarcan cada aplicación, labor que se encarga a los gestores de ventanas, como Metacity o Kwin. Los dos entornos de escritorio más populares son Gnome, que se encuentra por defecto en Ubuntu y Debian, y KDE, por el que apuestan otras distribuciones como OpenSuse.

Xfce, el más popular de los ligeros
Sin embargo, cuando se busca ligereza y rapidez, y no importan los complicados efectos gráficos que pueden llegar a mostrar los escritorios más avanzados, el más popular es Xfce. De hecho, varias distribuciones de Linux disponen de una versión que lo integra, como Ubuntu (Xubuntu), Debian o Slackware.

En otras se puede activar a través de los repositorios, como en Fedora, por ejemplo. Al igual que Gnome, se basa en GTK+ versión 2, pero logra ser más liviano y consumir menos recursos de memoria, características que se traducen en una mayor rapidez y la posibilidad de instalarlo en máquinas menos potentes.

Aunque el entorno de escritorio sea distinto, se pueden usar casi todas las aplicaciones presentes en Gnome o KDE, como Firefox, Open Office, Pidgin o Wine. Su aspecto estético se asemeja al de cualquier sistema operativo convencional, pero no iguala en usabilidad a sus rivales ni permite modificaciones tan intuitivas. Es decir, se puede personalizar de igual forma pero con más clics de ratón y con más vueltas que su competencia. A principios de marzo, Xfce lanzó su última versión, la 4.6, después de dos años de trabajo en la misma.

LXDE, otra opción
Existen otras alternativas si se desea un entorno de ventana liviano, aunque no se encuentran tan extendidas como Xfce. La ventaja para los usuarios de Linux consiste en que se pueden probar sin ningún compromiso para observar cuál se adapta mejor al ordenador y a las preferencias del usuario. Cada vez que se arranca el ordenador, se puede elegir con qué entorno de escritorio se inicia la sesión, de entre todos los que tenga instalados.


Un ejemplo es LXDE, siglas en inglés de Entorno de Escritorio X11 Ligero, que se creó en 2006 y se basa en C y en GTK+. Cuenta con varias aplicaciones específicas para aprovechar su ligereza, como un gestor de archivos (PCManFM) o un editor de textos. gOS, una distribución de Linux ideada para ultraportátiles y ordenadores básicos, ha apostado por este entorno. Además, se puede instalar desde los repositorios de Ubuntu, Debian, Fedora o Mandriva, entre otras distribuciones de Linux.

ROX Desktop es otra de las posibilidades. No se encuentra tan extendido, pero es todavía más ligero que Xfce, también se basa en GTK+2 y cuenta con sus propios programas. En su sitio web dispone de instrucciones para instalarlo en las distribuciones de Linux más populares. Étoilé y EDE son otros de los entornos de escritorio ligeros que se pueden probar.

¿Es más ligero Xfce que los demás?
Muchos usuarios de Linux se preguntan si Xfce es realmente más liviano que sus competidores Gnome y KDE. Se han efectuado diversas pruebas sobre ellos, como la realizada por un programador de KDE, que compara el consumo de memoria RAM de los tres entornos de escritorio. Las comparaciones no son exactas debido a que, mientras Gnome y KDE trabajan por integrar sus aplicaciones estrella de la mejor forma posible, Xfce no dispone de tantos programas asociados y optimizados, con excepciones como el gestor de archivos Thunar, que destaca por su rapidez.

En dicha prueba, Xfce resultó el entorno de escritorio más ligero cuando no se había abierto ninguna aplicación, con tres programas ligeros (gestor de archivos, un editor de textos y un terminal) o con el navegador o el procesador de textos por separado. Pero cuando se abrían tres a la vez (un hecho relativamente frecuente si se navega por Internet, se consulta el correo electrónico y se escribe un texto) los resultados cambiaban y favorecían a KDE, mientras que Gnome obtenía valores intermedios.

"Tumblelog": publicación inmediata

Se trata de un sistema centrado en la publicación de contenidos en Internet que se caracteriza por ser más ágil que los blogs

Un "tumblelog" es un sistema de publicación en Internet que presenta algunas variaciones respecto a los blogs. Su uso es más sencillo y esta orientado a escribir anotaciones cortas o a subir fragmentos de vídeo, enlaces externos o capturas de pantalla. Por su estética y modo de funcionar, se le incluye dentro de los llamados sistemas de microblogging, donde plataformas de publicación de textos cortos como Twitter son de gran éxito entre los usuarios más avezados.

Una de las principales ventajas de los "tumblelog" es su facilidad de uso, ya que permiten publicar cualquier tipo de contenido de forma rápida y sin necesidad de tener que redactar un texto con contenido estructurado. Normalmente, este tipo de sitios se utilizan para compartir enlaces, fotografías o vídeos localizados o que han llamado la atención del usuario durante su navegación diaria.


Para facilitar la tarea de publicación, los "tumblelog" disponen de diferentes tipos de entrada de datos dependiendo del tipo de contenido. Es decir, si se quiere publicar un enlace, una cita o un vídeo, cada uno de estos contenidos será insertado desde una opción diferenciada que contiene propiedades por defecto, para tratar el contenido de forma óptima sin que el usuario tenga que realizar ningún trabajo adicional para la publicación del contenido.

Para muchos usuarios y expertos, los "tumblelog" recuperan la esencia y origen de los blogs. Es decir, sirven como plataforma para publicar enlaces de interés y notas cortas comentando cualquier tema que llame la atención al usuario. Otro punto importante de los "tumblelog" es su aspecto social.


Todos los usuarios que formen parte de una red de "tumblelog" tienen la opción de poder seguir otros "tumblelog" diferentes del suyo y acceder a sus contenidos desde la propia página de control del sistema. De esta manera, el "tumblelog" se convierte en un lector de los contenidos de otros usuarios. Además, si algún contenido publicado por otro usuario resulta de interés, los usuarios tienen la posibilidad de republicarlo añadiendo un comentario. De esta forma, se crea una conversación entre diferentes "tumblelog" sobre un mismo contenido.

Sin embargo, los sistemas de publicación de "tumblelog" no disponen por defecto de la opción de comentarios en las notas publicadas. Para solucionar esto, existen en el mercado diferentes iniciativas a modo de "extensiones" para los sistemas de publicación más conocidos, que añaden estas funcionalidades extras de forma rápida y gratuita. En este sentido, uno de los sistemas más utilizados para añadir comentarios de forma externa a un "tumblelog", así como a otras plataformas, es Disqus. Para ello, el usuario tiene que registrarse y copiar y pegar un código fuente dentro de su plataforma de "tumblelog".

Tumblr
Tumblr es uno de los servicios de "tumblelog" más conocidos y utilizados. Fundado en 2007, actualmente más de 400.000 usuarios registrados utilizan esta herramienta de publicación. Desde el panel de control los usuarios disponen de siete tipos de entradas para publicar una anotación: texto, fotografías, citas, enlaces, conversaciones de chat, audios y vídeos. Cada uno de estos apartados dispone de opciones personalizadas para el tipo de contenido.


Por ejemplo, insertar un vídeo alojado en las plataformas de vídeo Youtube y Vimeo es tan sencillo como pegar la ruta correspondiente al enlace del vídeo, sin necesidad de incluir el código necesario para insertar el player (programa reproductor) de vídeo dentro de una anotación. En el caso de fotografías, éstas pueden estar en el formato JPG, GIF, PNG y BMP, y con un tamaño máximo de 10 megabytes.

En cuanto al diseño, Tumblr dispone de un editor de plantillas. Así, los usuarios puede elegir entre una serie de temas de diseño predefinidos, o bien personalizar el diseño insertando su propio código HTML. Las opciones de configuración son sencillas y limitadas a una serie de parámetros, como el tipo de ruta que se crea en cada entrada o redimensionar automáticamente las fotografías al tamaño de la página.

Otras plataformas
A pesar de ser una de las plataformas más conocidas, Tumblr no es la única opción disponible en el mercado. Otras plataformas de alojamiento de "tumblelog" son soup.io y Streem. Aquellos usuarios que quieran instalar su propio gestor de "tumblelog" tienen sistemas para la publicación de "tumblelog" como Gelato y Ozimodo. Además, existen algunas comunidades de usuarios de "tumblelog", como Tumblers, creadas para compartir conocimiento y servir de apoyo a los nuevos usuarios.

Hay numerosos ejemplos de "tumblelog" dedicados a los más variados temas en los que sus creadores introducen citas, vídeos y noticias que les han parecido curiosas. Así los "tumblelog" resultan más visuales y de fácil repaso. Pero, por citar algunos ejemplos, Neoludita.com se dedica a recopilar enlaces en los que se habla mal y se difama a las nuevas tecnologías sin justificación; Obviedades y Odamoda comentan con fotografías y pies de foto diferentes aspectos de la realidad cotidiana, la moda o las artes plásticas. Otros "tumblelog" populares son Cajón de sastre, Mmoroca y The WTF Bin.

"Tumblelog": publicación inmediata

Se trata de un sistema centrado en la publicación de contenidos en Internet que se caracteriza por ser más ágil que los blogs

Un "tumblelog" es un sistema de publicación en Internet que presenta algunas variaciones respecto a los blogs. Su uso es más sencillo y esta orientado a escribir anotaciones cortas o a subir fragmentos de vídeo, enlaces externos o capturas de pantalla. Por su estética y modo de funcionar, se le incluye dentro de los llamados sistemas de microblogging, donde plataformas de publicación de textos cortos como Twitter son de gran éxito entre los usuarios más avezados.

Una de las principales ventajas de los "tumblelog" es su facilidad de uso, ya que permiten publicar cualquier tipo de contenido de forma rápida y sin necesidad de tener que redactar un texto con contenido estructurado. Normalmente, este tipo de sitios se utilizan para compartir enlaces, fotografías o vídeos localizados o que han llamado la atención del usuario durante su navegación diaria.


Para facilitar la tarea de publicación, los "tumblelog" disponen de diferentes tipos de entrada de datos dependiendo del tipo de contenido. Es decir, si se quiere publicar un enlace, una cita o un vídeo, cada uno de estos contenidos será insertado desde una opción diferenciada que contiene propiedades por defecto, para tratar el contenido de forma óptima sin que el usuario tenga que realizar ningún trabajo adicional para la publicación del contenido.

Para muchos usuarios y expertos, los "tumblelog" recuperan la esencia y origen de los blogs. Es decir, sirven como plataforma para publicar enlaces de interés y notas cortas comentando cualquier tema que llame la atención al usuario. Otro punto importante de los "tumblelog" es su aspecto social.


Todos los usuarios que formen parte de una red de "tumblelog" tienen la opción de poder seguir otros "tumblelog" diferentes del suyo y acceder a sus contenidos desde la propia página de control del sistema. De esta manera, el "tumblelog" se convierte en un lector de los contenidos de otros usuarios. Además, si algún contenido publicado por otro usuario resulta de interés, los usuarios tienen la posibilidad de republicarlo añadiendo un comentario. De esta forma, se crea una conversación entre diferentes "tumblelog" sobre un mismo contenido.

Sin embargo, los sistemas de publicación de "tumblelog" no disponen por defecto de la opción de comentarios en las notas publicadas. Para solucionar esto, existen en el mercado diferentes iniciativas a modo de "extensiones" para los sistemas de publicación más conocidos, que añaden estas funcionalidades extras de forma rápida y gratuita. En este sentido, uno de los sistemas más utilizados para añadir comentarios de forma externa a un "tumblelog", así como a otras plataformas, es Disqus. Para ello, el usuario tiene que registrarse y copiar y pegar un código fuente dentro de su plataforma de "tumblelog".

Tumblr
Tumblr es uno de los servicios de "tumblelog" más conocidos y utilizados. Fundado en 2007, actualmente más de 400.000 usuarios registrados utilizan esta herramienta de publicación. Desde el panel de control los usuarios disponen de siete tipos de entradas para publicar una anotación: texto, fotografías, citas, enlaces, conversaciones de chat, audios y vídeos. Cada uno de estos apartados dispone de opciones personalizadas para el tipo de contenido.


Por ejemplo, insertar un vídeo alojado en las plataformas de vídeo Youtube y Vimeo es tan sencillo como pegar la ruta correspondiente al enlace del vídeo, sin necesidad de incluir el código necesario para insertar el player (programa reproductor) de vídeo dentro de una anotación. En el caso de fotografías, éstas pueden estar en el formato JPG, GIF, PNG y BMP, y con un tamaño máximo de 10 megabytes.

En cuanto al diseño, Tumblr dispone de un editor de plantillas. Así, los usuarios puede elegir entre una serie de temas de diseño predefinidos, o bien personalizar el diseño insertando su propio código HTML. Las opciones de configuración son sencillas y limitadas a una serie de parámetros, como el tipo de ruta que se crea en cada entrada o redimensionar automáticamente las fotografías al tamaño de la página.

Otras plataformas
A pesar de ser una de las plataformas más conocidas, Tumblr no es la única opción disponible en el mercado. Otras plataformas de alojamiento de "tumblelog" son soup.io y Streem. Aquellos usuarios que quieran instalar su propio gestor de "tumblelog" tienen sistemas para la publicación de "tumblelog" como Gelato y Ozimodo. Además, existen algunas comunidades de usuarios de "tumblelog", como Tumblers, creadas para compartir conocimiento y servir de apoyo a los nuevos usuarios.

Hay numerosos ejemplos de "tumblelog" dedicados a los más variados temas en los que sus creadores introducen citas, vídeos y noticias que les han parecido curiosas. Así los "tumblelog" resultan más visuales y de fácil repaso. Pero, por citar algunos ejemplos, Neoludita.com se dedica a recopilar enlaces en los que se habla mal y se difama a las nuevas tecnologías sin justificación; Obviedades y Odamoda comentan con fotografías y pies de foto diferentes aspectos de la realidad cotidiana, la moda o las artes plásticas. Otros "tumblelog" populares son Cajón de sastre, Mmoroca y The WTF Bin.

Otros servicios de correo electrónico web

Además de Hotmail, Gmail y Yahoo! Mail, existen otras opciones con características adicionales como el cifrado de mensajes

El correo electrónico fue una de las primeras aplicaciones que se volcó a la Red, con Hotmail como uno de los pioneros. Más tarde le siguieron Yahoo! Mail y Google con su Gmail para conformar los tres servicios más extendidos de este tipo. Sin embargo, en la Red se encuentran diversas alternativas que también resultan interesantes por diversos aspectos.

En un comienzo, los correos electrónicos web trataban de diferenciarse por su mayor capacidad de almacenamiento. La competencia en este punto ha aumentado el tamaño de los buzones exponencialmente, y si antes 10 megabytes se consideraban una capacidad válida, ahora resulta habitual encontrarse con servicios de correo web que pueden albergar varios gigabytes. En esta carrera, Yahoo! marcó un hito porque fue el primer servicio de los grandes que ofreció almacenamiento ilimitado.


De esta manera, se refleja el cambio de costumbres entre una época en que los correos se caracterizaban por ser sólo textuales y la actual, en la que grandes archivos adjuntos viajan con comodidad a través de conexiones de banda ancha. Pero además de Windows Live Hotmail, Yahoo! Mail y Gmail, dos servicios muy interesantes y que ofrecen bastante fiabilidad son los de GMX y AOL, ambos gratuitos.

GMX: este webmail, bajo el dominio gmx.com, hace hincapié en tres aspectos: protección contra el spam (asegura que tiene siete sistemas contra esta plaga); contra los virus, porque inspecciona los archivos adjuntos de forma automática; y su capacidad de almacenamiento, que llega hasta los cinco gigabytes, inferior a Yahoo! Mail y a Gmail pero suficiente para la mayor parte de los usuarios. Se pueden enviar adjuntos de hasta 50 megabytes.

Permite recibir los mensajes de otras direcciones que posea el usuario, que se clasifican en diferentes carpetas, y también enviar desde esas otras cuentas. Al igual que en el correo web de Yahoo!, se pueden clasificar los correos arrastrándolos y soltándolos en una carpeta. Este sistema logra que la adaptación para las personas que están acostumbradas a los programas de correo electrónico tradicionales, que se instalan en el ordenador, como Thunderbird, sea más rápida.

Al correo de GMX se puede acceder a través de programas de correo electrónico tradicionales, tanto con POP3 como IMAP, y cuenta con corrector ortográfico en español a pesar de que todos los menús están en inglés. Otra característica interesante la constituyen las listas blancas de remitentes (cuyos mensajes siempre se aceptarán) y las negras (con los usuarios que se bloquearán).

AOL: el correo web de America On Line presenta los menús en inglés y una capacidad de almacenamiento ilimitada que además se conjuga con su servicio de mensajería instantánea y con una versión específica para móviles. Por otro lado, tiene protecciones contra los virus y el spam y cuenta con un sistema para importar la libreta de direcciones y los mensajes recibidos en las cuentas anteriores del usuario.

Resulta interesante su sistema de complementos, que facilita añadir contenidos de diverso tipo, como noticias, fotografías de Flickr o de Photobucket. Se visualizan en un rectángulo vertical a la derecha de la página y se pueden arrastrar y soltar en el mensaje. Por defecto, el correo de AOL cuenta con agenda, calendario y lista de tareas. Por otro lado, ofrece diversos temas que pueden modificar la apariencia estética de la página y permite consultar directamente las cuentas que el usuario tenga abiertas en Yahoo! o en Gmail.

Correo web cifrado


Los mensajes que se intercambian a través del correo electrónico web convencional no se cifran. Esta situación provoca que no sean alternativas seguras si se desea garantizar la confidencialidad de los mismos. Para cubrir este hueco de mercado, varios servicios proporcionan cifrado en los mensajes recibidos y enviados y un acceso seguro al sitio web a través de SSL. Estos servicios parten con las desventajas de que se necesita que tanto el remitente como el destinatario cuenten con la posibilidad de descifrar los correos y de que no suelen disponer de mucho espacio para recibir mensajes en sus direcciones.

Una de las alternativas más populares en este sentido la constituye Hushmail, que adapta el estándar de cifrado OpenPGP. No ofrece la misma seguridad que el software para cifrar dentro de los programas tradicionales de correo electrónico, porque la clave privada se almacena en sus servidores, pero sí una privacidad razonable que se conjuga con la portabilidad propia de un webmail.

Como extras interesantes, incorpora un sistema de mensajería instantánea cifrado, acceso a otras cuentas de correo externas y la posibilidad de crear plantillas, útil cuando se envían mensajes parecidos de manera habitual. Además, escanea los correos en busca de virus y filtra los que considere spam. Ofrece dos servicios, uno gratuito y otro de pago (a partir de dos dólares mensuales) que se divide en varias modalidades según sus características adicionales, como el acceso IMAP o la implantación del servicio en un dominio propio.

Hay otras aplicaciones similares pero menos extendidas como Cryptomail.org, un servicio promovido por una fundación sin ánimo de lucro, que además cuenta con una versión que permite instalar el sistema en servidores para que lo utilicen empresas u organizaciones. S-Mail es otra de las opciones disponibles, con idéntico sistema de funcionamiento. Si se quiere complementar el cifrado con alguno de los correos electrónicos web más populares, existe una extensión de Firefox, de nombre FireGPG, que implanta GPG en Gmail.

Por otro lado, en el mundo de las aplicaciones ofimáticas web Zoho destaca porque también incluye un programa de correo electrónico, que comparte con el resto del software la capacidad de almacenamiento total de este servicio, que alcanza un gigabyte. Con el correo de Zoho se puede utilizar tanto una dirección en este dominio como otras cuentas que posea el usuario.

Webmail del dominio propio


La configuración más común cuando una persona lanza su sitio web o blog con dominio propio consiste en una solución de software libre donde se combinan el servidor Apache, la base de datos MySQL y el lenguaje de desarrollo web PHP. Las empresas que se dedican a alquilar espacio en sus servidores suelen proporcionar varios programas integrados para consultar el correo electrónico en la propia web.

Se caracterizan por ser bastante más básicos que Yahoo! Mail, Gmail o Windows Live Hotmail, pero cumplen con la tarea de consultar los mensajes y redactar nuevos. IMP de Horde, Squirrelmail o RoundCube son algunos de los más utilizados. Ahora bien, una buena opción para mantener las ventajas de los mejores correos web y la personalización de un dominio propio consiste en recurrir a Google Apps, que, de momento de forma gratuita, permite configurar Gmail para los dominios del usuario, aunque a cambio mostrará al usuario publicidad textual relacionada cuando lea los mensajes.

viernes, abril 10, 2009

Félix Ares, autor del libro El robot enamorado






Máquinas que crean teoremas o aparatos, seres humanos "cyborgs", aviones que vuelan solos... No se trata de un relato de ciencia-ficción, sino de algo que se puede ver hoy día. Así de claro lo deja el libro "El robot enamorado: una historia de la Inteligencia Artificial". Su autor, el ingeniero de Telecomunicaciones y doctor en Informática Félix Ares (Madrid, 1947), ofrece un detallado y divulgativo repaso al pasado, presente y posible futuro de aspectos como la robótica o la inteligencia artificial. Y nos recuerda, entre otras cuestiones, que los robots están tan involucrados en todos los procesos de producción actuales, que sin ellos la sociedad se paralizaría. Además de su faceta literaria, Ares es asesor científico del Museo de ciencias de San Sebastián (Kutxaespacio).



Los robots aparecen muy asociados a la ciencia-ficción, pero sin embargo hoy día son una realidad. ¿Qué robots esenciales para los consumidores destacaría?



Casi diría al revés: ¿Qué hay en los consumidores que no lo haga la robótica? Hoy en día los robots, entendidos como sistemas de automatización ligeramente inteligentes, fabrican todo, e incluso en China: este país es capaz de vender productos muy baratos no por la cantidad de mano de obra, sino porque tiene muchos robots.


Por otra parte, hay tareas que hoy día podría hacer un robot, pero que por problemas psicológicos y legales no hace. Por ejemplo, ya sería posible tecnológicamente que un robot condujera un automóvil por una autopista. Y también podría haber aviones comerciales que volaran solos, y de hecho ya hay muchos aviones [militares] que lo hacen. En medicina, hay robots que operan, y que le hacen la vida más sencilla al médico. Por ejemplo, se han hecho operaciones desde Estados Unidos a un paciente en París o la India con sistemas de teleoperación.




En definitiva, el avance de la ciencia hoy día es en gran parte gracias a los programas que ayudan a modelar, desde el genoma hasta un puente. La gente no se da cuenta, pero hoy en día somos totalmente dependientes de la robótica. Sin los robots, la sociedad se paralizaría.


¿Qué les diría a los movimientos neoluditas que están surgiendo en contra de la tecnología?


Es verdad que los robots quitan puestos de trabajo, pero, al igual que no tenían razón los luditas, tampoco los neoluditas, porque quiero creer que la nueva familia de robots nos ayudará a mejorar la calidad de vida de un modo enorme, aunque quizá haya diferencias por países, dependiendo de su acceso a la tecnología. En todo caso, hay cuestiones preocupantes en las que los robots y la tecnología nos pueden ayudar. Por ejemplo, cuando se habla de que hay demasiada población en el mundo.



Pero si conseguimos una tecnología más eficaz, medioambientalmente más respetuosa, pueden ser hasta pocos. Otro problema: la pirámide invertida de edad. Es la primera vez en la historia en que hay más viejos que jóvenes. Aquí los robots también podrían ser de gran ayuda, realizando tareas para la atención y el cuidado de los ancianos. O en el tema de la energía, contribuyendo a aprovecharla de forma más eficiente. Hay muchas tareas en las que pueden ayudar. En cualquier caso, el problema vendrá si seguimos en una sociedad del despilfarro y seguimos ensuciando el planeta.


¿Y qué inconvenientes les ve a los robots?



Que confiemos demasiado de ellos. Por ejemplo, ahora nos fiamos tanto del GPS que cuando falla no sabemos qué hacer. La cuestión es aprovecharlos como las maravillosas herramientas que son, pero tener claro que también fallan y que hay que tener un plan B.


¿Será necesario que los humanos trabajen?


Por ejemplo, para reparar las máquinas y concebir nuevos robots. Aunque también habrá robots que hagan estas tareas.


En su libro explica que se le ha exigido demasiado a la Inteligencia Artificial (IA).


La mayor parte de los robots y la IA falla en que son capaces de tomar decisiones muy simples y a veces les falta el sentido común, lo que en el libro denomino "IA General" (IAG). Es decir, que ante un problema nuevo vea que se parece a un problema similar y lo sepa solucionar. Por ejemplo, en estos momentos hay aspiradoras automatizadas por debajo de los 600 euros que barren perfectamente una habitación. Pero como tenga unas escaleras, se caen.


En definitiva, se hicieron cuentos de la lechera. Por ejemplo, se afirmó que la traducción automática se iba a conseguir para los años 50, pero seguimos a años luz de distancia. El problema es que hemos confundido lo fácil con lo difícil, y viceversa. Hablar un idioma, con la cantidad de riqueza que tiene, a cualquier persona con una inteligencia normal le lleva unos dieciséis años.


Ponernos en otra cultura lo complica más, por lo que aprender otro idioma lleva aún más tiempo. Y no hay que olvidar que nuestro cuerpo tiene adquirida genéticamente una visión del mundo. En resumen, la traducción no es sólo un tema de diccionario, como se creyó. Hay un ejemplo clásico al respecto: se le propuso a una máquina que tradujera del inglés al ruso: "El espíritu es fuerte pero la carne es débil". El programa tradujo: "El vodka (por la marca Spirit) es bueno, pero el filete es malo". Andar también parece sencillo, pero en realidad no lo es, porque para ello entra en juego el cerebelo con sus 3.000 millones de neuronas.


¿En qué cuestiones sí ha habido grandes avances?


Parecía dificilísimo que una máquina resolviera ecuaciones diferenciales, pero en realidad es seguir una receta, algo que las máquinas hacen a la perfección. O jugar al ajedrez. En 1997 Deep Blue venció al campeón mundial. Y vale que fuera una máquina gigante, pero es que en 2004, un PC como los que tenemos hoy en nuestra mesa y un programa que vale 120 euros ha vencido al campeón mundial.


En este momento, hay ordenadores que resuelven y generalizan teoremas, o que tienen cierto sentido común como el que explicaba antes; y también hay muchos aparatos que han sido inventados de cero por programas. No obstante, insisto en que les sigue faltando el sentido común. Para ello se está trabajando por dos vías distintas. Una es mediante reglas: "Si hay una escalera no sigas porque te rompes". Hay un científico en Inglaterra que lleva ya escritas unos dos millones y medio de reglas. Otra es que la máquina aprenda. Por ejemplo, cuando trabajé para la NASA, creé varios de estos programas, desde para saber dónde están los peces para un programa de pesca automática hasta para comunicaciones de espacio profundo.


Entonces, la creatividad o las emociones ya no son exclusivas de los seres humanos.


Como he comentado, ya hay programas que inventan desde teoremas hasta antenas; se les da los datos y crean cosas nuevas. El primer programa de resolución de teoremas sacó seis demostraciones del teorema de Pitágoras, cinco conocidas y una nueva. Ahora bien, ¿esto es creatividad? Yo creo que sí.


Luego está el tema de las emociones. Depende de cómo definamos lo que es una emoción. Por ejemplo, el miedo es un proceso que nos sirve para tomar decisiones rápidamente. Y esto se le puede incorporar a las máquinas. Otra emoción sería el dolor. Como a nosotros, a un robot le viene muy bien tener un sensor que le diga que su rodilla le está fallando porque tiene exceso de calor.

Otros expertos hablan de los cambios que podrá traer la simbiosis entre seres humanos y máquinas, de los "cyborg", e incluso algunos hablan de una tecnoevolución, de un "Homo tecnologicus".


Claro que nos va a cambiar. Pero también me parece que hay un cierto miedo infundado a los "cyborgs", entre otras cosas porque ya están entre nosotros. Una persona que lleva un marcapasos inteligente, o una bomba de insulina, es un "cyborg". Ya hay experimentos de retinas artificiales; los implantes cocleares para combatir la sordera ya son casi estándares; se está trabajando en chips que, implantados en el cerebro, permitan luchar contra enfermedades como el parkinson o pérdidas de memoria; los brazos artificiales, etc.


¿Qué ocurrirá cuando una máquina apruebe el test de Turing y no se sepa si es una máquina o un ser humano?


Probablemente nada. Es otro tema al que se le ha dado demasiada importancia.



En cualquier caso, ¿cuándo cree que sucederá ese momento?


Al ritmo en que avanza la tecnología hoy día, en los próximos 17 años.


¿Y la visión apocalíptica de que las máquinas se harán con el control del mundo y nos destruirán?
Para eso tendríamos que dotarlas, entre otras cuestiones, de deseos de libertad. Pero no nos interesa hacer máquinas que sean como los seres humanos, sino máquinas que hagan tareas específicas mejor que seres humanos. Creo que por ahí va a ir el avance tecnológico. No descarto el lado negativo de todo, pero es absurdo intentar crear máquinas que sean como humanos, si ya estamos nosotros.


¿Y los robots se pueden enamorar?


¿Por qué no? Si les decimos que cuando vean una determinada cosa, vayan detrás de ella...
--------------------