Regístrese en PayPal y empiece a aceptar pagos con tarjeta de crédito instantáneamente. --

martes, julio 28, 2009

Otros mapas en Internet

Yahoo! y Microsoft, entre otros, han lanzado sus propias soluciones cartográficas para competir con Google Maps

Google Maps fue pionero en combinar mapas gratuitos con información relacionada de los diferentes establecimientos de una ciudad. Su combinación de planos dibujados al estilo tradicional e imágenes por satélite lo convirtieron en popular desde su aparición en 2005. Su éxito se disparó porque permite a cualquiera utilizarlo para crear sus propias combinaciones de datos. Sin embargo, en Internet se encuentran otros servicios con prestaciones similares y que aportan sus propias novedades.

Yahoo! y Microsoft, dos de las grandes empresas de Internet, ofrecen sus propias soluciones cartográficas para competir con Google Maps. Como sucede con el servicio del popular buscador, el acceso a los contenidos resulta gratuito

Bing Maps

La apuesta de Microsoft en el segmento de los mapas se ha renombrado recientemente para hacer coincidir la denominación con su nuevo buscador, Bing. A grandes rasgos, Bing Maps ofrece las mismas características que Google Maps. Este servicio funciona con mucha agilidad. Su zum logra aproximarse y mantener la calidad de la imagen a escala mejor que sus rivales. Combina los mapas dibujados con las imágenes planas del satélite, pero ofrece como extra una visualización distinta, denominada "Vista de pájaro". Sustituye la perspectiva cenital por imágenes reales con una leve inclinación que ayudan a captar mejor la perspectiva. Además, Bing Maps muestra partes de las ciudades en tres dimensiones, con algunos de sus edificios más característicos, una herramienta similar a la que implantó Google Earth. Para ello se debe instalar el programa Virtual Earth 3D.



Se pueden agregar los lugares que se han buscado a listas asociadas a cuentas del servicio Live de Microsoft, de manera que el usuario se libra de repetir la búsqueda si en el futuro quiere encontrar la localización del mismo sitio. Así, por ejemplo, si se va a hacer un viaje se pueden guardar todos los emplazamientos que se quieran visitar en una misma lista que se llame con el nombre de la ciudad en cuestión. Esta característica tiene un cariz social, porque se pueden publicar las reseñas y que otros usuarios accedan a los planos guardados.

En Bing Maps también se pueden calcular itinerarios en coche y después imprimirlos con los elementos deseados: mapa e indicaciones o sólo uno de los dos. Otra aportación interesante, aunque sólo presente en determinadas zonas, consiste en conocer el estado del tráfico de una forma muy visual. Las carreteras varían del color negro al verde en función de la densidad de tráfico que haya en esos momentos.



Yahoo! Maps

Yahoo! Maps presenta la misma estructura que Google Maps en cuanto a la posibilidad de ver mapas dibujados, imágenes obtenidas mediante satélite o combinando ambas opciones. Ahora bien, las instantáneas aéreas proporcionan una nitidez menor. Como Bing Maps, facilita información acerca del estado del tráfico en el momento en que se mira el mapa, una característica que puede ayudar a los conductores a evitar los atascos y a escoger otras rutas más descongestionadas. Además permite guardar los mapas en su servicio de favoritos, Delicious, y brinda un navegador en miniatura dentro del mapa para buscar con mayor velocidad un nuevo punto de interés en las cercanías del que se observa.



Igual que en Google Maps, se pueden realizar búsquedas de comercios en una zona determinada y establecer itinerarios para viajar de un punto a otro del mapa. Pueden incluir varios destinos, en forma de etapas. Estas rutas se pueden personalizar y modificar con sólo arrastrar la línea hasta el lugar deseado. La actualización de las mismas se produce de manera inmediata y se muestra el nuevo tiempo estimado en realizar el trayecto y los kilómetros que se recorrerán con las modificaciones. Cuando se trata de imprimir, permite al usuario elegir entre obtener las indicaciones y el mapa o sólo una de esas dos informaciones. Asimismo, también ha liberado su API para que otros puedan combinar sus datos con los mapas.


Otras alternativas


Además de los productos de Google, Microsoft y Yahoo! el usuario puede decantarse por otras opciones con similares características. Map24 es un sitio de Navteq, una de las principales empresas proveedoras de mapas, entre cuyos clientes se encuentran los propios Bing Maps y Yahoo! Maps. Destaca por su facilidad para girar los planos en tres dimensiones y personalizar las visualizaciones. Otra alternativa interesante, aunque limitada a los Estados Unidos, la constituye Mapquest, una compañía dedicada al negocio cartográfico que adquirió AOL en 2000.



OpenStreet Map

Las condiciones de uso de los mapas en Internet suelen permitir de forma gratuita el uso personal e incluso el empresarial siempre que se realice de forma privada. Sin embargo, si se van a utilizar las representaciones cartográficas en entornos empresariales y se van a comunicar de forma pública, por ejemplo en un sitio web, se debe negociar el precio con el promotor en cuestión.



La única excepción la constituye OpenStreet Map. Se trata de un proyecto libre que traslada el espíritu de la Wikipedia al mundo de los mapas. Los usuarios aportan los datos de sus dispositivos GPS para elaborar los planos y se apoyan en fotografías aéreas del dominio público o con licencia abierta, alguna de ellas del Gobierno de los Estados Unidos.


El resultado es un servicio de mapas más básico pero con una ventaja innegable: se corrigen con más agilidad los errores que se produzcan. Así, si un número de una calle determinada se encuentra situado de forma incorrecta en el plano, unas manzanas más adelante por ejemplo, OpenStreet Map permite una corrección inmediata por parte del lector.

Sitios web para las videoconsolas








Nintendo Wii, Xbox 360 y PlayStation 3 se conectan a Internet para descargar juegos y competir contra otras personas

Las consolas de videojuegos se han convertido en miniordenadores diseñados para el ocio. Entre sus múltiples prestaciones destaca una que ha ganado en importancia con los años: la conexión a Internet. Todas las consolas de última generación pueden acceder a la Red, con las ventajas que ello conlleva: juegos en línea, información sobre las últimas novedades y compra de juegos en descarga.

Consolas preparadas para Internet

La extensión de la banda ancha y del pago de Internet mediante tarifa plana, que evita la preocupación por el tiempo de conexión, ha abierto una nueva posibilidad a las consolas de videojuegos. Las tres grandes consolas (Nintendo Wii, Xbox 360 y PlayStation 3) incorporan el hardware necesario para la conexión. Así, la Nintendo Wii cuenta con una tarjeta inalámbrica integrada para acceder vía wifi y también vende un adaptador USB para realizar una conexión convencional por cable Ethernet. Su conexión inalámbrica resulta interesante porque permite crear con facilidad redes locales de consolas. Así, si se juntan dos Wii en una misma casa se puede participar en juegos, cada uno con su propia televisión. La PlayStation 3 también dispone de serie de un adaptador inalámbrico.

Por el contrario, la Xbox 360 permite de serie la conexión física mediante este tipo de cable en sus ediciones Elite y Premium, y la inalámbrica se ofrece a través de un periférico que se debe adquirir aparte. De esta manera, la consola de Microsoft se asegura una conexión más estable y rápida que el wifi por el que optan sus rivales.

Juegos adaptados a Internet

Por otra parte, los nuevos juegos aprovechan esta posibilidad técnica para crear modos multijugador en donde ya no se necesita estar en el mismo lugar físico. Basta con conectar la consola a Internet para hallar a un contrincante o aliado y practicar con el juego deseado aunque esta persona se encuentre al otro lado del globo. Esta práctica no suele conllevar ningún gasto para el usuario en las consolas, aparte de la conexión, excepto en el caso de la Xbox 360, que ha optado por cobrar por el juego en línea. La mayoría de fabricantes de videojuegos para consolas entienden que se trata de un servicio extra para las personas que han adquirido una copia del juego, a diferencia de lo que puede ocurrir cuando se trata de títulos para PC, donde resulta más frecuente que los modos en línea se cobren aparte.

Otra posibilidad que se abre con la adopción de Internet consiste en la descarga de juegos completos. Este nuevo canal de distribución depende en gran medida de la capacidad de almacenamiento de la consola. Así, las versiones con disco duro pueden ofrecer juegos más completos y, por ende, que ocupen más espacio. Sin embargo, lo más habitual son los minijuegos. Se trata de entretenimientos muy divertidos pero con una exigencia gráfica muy reducida para ocupar poco espacio en los dispositivos de almacenamiento y que su descarga sea más veloz.

Sistemas de pagos por puntos


En los sitios en línea de las consolas de videojuegos la moneda de curso legal no suele ser la convencional. En su lugar, reinan los puntos que cada fabricante atribuye a sus contenidos. Así, existen los Microsoft Points y los Wii Points. Por ejemplo, 1.000 Wii Points equivalen a 10 euros y se pueden encontrar juegos para descargar en Internet a partir de los 500 puntos o 5 euros.

Dichos puntos se pueden conseguir mediante el pago con moneda real a través de tarjetas de crédito o con tarjetas prepago que se pueden adquirir en tiendas de informática y videojuegos. La excepción la protagoniza PlayStation 3, que cuenta con un sistema parecido pero que no se basa en puntos sino en recargar un saldo con dinero real para después gastarlo en las diferentes descargas. El dinero se puede enviar a través de tarjetas de crédito o débito.

¿Qué ofrecen con la conexión a la Red?
Además de jugar en línea con los diferentes títulos adaptados a esta posibilidad, cada una de las tres consolas de última generación tiene una serie de características y opciones que las diferencian.

¿Qué ofrecen con la conexión a la Red?
Además de jugar en línea con los diferentes títulos adaptados a esta posibilidad, cada una de las tres consolas de última generación tiene una serie de características y opciones que las diferencian.

Nintendo Wii

En la Nintendo Wii los distintos programas se clasifican en canales. Las descargas que puede encontrar un usuario se albergan en el Canal Tienda Wii. El acceso al mismo es gratuito, pero las descargas suelen ser de pago. Allí se pueden bajar juegos WiiWare, que se han agrupado bajo el título. Se trata de entretenimientos más sencillos que los que se venden en disco y cuestan entre 10 y 20 euros.

También se puede acceder a versiones íntegras de juegos muy populares que han sido referentes en consolas hoy obsoletas, lo que Nintendo ha denominado Consola Virtual. Wii aprovecha así su mayor potencia respecto a sus predecesores y satisface la nostalgia de los jugadores que practicaron con estos títulos en su infancia. De esta manera, se pueden bajar juegos de Game Cube, de Nintendo 64, de Super Nintendo o de la NES, pero también correspondientes a las máquinas de su gran rival de antaño, Sega, como la Megadrive o la Master System, y otras marcas como Neo Geo.

Estos juegos se almacenan en la memoria interna de la consola (512 megabytes) o en tarjetas de memoria Secure Digital y se muestran como canales separados en el menú principal. Como la Wii no brilla por su capacidad de almacenamiento, Nintendo permite descargarse de nuevo los juegos que alguna vez se hayan comprado para permitir el borrado de los que no quepan.


Por otro lado, dispone de un modo de funcionamiento, denominado WiiConnect24, que mantiene la conexión a Internet cuando la consola entra en modo de espera. Así, se obtienen más rápidamente todas las actualizaciones del sistema operativo de la Wii y mensajes de Nintendo con sus novedades. Además, ofrece un canal de información sobre los últimos lanzamientos de juegos para la consola.

Otra alternativa interesante se encuentra en el canal Wii Speak, donde se pueden establecer conversaciones de voz con otras tres personas, a través de un micrófono denominado con el mismo nombre del canal y que se debe adquirir por separado. Esta posibilidad, unida al WiiConnect24 permite a los usuarios disponer de un buzón de voz donde amigos y familiares les pueden dejar mensajes. Las posibilidades de la conexión a Internet se completan con un navegador de Internet, diseñado por Opera, y con el acceso directo a las últimas noticias y al pronóstico del tiempo

Xbox Live

Xbox Live, el canal en línea de la Xbox 360, dispone de un acceso gratuito y otro de pago. El gratuito, denominado Xbox Live Silver, permite chatear con otros usuarios de la consola y acceder a algunas descargas de juegos gratuitos y a la tienda de descargas. El servicio de pago, de nombre Xbox Live Gold, cuesta 50 euros anuales aunque lanzan promociones a precios más reducidos para incentivar su uso. El gran atractivo de esta modalidad reside en la posibilidad de jugar en línea en gran parte de los títulos, una posibilidad prohibida en el acceso gratuito. Su apuesta por cobrar le diferencia de sus rivales, que optan por la gratuidad del juego en línea. Entre los numerosos títulos con los que se puede aprovechar esta posibilidad se encuentran Halo 3, Gears of Wars 2 y Fable II.


El Xbox Live Gold se puede probar sin coste durante un mes y la mayor parte de los juegos ofrecen códigos para activar el acceso a este servicio durante dos días. La tienda de descargas de Xbox permite descargar juegos y demostraciones de algunas novedades. Por otra parte, Microsoft explota las posibilidades de comunicación de Internet en su consola.

A través de los adaptadores inalámbricos que vende por separado, tanto auriculares como webcam, se pueden establecer videoconferencias o llamadas de voz con otros usuarios a través del programa de mensajería instantánea Windows Live Messenger. Si se quieren intercambiar mensajes de texto, se puede adquirir un teclado inalámbrico para que la tarea de escribir sea más cómoda. Además de las finalidades recreativas, destaca porque comercializa en Estados Unidos descargas de películas, de series de televisión, tanto en calidad normal como en alta definición, y de música. En España se puede acceder a vídeos musicales y también a ciertas películas.

PlayStation 3

La PlayStation 3 se diferencia de las demás consolas porque los usuarios se pueden inscribir desde una web convencional donde se muestra información sobre PlayStation Network y no sólo desde los propios aparatos, como sucede en los otros dos casos. Sin embargo, para su funcionamiento principal sí depende del acceso desde la consola, desde la versión portátil PlayStation Portable o desde un ordenador donde se haya instalado Media Go.

Se trata de una aplicación de Sony que controla este proceso. Dispone de dos tipos de cuentas: la maestra que permite realizar cualquiera de las actividades, comprar lo que se desee, y que requiere ser mayor de edad y una limitada ideada para evitar gastos indeseados por parte de menores.

En este sitio se encuentran clasificaciones con las mejores puntuaciones de los usuarios obtenidas en diferentes juegos y una comunidad en la que se pueden añadir amigos como si se tratara de una red social. Cuenta con un servicio de mensajería instantánea. Además, facilita la realización de videoconferencias, llamadas de voz y chats si se dispone de los periféricos adecuados, que se deben adquirir por separado.

Un aspecto interesante se encuentra en la identidad digital que promueve en forma de imagen y que recuerda a las firmas de los foros de opinión. Ésta se almacena en PlayStation Network con la imagen deseada por el usuario y los trofeos obtenidos por sus registros en cada uno de los juegos. El usuario puede mostrar dicha identidad gráfica en cualquier blog o red social.

Dentro de PlayStation Network se encuentra una tienda de descargas denominada PlayStation Store que ofrece demos, ampliaciones y juegos completos, entre ellos versiones íntegras de viejos juegos de la PlayStation One. Lo adquirido se puede instalar hasta en cinco consolas diferentes. Por otro lado, en Estados Unidos los usuarios pueden descargar películas completas y series de televisión. Algunos contenidos, como la música de los videojuegos, demos, avances de películas y de juegos o fondos de escritorio se pueden bajar gratis.


Una de las últimas posibilidades añadidas es PlayStation Home, una aplicación que se debe descargar e instalar en la consola. Sigue la estela de los Miis de la Nintendo Wii pero con un estilo gráfico similar a Second Life, con diferentes localizaciones. Permite que cada usuario cree un avatar tridimensional y la casa donde éste vive. Este servicio deja que los usuarios charlen entre ellos y se muestren contenidos, además de, por supuesto, jugar.

La PlayStation 3 dispone además de un navegador para rastrear la Web de manera similar a como se hace en un ordenador, con la posibilidad de ver contenidos en flash como los vídeos de YouTube y similares. Al igual que la Wii, ofrece accesos a las últimas noticias y al pronóstico del tiempo, con un acceso intuitivo a través de un globo terráqueo para determinar el punto donde se quiere obtener la información.

Anexo M, más velocidad en la subida de datos

Se trata de una nueva especificación del ADSL que acelera la transferencia de archivos por parte del usuario hasta los 3,5 megabits por segundo

El Anexo M incrementa la velocidad de carga de datos en el ADSL 2+. Esta tecnología de conexión a Internet es asimétrica y la subida de contenidos desde el lado del usuario siempre ha sido inferior a la descarga de datos al ordenador. En la práctica, lo máximo que se ha alcanzado en la carga de archivos ha sido una velocidad de un megabit por segundo (Mbps), una cifra muy alejada de los "hasta 20 Mbps" en sentido descendente que ofrece el servicio. Es por ello que Anexo M puede resultar útil si se extiende a todos los proveedores de la Red.

El ADSL supone el acceso a Internet por banda ancha más extendido. Según las últimas estadísticas de la Organización para la Cooperación y el Desarrollo Económico (OECD), de septiembre de 2008, el 60% de las líneas de banda ancha de los países desarrollados utiliza esta tecnología. No porque sea la mejor opción, sino porque fue la más económica para los proveedores de Internet. Gracias a ella, pudieron aprovechar la infraestructura de la telefonía fija sin necesidad de realizar inversiones elevadas como suponía la fibra óptica.

El ADSL privilegia la velocidad de descarga
Desde que se comenzó a implantar en España con una velocidad básica de 256 kilobits por segundo (Kbps), la velocidad de conexión en descarga ha evolucionado para llegar a los famosos "hasta 20 megas". Sin embargo, en la parte de la carga de datos desde el ordenador del usuario, la evolución ha sido muy inferior. Se ha pasado de 128 Kbps a un Mbps en el mejor de los casos, con bastantes conexiones que suben datos a unas tasas de entre 320 Kbps y 512 Kbps En el conjunto de países desarrollados la situación no es mucho mejor. Según las citadas estadísticas de la OECD, la velocidad media ascendente ofertada en los accesos con tecnología DSL es de 699 Kbps.

La velocidad en la carga de datos resulta un parámetro importante por varios aspectos. Cuanta mayor sea, con más rapidez se enviarán adjuntos pesados en el correo electrónico o archivos de grandes dimensiones, como vídeos. Muchos de los servicios de la Web exigen enviar este tipo de contenidos. Por ejemplo, si se quiere subir un vídeo casero a YouTube o enviar las fotografías a una tienda de revelado.

La capacidad de subida también influye en el comportamiento de los programas P2P. Para incentivar el intercambio de archivos, estos programas regulan la velocidad de bajada en función de la de carga. Asimismo, los usuarios que quieran instalar un servidor web en uno de sus ordenadores caseros se benefician del ancho de banda ascendente para enviar las páginas a más lectores al mismo tiempo.

Hasta 3,5 Mbps
El Anexo M es una especificación opcional del ADSL 2+ que permite incrementar la subida de datos desde 1,4 Mbps hasta 3,5 Mbps. Técnicamente, aumenta el espacio destinado a la carga porque varía la frecuencia que separa el canal ascendente y descendente del ADSL de 138 kilohercios a 276 kilohercios. De esta manera, se dobla la capacidad del ADSL 2+. En la práctica, la velocidad final variará en función de la distancia de la conexión respecto a la central del proveedor de acceso, como suele ocurrir con los DSL. Otra limitación radica en que no funciona bien en las líneas con un ruido excesivo.

En países como Australia, Dinamarca, Suecia, Finlandia, Gran Bretaña o Bélgica ya hay proveedores que incluyen el Anexo M. En España, Telefónica lo utiliza para sus ofertas de ADSL simétrico a velocidades de 1 y 1,5 Mbps, dirigidas a empresas y profesionales. Por otro lado, en junio Jazztel ha comenzado a ofrecerlo de manera gratuita a los usuarios residenciales que hayan contratado sus productos "ADSL 20 megas" o "Jazztelia", pero con la posibilidad de decidir cuándo activarlo.

Dentro del panel de clientes, en Jazztel, cada persona puede activar el Anexo M, que ha sido bautizado como "Turbo Up". Así se aumentará la velocidad de carga hasta los 2,5 Mbps Otra posibilidad es seleccionar Turbo Down, que hace lo propio con la tasa de descarga y la eleva hasta dos Mbps por encima del nivel habitual. La contrapartida de estas modificaciones consiste en que no se puede ver Jazztelia, la televisión IP de este proveedor, y que se produce una mayor inestabilidad en la conexión. Se pueden realizar tres cambios al día en estas configuraciones para adaptarse a necesidades y usos concretos. El proceso conlleva un corte de la conexión a Internet de unos dos minutos mientras se reinicia el router.

ADSL con módem USB móvil
Junto con la mejora que representa el Anexo M, el mercado del ADSL español ha experimentado otras novedades en los últimos tiempos. Después de que Vodafone adquiriera Tele2, la operadora británica ofrece un ADSL para líneas fijas en conjunto con un módem USB 3G. Así se garantiza la conexión desde que se tienen los aparatos porque se conecta de manera inalámbrica a través de la tecnología móvil y se evitan las demoras habituales cuando se activa un ADSL. Una vez iniciada esta conexión, el consumo del módem USB se factura aparte, con un coste diario de 2,9 euros.



Botnets: redes fraudulentas

Estas redes, formadas por miles de ordenadores infectados, se utilizan para ganar dinero con todo tipo de acciones ilegales

Se estima que uno de cada cuatro ordenadores con conexión a Internet se encuentra infectado, sin saberlo su dueño, por un código malicioso. Estos equipos son utilizados por los delincuentes informáticos para crear redes de aparatos "zombis" ( a su servicio y manejados de forma remota) con los que cometer todo tipo de estafas. A estas redes se las conoce como botnets (redes de robots) y cuentan con la ventaja de que aprovechan todo el potencial de computación de los ordenadores infectados y dificultan la localización del delinecuente

Se conoce como "botnets" a las redes formadas por miles, incluso millones, de ordenadores que son infectados por un determinado código malicioso. Estas redes se utilizan para cometer todo tipo de fraudes, como distribuir spam, alojar otros archivos infectados e incluso atacar redes y servidores de empresas y gobiernos. Los ordenadores infectados son controlados de forma remota desde cualquier parte del mundo, ya que su manejo se realiza a través de Internet y de manera distribuida.

Estos ordenadores son controlados de forma independiente o como parte de una red de ordenadores creada ad hoc para una acción concreta donde sea necesaria una gran potencia de cálculo o procesamiento de información, como puede ser la aplicación de técnicas de fuerza bruta (descifrado de claves complejas a base de ofrecer aleatoriamente soluciones hasta dar con la correcta) para adivinar contraseñas.

Los usuarios de los ordenadores infectados por este código malicioso, generalmente, no son conscientes de que sus equipos forman parte de una red de ordenadores "zombi". En general se dan cuenta de esta circunstancia cuando el ordenador lanza ventanas intrusivas con publicidad de forma permanente, cuando deja de responder o cada vez que trabaja de forma más lenta, debido a que parte de los recursos del ordenador son utilizados por el código malicioso.

Al ignorar la presencia de códigos maliciosos en su ordenador, el usuario pone en peligro no sólo su seguridad y su intimidad, sino también la de quienes se comunican con él. Este tipo de aplicaciones maliciosas analizan todo el tráfico de entrada y salida de Internet desde el ordenador del usuario, capturando un amplio abanico de datos como correos electrónicos, contraseñas y conversaciones privadas de chat. Estos datos pueden ser utilizados para cometer numerosos fraudes, desde chantajes hasta robos en las cuentas bancarias de los usuarios.

Entre las acciones que estas redes de ordenadores infectados comenten se encuentra el envío de spam. Según muchos expertos en seguridad informática, más del 80% de los correos basura se envían desde las botnets. Estas redes son alquiladas por los spammers a los delincuentes que las crean para realizar sus envíos por un coste menor que si tuvieran que contar con una infraestructura propia.

Además, los programas maliciosos también recopilan las direcciones de correo electrónico que encuentran en los ordenadores infectados para, posteriormente, venderlas a los spammers. Se sospecha incluso que detrás de las botnets puedan existir empresas legalmente constituidas que se anuncian como agencias de publicidad para recopilar datos. Por tanto, muchos clientes pueden estar utilizando servicios de publicidad sin ser conscientes de la ilegalidad que atañe al proveedor contratado.

Según Trend Micro, empresa especializada en seguridad y antivirus, la botnet "Pushdo" es la segunda más grande del mundo, y consigue enviar más de 7.700 millones de correos de spam al día. Es decir, uno de cada 25 correos de spam enviados ha llegado por vía de esta perversa red. "Pushdo" es complicado de identificar, ya que reside en la memoria del ordenador infectado y dispone de muy pocos archivos instalados en el disco duro que no son ejecutables. Además, no contiene instrucciones para propagarse por otros ordenadores con lo que la red no se hace nunca demasiado grande y, en consecuencia, detectable.

Otro de los usos más extendidos de las botnets es la de realizar ataques DDos. Estos ataques consisten en utilizar miles de ordenadores para hacer peticiones falsas dirigidas a servidores de Internet, para así sobrecargarlos y hacer caer sus servicios. Estos ataques pueden ser contratados por terceras personas (por ejemplo la competencia de un determinado servicio) o bien utilizados para chantajear a los dueños de los servidores atacados, a cambio de un rescate para dejar de atacarlos.

Infección La infección de un ordenador por código malicioso se realiza cuando el usuario del equipo realiza alguna actividad en Internet, como descargar e instalar una aplicación de dudosa procedencia como pueden ser cracks y generadores de números de series. El pasado mes de abril, una versión de Windows 7, disponible en redes P2P, contenía un código malicioso que provocó que más de 25.000 ordenadores formaran parte de una botnet.

Aunque las redes de botnets están muy extendidas en ordenadores con el sistema operativo Windows, otros sistemas operativos como Mac Os X tampoco están a salvo. Según expertos de Symatec, otra empresa que desarrolla software de seguridad, versiones no autorizadas de aplicaciones como iWork'09 y Adobe Photoshop CS4, circulan por redes P2P con un troyano (un programa malicioso capaz de alojarse en ordenadores y permitir el acceso a usuarios externos) denominado OSX.lservice en su seno. Dicho troyano abre una puerta trasera en el ordenador infectado, integrándolo así a una botnet.

Más vale prevenir
En ocasiones las botnets aprovechan las vulnerabilidades en los navegadores web más utilizados, como Internet Explorer y Firefox, para ejecutar un código malicioso que ordena al equipo descargarse la aplicación botnet correspondiente. Por tanto, como principal recomendación de seguridad, es imprescindible que el sistema operativo y las aplicaciones utilizadas para acceder a Internet se encuentren actualizadas a la última versión.

Otras medidas para proteger el equipo son disponer de un software antivirus actualizado y un cortafuegos. Esta aplicación está pensada para controlar e identificar el tráfico entrante y saliente de un ordenador. De esta forma, el usuario puede ser alertado sobre una actividad sospechosa de conexión a Internet que realice el equipo sin su permiso ni intervención.

sábado, julio 18, 2009

El espectro radioeléctrico, un recurso natural y limitado

Tanto los aparatos eléctricos como los medios de comunicación utilizan el conjunto de frecuencias que conforman el espectro radioeléctrico

El aire que respiramos está lleno de ondas intencionadas. Van de una dirección a otra transportando las órdenes de los mandos a distancia, las imágenes de los vídeos de Internet o la música de la radio, entre otras muchas señales. Se trata del espectro radioeléctrico, un conjunto de frecuencias dentro de un mayor espectro electromágnético que son profusamente usadas por casi todo el mundo, pero que tienen sus límites, se saturan y se interfieren.


Se define como espectro electromagnético al conjunto de ondas con diferente longitud, frecuencia y radicación que pululan por la atmósfera terrestre. El espectro comprende desde las ondas de radio a los rayos gamma pasando por la luz visible. Es decir, el tipo de energía electromagnética que puede ser percibida por el ojo humano. Dentro del espectro electromagnético se encuentra el espectro radioeléctrico, como un subconjunto de este.

El espectro radioeléctrico, que ocupa una parte relativamente pequeña del espectro electromagnético, está fijado en la frecuencia entre los 10 kilohercios (Khz) y los 3.000 gigahercios (Ghz). Es decir, entre los 10.000 hercios (u oscilaciones por segundo, que es la unidad de frecuencia) y los 3 billones de hercios, ya que un gigahercio corresponde a mil millones de hercios. Aunque parezca un rango muy grande, cada tecnología usa unos anchos considerables, y en la era de las telecomunicaciones son cada vez más las tecnologías que lo ambicionan.

No hay que olvidar que es profusamente usado para multitud de funciones: la radio, la televisión, los mandos a distancia, los teléfonos móviles o las redes wifi son sólo algunos de sus ocupantes, sin contar los usos militares o científicos.

En función de la gama de frecuencias, éstas se dividen en diferentes bandas y sub bandas cuyo uso va destinado a diversos servicios de telecomunicaciones, televisión, radiodifusión, seguridad y defensa, emergencias, transporte e investigación científica. Debido a que es un recurso natural de carácter limitado, se considera un bien de dominio público que es gestionado por los correspondientes Estados.



Usos más populares

•RFID: Las etiquetas de radioidentificación de baja frecuencia, como por ejemplo los chips que se les pone a los animales domésticos para tenerlos identificados, funcionan con ondas de muy baja energia, que comunican a cortas distancias. En concreto, entre 125 kilohercios (Khz) y los 148.5 Khz.

•NFC: Hay algunas etiquetas que portan algo más de información y trabajan en frecuencias más altas, como los 13.56 Mhz (un megahercio corresponde a un millón de hercios). Son las llamadas comunicaciones de proximidad (o Near Field Comunications), de gran uso en países como Japón o Corea.

•Radio comercial: La radio comercial local más usada, hasta la llegada de Internet, es la frecuencia modulada o FM. Las emisoras que trabajan en FM, más del 90%, utilizan la parte del espectro que va de los 87 Mhz a los 107 Mhz.

•Televisión analógica: La televisión que ahora nos abandona trabajaba en dos rangos de frecuencias. El primero era el llamado VHF (acrónimo de "Very High Frecuency"), que se movía entre los 30 Mhz y los 300 Mhz. UHF (acrónimo de "Ultra High Frecuency") trabajaba entre los 300 Mhz y los tres Ghz.

•Televisión digital: La TDT emplea el rango UHF para emitir, pero lo aprovecha mucho mejor que la televisión analógica, ya que por cada canal analógico pueden emitir cuatro canales digitales.

•Telefónía móvil: Los teléfonos móviles se mueven en frecuencias más altas. El servicio GSM emplea el rango de los 900 Mhz, mientras que el 3G (más moderno y capaz de transportar datos además de voz) trabaja en los 1,8 Ghz.

•Wifi: Los estándares más modernos para los routers wifi usan el rango de los 2,4 Ghz, que permiten un ancho de banda mayor, ideal para Internet. Sin embargo, hay otros aparatos domésticos que operan en frecuencias similares y que generan interferencias. Es por ello que continuamente se trabaja en la búsqueda de nuevos estándares wifi que utilizan frecuencias menos saturadas.

•Bluetooth: La tecnología reina de trasmisión de datos por vía inalámbrica también trabaja 2,4 Ghz.

•Hornos microondas: Emplean los 2,45 Ghz y son una causa de interferencia en las redes wifi.

•Telefonía fija inalámbrica: Los teléfonos inalámbricos más modernos trabajan en el rango de los 5,8 Ghz, pero todavía hay muchos que usan la franja de los 2,4 Ghz, por lo que también son a veces incompatibles con las redes wifi.

•Mandos a distancia: Los mandos que controlan a distancia el televisor, las videocosolas y los home cinemas utilizan un rango cercano al infrarrojo, es decir sobre 390 Thz, o lo que es lo mismo los 390 billones de hercios. Este rango es cercano a la luz visible, y aunque el ojo humano no lo ve, las cámaras fotográficas sí captan los rayos de los mandos.


Regular su uso


No todas las frecuencias disponen de las mismas capacidades de cobertura y de comportamiento frente al ruido y las interferencias, lo que hace que algunas sean más solicitadas para determinados negocios que otras. Además, los diferentes tipos de servicios requieren distintos márgenes (bandas de frecuencia) específicos. Por tanto, es necesario un marco regulatorio con normativas que minimicen los posibles conflictos que se puedan producir entre los usos y servicios en una misma banda de frecuencias.


Para la gestión del espectro radioeléctrico, hay una serie de normas fijadas a nivel internacional por la Unión Internacional de Telecomunicaciones (UIT). Este organismo con sede en Ginebra (Suiza) es el encargado de organizar el uso de las frecuencias radioeléctricas y de promover una serie de normativas para que la gestión del espectro se haga de manera uniforme y eficiente, sin que un uso perjudique o interfiera sobre otros.

Este rango de normativas, de carácter técnico, comprende desde el tipo de emisión hasta los niveles de exposición. Los diferentes Estados son los encargados de elaborar y establecer las políticas de utilización, reglamentación y control del uso del espectro a nivel nacional. En España, el Ministerio de Industria, a través de la Secretaría de Estado para las Telecomunicaciones y la Sociedad de la Información, es la encargada del ordenamiento del espectro. Para ello, cuenta con el Cuadro Nacional de Atribución de Frecuencias (CNAF). Esta normativa se considera una pieza básica para el ordenamiento del espectro y contiene información de carácter técnico sobre la utilización del espectro en diferentes bandas de frecuencias en España.

La demanda en la utilización del espectro es creciente en los últimos años debido a la aparición de nuevos servicios, como los sistemas de comunicación móviles, las nuevas redes de difusión de la televisión digital terrestre y el acceso en movilidad a la banda ancha. Por tanto, el cumplimiento de estas normativas permite ofrecer estos servicios con garantía de calidad.


El dividendo digital y la TDT


En 2007 la Unión Internacional de Telecomunicaciones (UIT) decidió que la banda de frecuencias que va de 790 Megahercios (MHz) a 862 MHz estaría reservada para servicios de banda ancha en movilidad a partir de 2015. Por este motivo, muchos países han dejado libres estas frecuencias para futuros servicios, como pueden ser los de banda ancha en el entorno rural.


Sin embargo, en España, las frecuencias de los canales TDT fueron otorgados varios años antes, con lo que ahora se encuentran con diferentes canales ( los que van del 61 al 69) dentro de esta banda de frecuencias no previstas para servicios de televisión. De manera que será necesario que en los próximos años estos canales tengan que cambiar de banda para que el rango de frecuencias que va de 790 MHz a 862 MHz quede libre a partir del 1 de enero de 2015.

Debido a que actualmente España se encuentra en el proceso de transición del apagón analógico en televisión (proceso que finalizará en abril de 2010), es necesario que en primer lugar quede libre esta parte del espectro para realizar después los cambios de frecuencia de la TDT y la liberalización del rango previsto por la UIT. A nivel internacional, esta liberalización de las frecuencias actuales de la señal analógica para usos distintos al de televisión se conoce bajo el nombre de "dividendo digital".

Google Sites, páginas para todos

El buscador ofrece a todos sus usuarios un servicio de creación de sitios web que también puede usarse como intranet

En estos momentos la comunicación entre los usuarios va mucho más allá del correo electrónico o la mensajería instantánea. El progresivo crecimiento del ancho de banda en las conexiones permite el intercambio de archivos de todo tipo que facilitan la difusión de textos, imágenes, vídeo o música. A esto se suma que las aplicaciones web colaborativas propician el trabajo en grupo desde un único sitio y sin necesidad de sobrecargar el tráfico de la Red. Con esta premisa, Google Sites propone un sistema sencillo de creación tanto de páginas web abiertas como sitios cerrados a un grupo de personas que trabajan conjuntamente o comparten determinado material de manera privada.

Como muchas otras aplicaciones de Google, Sites tiene su origen en un servicio desarrollado fuera de la empresa. El proyecto, que inicialmente se llamará JotSpot, cambió de nombre a Sites en 2006 cuando Google lo adquirió. La intención inicial era incorporarlo a su suite Google Apps, que ofrece herramientas para pequeñas empresas; de este modo se dotaba a las suscriptoras de Apps con un medio para crear páginas con rapidez y sin necesidad de contratar un desarrollador o un diseñador. Sites también podía hacer las veces de intranet corporativa donde subir archivos para los equipos de trabajo, desarrollar un wiki con instrucciones o crear documentos de trabajo en equipo sin necesidad de estar ubicados en la misma oficina.

Sin embargo, el buscador decidió abrirse al gran público ahora hace un año con el fin de que los mismos servicios estuvieran a disposición de todos sus usuarios, independientemente de si eran o no suscriptores de Google Apps. Eso sí, los usuarios de Google Sites tienen que serlo primero de alguno de los servicios de Google, como por ejemplo su correo Gmail. Esta medida está orientada a favorecer la creación de sitios web sencillos, ya que no permite grandes alardes de diseño, dentro del entorno de Google, y a ofrecer espacios de trabajo colaborativos a grupos de usuarios. Algunos ejemplos de páginas creadas con Sites son la intranet del movimiento Organic city, o ésta de un empleado de Google.


Apropiado para crear intranets

Google Sites viene a sustituir a Google Page Creator, el anterior proyecto del buscador que cayó en el olvido por falta de uso, por su código excesivamente rudimentario y por su incapacidad para crear páginas dinámicas que se pudieran actualizar de modo automático. Muchos expertos señalaban que creaba mejores páginas web Blogger (el servicio para crear blogs de Google) que Page Creator.

Con Sites, muchos de estos problemas están solucionados, ya que no sólo se generan páginas dinámicas (como las de los blogs), sino que se optimizan el resto de aplicaciones colaborativas desarrolladas por Google en los últimos años. Tanto Google Docs (la aplicación para trabajar en equipo sobre documentos y hojas de cálculo on line, similar al modo de funcionar de los wiki) como Calendar (el organizador de tareas de Google) o Google Maps se pueden integrar en Google Sites. También interactúa con Youtube y el servicio de imágenes Picasa.

Todo esto hace de Sites una herramienta apropiada para crear una intranet (un sitio web compartido de manera cerrada por un grupo de personas) desde donde se pueda trabajar en grupo sobre textos, visionar vídeos o subir y descargar archivos multimedia como fotografías o música. El servicio permite crear tantas páginas como desee el usuario y editarlas después, añadiéndoles tanto texto como un diseño de fondo con imágenes y colores. También permite subir a las sucesivas páginas creadas imágenes, documentos, hojas de cálculo, vídeos o presentaciones en formato flash. Por otro lado, el usuario actúa como administrador de cada página generada y decide a cuántas personas admite en la misma y si es pública o cerrada a un grupo.

Cómo crear páginas

Para utilizar el servicio sólo se necesita tener una cuenta en Gmail, el correo web de Google, de modo que las mismas claves servirán para inscribirse. Una vez inscrito, el usuario accede a un botón de comienzo que generará la página principal. En ella deberá escribir la dirección URL que desee para su nuevo sitio, del modo "http://sites.google.com/loquesea". Una vez determinada la dirección URL deberá decidirse por un servicio cerrado o abierto. En el primer caso se podrá invitar a tantas personas como se desee, del mismo modo que se hace en Google Docs.

A través del correo electrónico de Gmail del usuario se enviará un enlace cifrado de invitación a participar en el servicio. También se puede determinar en qué grado entra el invitado: si como colaborador, que puede participar en la edición de contenidos; como simple lector o incluso como copropietario, que podrá subir contenidos y también decidir, junto con el usuario, si se debe invitar o no a nuevas personas. También se puede dejar el sitio abierto para todo el mundo y hacer que sólo determinadas personas accedan a él como colaboradores o copropietarios.

Para editar la página principal, a partir de la que se generan las demás, con una URL del estilo "http://sites.google.com/loquesea/nuevapagina", se dispone de un número limitado de formatos de diseño que no dan mucho juego. De todos modos, en Sites prima el aspecto práctico por encima del gráfico. En las nuevas páginas que se creen, el servicio pregunta qué tipo de formato se quiere crear. Se puede escoger el formato 'web', que es el más gráfico; el de 'archivero' (que permite subir todo tipo de archivos y trabaja como repositorio con un límite de almacenamiento de 10 gigabytes por usuario); el formato 'a dos columnas', útil para mostrar archivos multimedia como vídeos e imágenes; el de 'lista', que permite introducir directorios de enlaces y archivos; y el de 'anuncios', que sirve de tablón de anuncios para los usuarios del grupo, tal como su nombre indica.


Android y la nube, sus mejores aliados

La ampliación de Google Sites a todos los usuarios, y no sólo a los que pagan por usar Google Apps, tiene un motivo claro. El reciente " boom" del cloud computing (también conocido como "la nube") se debe sobre todo a la creación de servicios on line por parte de grandes empresas como Apple, Nokia o Microsoft, donde desarrolladores externos pueden alquilar la capacidad de computación de sus servidores y el almacenamiento para los programas que crean. Estos programas posteriormente son ofrecidos, o vendidos, a los usuarios de aparatos de estas grandes marcas como un valor añadido del dispositivo. Así ha sucedido con las aplicaciones para el iPhone, en algunos teléfonos de Nokia de la serie S60, y se espera que suceda con el nuevo sistema operativo que comercialice Microsoft, Windows 7.

En la misma tesitura se encuentra precisamente Google, que está potenciando su sistema operativo para móviles Android. Google espera que el valor de su sistema esté tanto en el entorno de servicios corporativos (mapas, documentos, vídeos, etc...) adaptados al móvil, como en las aplicaciones de los desarrolladores externos. Por este motivo, Google Sites se revela como el entorno perfecto de trabajo para ellos.

Comprar y gestionar un nombre de dominio

En el momento de registrar un dominio en Internet conviene seguir una serie de recomendaciones

Cada página web es distinta de la otra, como lo es su creador respecto a los demás. Los sitios de Internet son un reflejo de las personas que hay detrás y deben poder identificarse con las mismas y facilitar que los demás los identifiquen. Tener un nombre de dominio en Internet, por lo tanto, es una ventaja para muchos usuarios, al poder asociarlo una página web personal o a una cuenta de correo electrónico. Sin embargo, es necesario tener en cuenta una serie de recomendaciones para registrar y gestionar un nombre de dominio de forma segura.

Niveles de dominio


Los nombres de dominio son las direcciones de Internet que permiten acceder a un sitio web al teclearlo en el navegador. Detrás de ellos se encuentran las DNS (Domain Name System), que vienen a ser un sistema de correspondencias numéricas, algo así como unos identificadores de dominios. Este sistema consiste en una base de datos distribuida cuyo cometido es el de recopilar las direcciones IP de cada servidor web y asignarles un nombre de dominio. Es decir, cuando un usuario escribe "www.consumer.es", los servidores DNS se encargan de apuntar hacia la IP del servidor 67.215.65.132. De esta forma, los usuarios pueden recordar de forma más sencilla una dirección de Internet.

Los nombres de dominios tienen diferentes tipos de extensiones, dependiendo del tipo de contenido que aloja o del país. Los dominios terminados en .com, .net y .org se llaman dominios genéricos de primer nivel, y son los más utilizados. En particular los .com. En un principio, estas extensiones se crearon para actividades especificas del tipo comercial o bien proyectos en red y sin ánimo de lucro, pero ahora se utilizan para cualquier tipo de proyecto debido a la escasez de los mismos.

En un segundo nivel se encuentran los dominios territoriales como .es para España, .fr en Francia o .pt para Portugal. Estos dominios son interesantes para entidades y empresas locales y cada uno de ellos está gestionado por un organismo local. En España, los dominios .es son gestionados por la entidad pública Red.es a través de ESNIC. Estos organismos son los encargados de acreditar a los agentes registradores, es decir, a las compañías donde los usuarios y las empresas pueden acudir para tramitar la compra o renovación de un nombre de dominio.

Cada uno de los organismos locales encargados de la gestión de los nombres de dominios de un país establece las condiciones de acceso y tarifas de los mismos. En España, durante muchos años, los dominios .es no tenían una gran aceptación debido a su elevado precio respecto a dominios genéricos de primer nivel y a las condiciones impuestas en su tramitación. Sin embargo, después de realizarse una simplificación de trámites y la subsiguiente bajada de precios, el pasado verano los dominios .es alcanzaron la cifra de un millón de dominios registrados.

En un tercer nivel, se encuentran los dominios del tipo .com.es o .nom.es. Estos dominios tienen la ventaja de tener un precio más económico, por tanto son una opción recomendable para usuarios particulares que necesiten tener un nombre en Internet.

Elegir un nombre de dominio

En el momento de registrar un nombre de dominio, elegir la palabra o combinación de éstas es la primera acción que deben realizar los usuarios. Sin embargo, las principales palabras en los idiomas más extendidos en el mundo están registradas desde hace años. La falta de palabras o buenas combinaciones es uno de los problemas a la hora de registrar un dominio. Así se puede ver con los dominios .com, donde todas las combinaciones posibles de tres letras están registradas desde hace años. Existe, sin embargo, un mercado de compra-venta de dominios donde los usuarios y empresas pueden acudir a adquirir al precio estipulado por sus dueños dominios ya registrados. Uno de los sitios más conocidos es Sedo.com.

Esta actividad, en ocasiones especulativa, se basa en registrar palabras relacionadas con diferentes sectores, como el ocio, el turismo o el juego, que pueden ser de especial relevancia a la hora de crear una actividad empresarial en Internet. Las palabras genéricas, como nombres y adjetivos, relacionadas con una actividad concreta, son las más demandadas ya que son las primeras que los internautas usan en los buscadores.

Debido a la falta de nombres de dominios en las extensiones más utilizadas y para fomentar la creación de dominios personalizados, ICAAN, el organismo encargado del control de los nombres de dominios, ha liberalizado su uso. A partir de 2010, las compañías e instituciones que cumplan una serie de requisitos podrán solicitar la creación de extensiones de dominios asociadas a sus marcas. De esta forma, empresas como Google o Apple, podrían tener, si así lo decidieran, extensiones como .google o .apple.



Registrar un dominio
La recomendación principal es ir directamente a la web de un agente registrador de confianza para buscar nombres de dominios libres y proceder a su registro. Estas empresas no sólo ofrecen el servicio de registro de dominios, sino que también disponen de planes de alojamiento, cuentas de correo asociadas, etc. Para los dominios .es, ESNIC dispone de un listado de agentes registradores donde acudir. También existen servicios on line que facilitan la comprobación de nombres en diferentes extensiones de dominios mientras se va tecleando, como la web Instant Domain Search.

Cuando se registra un nombre de dominio, éste debe ser renovado mediante el pago de una cuota, de forma periódica. El periodo mínimo es de un año, aunque se pueden renovar por más años. La renovación se suele realizar entre 60 y 30 días antes de la fecha de finalización del contrato. Normalmente, las empresas registradoras envían un correo electrónico automatizado de aviso, pero es recomendable apuntar la fecha en un calendario por si esto no sucediera.

Para registrar un nombre es importante leer la letra pequeña de estos servicios, ya que en el pasado algunos registradores fueron acusados de registrar automáticamente aquellos nombres de dominios libres que buscaban en sus sistemas los usuarios que no terminaban el proceso de registro con ellos.


Otras recomendaciones

El titular del nombre es el que aparezca como dueño en los datos del dominio. Por este motivo, es imprescindible que estos datos sean los del usuario o empresa, ya que en caso de conflicto, un dominio registrado con nombre falso puede ser fácilmente cancelado.

Es recomendable que el agente registrador disponga de una plataforma on line para la gestión del dominio, de esta manera los usuarios pueden actualizar o modificar los datos del mismo sin necesidad que estos trámites sean realizados únicamente por el registrador. Además, la atención al cliente es otro de los aspectos a tener en cuenta. No es lo mismo contactar con una empresa establecida en el mismo país del usuario que otra ubicada en un horario e idioma diferente.

Los precios de los nombres dominio varían de un registrador a otro, que suelen utilizar ofertas agresivas, e incluso, ofrecer dominios de forma gratuita. Sin embargo, estas ofertas incluyen gastos no visibles a priori asociados a la compra o incluso un precio muy superior al de la competencia en el momento de renovarlo. También se han dado casos, en ofertas gratuitas de registro, donde el titular del dominio registrado por el usuario es la propia empresa registradora.


Alojamiento de dominios
Una vez registrado un nombre de dominio, para poder utilizarlo asociado a un sistema de alojamiento de la página, es necesario redirigir el dominio a dicha plataforma. Normalmente hay que indicar en los datos de gestión del dominio la DNS del servidor web de alojamiento (conocido como hosting, en inglés). Estos datos debe facilitarlos la empresa o el servicio de alojamiento utilizado.

Algunas plataformas gratuitas de alojamientos de páginas web, como el sistema de blogs Blogger o Tumblr, disponen de un servicio para que los usuarios puedan redireccionar un nombre de dominio a la dirección web creada para el blog. En la red, existen diferentes tutoriales que sirven de pistas para ayudar a los usuarios a realizar estos cambios.


En el caso de optar por un servicio de alojamiento de pago, es necesario pensar de antemano el tipo de página web que se va a alojar, así como sus requisitos técnicos, como que tenga soporte para base de datos como MYSQL e interprete lenguajes de programación como PHP y Perl. Una opción recomendable para comenzar es utilizar un servicio de alojamiento en un servidor compartido con otros clientes. De esta forma, los recursos de la máquina se dividen entre las páginas alojadas. Esta solución es útil para páginas web que no necesiten un alto consumo de recursos y tengan una media entre 50 y 5.000 visitas diarias.

Para proyectos web con una mayor cantidad de visitas, o que necesiten configuraciones personalizadas o un alto número de recursos disponibles, la opción natural es alquilar un servidor dedicado. En función del tipo de hardware, requerimientos y conectividad, su precio puede variar, ya que estos servicios están pensados para usos profesionales.

sábado, julio 11, 2009

Sintonizadores de TDT para ordenadores






Son unos dispositivos apropiados para ver la televisión digital en movilidad

España se encuentra en plena transición hacia la televisión digital, con todo lo que ello supone en adquisición de equipamiento compatible, ya sean antenas o descodificadores. El llamado "apagón analógico" deberá llegar al 100% de la población española el próximo tres de abril de 2010, y los televisores que no dispongan de los requerimientos mínimos dejarán de mostrar imágenes al no poder traducir la señal digital. Una opción interesante para los usuarios que quieran ver la televisión en distintas habitaciones de la casa, sin la necesidad de arrastrar el descodificador, o comprar un televisor moderno, es hacerlo mediante la adquisición de un sintonizador USB para ver la TDT en el ordenador.

La primera fase de la desconexión de la señal analógica, prevista para el próximo 30 de junio, se retrasará en 14 de los 32 proyectos, ya que "no se alcanzan las condiciones establecidas para el cese de las emisiones", según la Secretaría de Estado de Telecomunicaciones. De esta manera, de los 5,6 millones de ciudadanos que iban a realizar la transición, finalmente sólo serán tres millones los afectados por el momento.

El 67% de los hogares españoles dispone de recepción de televisión digital terrestre, mientras que se han vendido 18 millones de sintonizadores de TDT. La gran mayoría de las televisiones de gama media y alta ya llevan sintonizador TDT incorporado; para el resto de televisiones, hay diversos tipos de sintonizadores para colocar debajo del aparato de televisión. Sin embargo, el problema surge cuando se quiere ver la televisión digital en una habitación del hogar diferente al salón, o fuera de éste

Una de las opciones que tienen disponibles los usuarios son los sintonizadores de TDT pensados para su uso en ordenadores de sobremesa o portátiles mediante una conexión por el puerto USB. Estos sintonizadores, del tamaño de una memoria del tipo "pen drive", cuentan con la ventaja de que se pueden usar en cualquier lugar, ya que sus dimensiones los hacen perfectamente transportables.

Entre las características principales de este tipo de dispositivos se encuentra la opción utilizar el disco duro del ordenador para grabar la emisión de televisión. De esta forma, los usuarios pueden programar el dispositivo para grabar sus programas favoritos y visualizarlos después. Además, cuentan con acceso a la guía de televisión y un sintonizador de radio FM. Algunos modelos de sintonizadores TDT pueden ser también híbridos, es decir, incluyen un sintonizador de televisión analógica y digital, aunque con el tiempo desaparecerán del mercado.

Con el fin de captar la señal, estos dispositivos disponen de dos entradas de antena, una externa e incluida en el paquete, y un conector para el ensamblaje a una antena interior. En este caso es necesario colocar la antena externa portátil en un sitio con visibilidad para sintonizar correctamente los canales, ya que estas antenas no tienen demasiada potencia para la recepción de la señal de televisión digital.

Algunos modelos en el mercado

AVerTV DVB-T Volar es un dispositivo disponible para los sistemas operativos Mac Os X, Windows y Linux. Este sintonizador tiene capacidad para realizar una grabación rápidamente volviendo del modo hibernación o suspensión. Por otra parte, dispone de un sistema de escaneo y cambio rápido de canales junto con acceso a la EPG (Guia electrónica de programación), teletexto y subtítulos. La grabación de vídeo se realiza en formato MPEG-2 (uno de los más comunes, usado en los DVD comerciales, y compatible con todo tipo de reproductores), y dispone de TimeShift, una opción que permite empezar a visualizar una grabación aunque ésta no haya finalizado. Es compatible con cadenas de televisión que emiten en formato de alta definición HDTV. El precio estimado es de 60 euros.

El modelo Pinnacle PCTV nanoStick Ultimate sólo es compatible con los sistemas operativos Mac Os X y Windows, pero no con las distribuciones de Linux. Dispone de receptor de TDT, radio digital terrestre y está preparado para la televisión digital en Alta Definición (HDTV). Ofrece diversas aplicaciones para hacerlo funcionar como grabador bajo demanda (PVR) que permite a los usuarios realizar grabaciones en el disco duro del ordenador, de forma instantánea o mediante la programación, utilizando para ello la guía electrónica de programación (EPG). También tiene la opción TimeShift, que permite pausar, retroceder y avanzar rápido en los programas de televisión en directo. Uno de sus aspectos más interesantes es que incluye la aplicación Pinnacle DistanTV, que permite distribuir la señal de televisión hasta a tres ordenadores distintos conectados a una red local creada por el usuario. El precio estimado es de 70 euros.


El sintonizador TerraTec T5 funciona tanto en ordenadores con el sistema operativo Windows como con Mac Os X. También hay drivers (programas instaladores) no oficiales para el sistema operativo Linux. Está preparado para recibir la señal de televisión de Alta Definición (HDTV) con calidad de sonido Dolby Digital en Windows, mientras que para disfrutar de esta calidad de sonido en Mac Os X es necesario adquirir de forma independiente la aplicación completa Eye TV. Dispone de sistemas de grabación al disco duro, de forma manual o programada a través de la guía electrónica de programación (EPG), además de funciones de TimeShift. El precio estimado es de 100 euros.

Diseñan un teclado virtual para personas con problemas de movilidad

Las personas con problemas de movilidad disponen ya de un teclado virtual que reduce hasta en un 40% las pulsaciones necesarias para escribir un texto, ya que el sistema añade automáticamente las palabras que faltan. Este teclado, desarrollado por la Universidad de Lleida (UdL) y dirigido a 1,8 millones de usuarios potenciales en España, se puede descargar gratuitamente a través de Internet.

Al ser virtual, se descarga en el ordenador como un programa y no requiere de teclado físico. Además, permite la escritura de textos mediante cualquier dispositivo de control del cursor, ya sea un ratón, un "joystick", un soplador o un controlador a través de la vista o los movimientos de la cabeza, indicó Jordi Palacín, director científico de la cátedra de la UdL.

Los promotores del teclado virtual explicaron que la principal novedad respecto a otros dispositivos similares es que permite reducir hasta en un 40% el número de pulsaciones necesarias para escribir un texto. Esta velocidad se consigue a través de un sistema de predicción que permite al teclado completar las palabras que empieza a escribir el usuario o predecir cuál será la siguiente palabra.

En varios idiomas

El sistema se ha creado con diccionarios en castellano, catalán, inglés, francés e italiano, aunque puede ser utilizado en cualquier lengua basada en el alfabeto latino, ya que permite que el usuario pueda crear su propio diccionario desde el principio. Además, aprende el estilo de escritura del usuario, de manera que mejora la predicción y se adapta en cada ocasión al tipo de texto que quiere redactar.

Este dispositivo se ha ideado especialmente como complemento al ratón virtual Headmouse, creado en 2008 también por estos investigadores y que permite controlar el cursor con los movimientos de la cabeza o seleccionar una opción abriendo y cerrando los ojos o la boca.

Programas para dibujar y pintar

Dibujar y pintar con el ordenador y otros dispositivos es cada vez más sencillo gracias al desarrollo de programas más cercanos al gran público

A diferencia de las últimas décadas, la ilustración digital ya no es ni cuestión de usuarios avanzados ni asunto exclusivo de ordenadores. Ahora los creadores que usan las nuevas tecnologías en su trabajo pueden ser usuarios no avanzados provistos portátiles o incluso de teléfonos móviles. El desarrollo de la informática y la aparición de entornos gráficos cada vez más sofisticados en los ordenadores, junto con la popularización de dispositivos periféricos como las tabletas gráficas que reproducen de forma más precisa los trazos realizados, ha propiciado una revolución para muchos usuarios y profesionales que optan por estas soluciones para dibujar.


En el momento de decidirse por una aplicación para dibujar hay que tener en cuenta el tipo de imagen que se quiere obtener. Las imágenes digitales pueden ser de dos tipos: vectoriales y matriciales. Las vectoriales son imágenes formadas por objetos geométricos independientes definidos de forma matemática. De esta forma, el tamaño de una imagen realizada de forma vectorial puede aumentar o disminuir sin que afecte a la calidad de la imagen.

Por el contrario, las imágenes creadas de forma matricial, mediante mapas de bits (o bitmap), son imágenes que se representan mediante una estructura, a modo de rejilla, donde cada punto o pixel representa un punto de color. Este tipo de imágenes se utilizan en la fotografía digital. En el mercado hay diferentes soluciones de aplicaciones para dibujo matricial y vectorial. Es el tipo de dibujo que se quiere realizar el que determina el tipo de imagen a utilizar. Por ejemplo, en la creación de dibujos animados o dibujo estilo manga, las aplicaciones vectoriales son las más recomendables.


Programas


Adobe Flash es una de las aplicaciones más utilizadas para la animación de imágenes vectoriales, mientras que para ilustraciones o dibujo libre, CorelDRAW y Adobe Illustrator son las aplicaciones de pago más conocidas y utilizadas del sector. CorelDRAW, disponible para el sistema operativo Windows, es una completa herramienta para la creación de dibujo vectorial y también para el desarrollo de imágenes de mapas de bits (dibujo matricial). Su precio estimado es de 787 euros.

Sin embargo, para explorar todas las opciones a la hora de realizar una pintura digital, Corel Painter es una de las aplicaciones más recomendadas para creaciones artísticas. Dispone de un completo set de herramientas para pintar que, unido a una tableta de dibujo, permite hacerlo de forma fluida, como si de un pincel se tratase. Su precio estimado es de 415 euros, con versiones para los sistemas operativos Windows y Mac Os X.

Por su parte, Adobe Illustrator es un programa de diseño vectorial disponible para Windows y Mac Os X que incluye diferentes herramientas para dibujar y realizar bocetos en pantalla, de igual forma que en una hoja de papel. Su precio estimado es de 834 euros. Esta misma compañía, especializada en el desarrollo de aplicaciones de diseño, cuenta con uno de los programas más conocidos por los usuarios, Adobe Photoshop. Esta aplicación, recomendada para retoque fotográfico y creación de imágenes, tiene un precio estimado en 984 euros.


Por otro lado, hay diferentes aplicaciones gratuitas que permiten a los usuarios dibujar y pintar. El sistema operativo Windows incluye la aplicación Microsoft Paint, que dispone de las herramientas más básicas para el diseño. Su simpleza, su diseño intuitivo y su facilidad de manejo hacen que sea una aplicación apropiada para niños y personas que se quieran iniciar en el uso de los programas de ilustración digital.

Basado en software libre, la aplicación GIMP, disponible para los sistemas operativos Windows, Mac Os X y Linux, permite crear y manipular gráficos, incluyendo retoques fotográficos, e incluye un conjunto de herramientas de dibujo y coloreado de gran calidad. Para el sistema Mac Os X existen multitud de aplicaciones para diseño vectorial y matricial. Una de las más sencillas es Drawit. Este programa de diseño vectorial incorpora las herramientas más básicas de diseño, así como una serie de plantillas para facilitar su uso. Dispone de dos versiones, una gratuita que incorpora menos funciones y la completa, cuyo coste es de 29 euros.


Tabletas gráficas

Los periféricos de entrada, como las tabletas gráficas, son el mejor compañero para las aplicaciones de dibujo. Por su precisión permiten utilizar estos dispositivos de igual modo que si de un pincel se tratara. En el mercado se comercializan diferentes opciones de tableta. Como norma general para dibujar, es recomendable que las dimensiones de estas tabletas sean de un tamaño A4, aunque algunas soluciones más pequeñas pueden ser una buena opción para usuarios que quieran acceder a este tipo de periféricos sin necesidad de hacer un gran desembolso económico. La empresa Wacom dispone de la gama de tabletas de dibujo Intuos4, ofertada en diferentes tamaños y precios. Para usos más profesionales, la tableta Wacom Cintiq 21UX es una opción que dispone de una pantalla táctil de 21,3 pulgadas, recomendable para dibujar y pintar con precisión en el trazo. Su precio estimado es de 2.000 euros.

Nuevos buscadores


Se presentan Bing y Wolfram Alpha, dos iniciativas diferentes que dinamizan el sector de las búsquedas

El sector de los buscadores es un segmento del mercado que mueve miles de millones de dólares al año en inversión publicitaria. Actualmente, Google es el motor de búsqueda mas utilizando con un porcentaje de penetración superior al 90% en algunos países, como España. Por este motivo, cada cierto tiempo aparecen nuevos buscadores que luchan por una parte de ese pastel. Además, las empresas de Internet ven con buenos ojos la llegada de competidores, ya que ayudan a dinamizar el mercado y rebajar el poder en cuanto a políticas de uso, posicionamiento y publicidad que impone Google a sus potenciales clientes y usuarios. Bing y Wolfram Alpha son las últimas propuestas, tan radicalmente diferentes entre sí como interesantes.


En las últimas semanas se han presentado dos iniciativas muy diferentes que, aunque tienen objetivos comunes, como son conseguir la aprobación de los usuarios y lograr ingresos publicitarios, también difieren en su esencia. Mientras Bing, el nuevo buscador de Microsoft, se sitúa en la línea de los buscadores tradicionales, Wolfram Alpha rompe con este concepto para introducirse en las búsquedas transversales dentro de los sitios web, con todo lo que ello implica. Así, más que páginas, Wolfram busca datos dentro de las páginas para poder ofrecer respuestas.

Bing: Microsoft no se rinde

Bing es el nuevo intento de Microsoft de conseguir una mayor penetración en el sector de los buscadores. La compañía ya lo había intentado en 2006 con un diseño que respondía al nombre de Windows Live Search (basado a su vez en su primer buscador, MSN Search), y que posteriormente pasó a denominarse "Live Search" en 2007. Este cambio de nombre entraba dentro de la estrategia de reordenar los servicios on line de Microsoft bajo la plataforma denominada Live.

Bing, lanzado el pasado 3 de junio, ha sido sometido a juicio de todos los analistas, con variedad de opiniones. Para unos mejora las búsquedas respecto a sus versiones anteriores, además de ser mucho más veloz que su predecesor, e incluye algunos cambios y nuevas características, como las búsquedas relacionadas. Pero para otros no es más que una operación de marketing que maquilla los logros ya conseguidos por Windows Live Search, entre los que estaba un sistema de diseño de macroinstrucciones para hacer búsquedas predeterminadas.



Con independencia de las opiniones de los expertos, Bing aporta algunas novedades. La funcionalidad de búsquedas relacionadas, que se muestra en el lado izquierdo de la página de resultado de búsquedas, está derivada de la tecnología semántica PowerSet, adquirida por Microsoft en 2008. Se basa en que, cuando se realiza una búsqueda, junto al resultado de la misma se ofrecen una serie de alternativas que no son las buscadas pero tienen algún grado de relación con ella.

Junto con estas sugerencias de búsquedas, Bing también incluye un historial con las últimas búsquedas realizadas, algo que puede resultar interesante en caso de que se esté buscando de modo recurrente un determinado sitio web. De momento, estas funcionalidades sólo están disponibles para búsquedas en inglés y seleccionando como país desde el que se ejecuta el servicio Estados Unidos. A medio plazo, sin embargo, estarán disponibles para todas las versiones regionales del buscador.

De forma similar a Google, Bing también ofrece opciones de búsqueda por tipo de contenido, como por ejemplo buscar sólo imágenes, o bien noticias o mapas. En este sentido, la opción de búsqueda por imágenes dispone de un entorno gráfico muy intuitivo y visual que da diferentes alternativas para ordenar los resultados según el tamaño, diseño o estilo de la imagen. Así, permite buscar personas por planos cortos, planos medios y largos. También por tamaños de fotografías, por la forma del marco o por el color de la imagen.


Además, Bing integra la web europea de compras, que también es un comparador de precios, Ciao, adquirida por Microsoft en Octubre de 2008. Esto puede ser tanto una ventaja como un inconveniente, pues por un lado siempre se puede tener una relación del precio de un determinado producto, pero puede llegar a hacerse pesado cuando la información sobre el mismo, o la compra, no es la deseada. De todos modos es posible que se adapte a las versiones europeas del buscador como una alternativa opcional situada en la barra lateral izquierda con el nombre de "compras", que es como actualmente aparece en la versión estadounidense.

Según la empresa norteamericana de analítica y estudios de mercado ComScore, el buscador de Microsoft superó el 11% del mercado en la primera semana de lanzamiento. Anteriormente, Live Search tenía un 9% de penetración. Algunos analistas consideran que este éxito es un interés temporal por el buscador, que tendrá una dura pugna por ganarse un sitio destacado entre los usuarios y empresas. Para ello, Microsoft tiene previsto invertir en los próximos meses 100 millones de dólares para dar a conocer el buscador y su nueva plataforma de anuncios contextuales.


Wolfram Alpha: buscador de respuestas


Los buscadores tradicionales no son capaces de contestar a preguntas concretas como "¿Cuál es distancia de la Tierra a Marte?", "¿dónde está la población de Bilbao?", "¿qué tiempo hace en Madrid?" o "¿qué día de la semana fue el 29 de diciembre de 1974?".


Esto es exactamente lo que hace Wolfram Alpha. Su desarrollo está liderado por el físico Stephen Wolfram, cuya empresa es conocida por desarrollar el software de cálculo Mathematica, muy utilizado en empresas de ingeniería y centros científicos. Su funcionamiento se basa en responder las preguntas de los usuarios, introducidas a través de una barra de búsquedas mediante lenguaje natural. Lo hace buscando datos de manera transversal dentro de los sitios web. De momento, sólo está disponible en inglés, aunque espera aprender a responder en otros idiomas pronto.

La respuesta se produce mediante la representación de los resultados obtenidos de diferentes bases de datos, sin que el usuario tenga que navegar por páginas web de terceros para obtener la contestación a su pregunta. Además, la presentación de la respuesta se adapta al tipo de información necesaria para mostrarla. Esta documentación puede contener gráficos, información actualizada o fórmulas matemáticas resueltas.

viernes, julio 10, 2009

¿Qué ha sido de los virus?

Estos programas maliciosos han evolucionado para sacar provecho económico del usuario y han mejorado su camuflaje

Conficker ha sido el postrer virus mediático; el último cuya alarma ha pasado a los medios de comunicación. Los avisos de precaución se extendieron por su presunta activación el pasado 1 de abril. Sin embargo, las alarmas son cada vez más escasas y ya apenas se oyen noticias sobre letales programas que literalmente desintegran el sistema operativo del ordenador al ejecutarse. ¿Por qué sucede esto? ¿Se ha reducido el número de programas maliciosos? Las amenazas informáticas han cambiado en los últimos años. De virus convencionales y altamente destructivos se ha pasado a gusanos y troyanos, que se intentan propagar al máximo número de ordenadores mientras se mantienen silentes y parasitarios.

Sistemas operativos más seguros


Las alertas mediáticas por virus han disminuido en los últimos tiempos, un hecho que puede incitar a pensar que la navegación es más segura. Según Chema Alonso, consultor de seguridad en la empresa Informatica64, las últimas versiones de los sistemas operativos han mejorado las medidas de protección de las anteriores. Pone el ejemplo del Windows XP, que se empezó a diseñar en 1997, con "las amenazas de entonces" en mente, que "no tienen nada que ver con las de hoy en día". Actualmente, los sistemas operativos son más robustos y cuentan con la precaución de crear diferentes tipos de sesiones, una para el administrador que puede modificar todo el equipo y otras para los usuarios normales, que utilizan los programas pero tienen límites para instalar nuevos. Así se evita en teoría activar un programa malicioso que necesite de la intervención del usuario.

Windows Vista o Linux exigen que se introduzcan el nombre de usuario y la contraseña cuando se va a realizar un cambio importante en la configuración del ordenador, como instalar un programa. Sin esos datos, no se efectúa ninguna acción y el PC se queda a salvo en la práctica. Ante esta protección, sólo podría ser efectivo un ataque basado en la ingeniería social que engañara al usuario para que facilitara sus datos


Punto de inflexión

Hoy en día las infecciones aprovechan los errores de los sistemas operativos y de los programas más habituales
Alonso señala que hace poco más de un lustro se produjo un punto de inflexión, con la extensión de gusanos como Sasser o Blaster. Se trataba de programas diseñados para aprovechar los fallos de seguridad de Windows XP y propagarse a gran velocidad. Las únicas medidas de prevención consistían en instalar los parches de Microsoft que solventaban los respectivos problemas y en utilizar un cortafuegos, capaz de detener al menos los intentos de conexión que se produjeran desde el ordenador.

En esa época se comprobó que cualquier fallo de seguridad en un programa o en un sistema operativo podía propiciar infecciones masivas con Internet de por medio. Sin embargo, a pesar de los esfuerzos por mejorar la seguridad en las últimas versiones de los sistemas operativos, los virus siguen amenazando. ¿Qué se puede hacer para evitarlos?


Sitios donde encontrar alertas


Diversos sitios se dedican a avisar a los usuarios de los nuevos peligros que aparecen en Internet, pero siempre van por detrás de las amenazas, igual que los creadores de las defensas específicas para ellos como las vacunas antivirus. En España destaca el sitio Centro de Alerta Temprana sobre Virus y Seguridad Informática, Alerta-Antivirus.es, promovido por el Instituto Nacional de Tecnologías de la Comunicación, un centro dependiente del Ministerio de Industria. En él se pueden encontrar los virus más populares en los últimos días, las nuevas apariciones de malware y los últimos fallos de seguridad descubiertos. Otro sitio donde buscar información es Viruslist, que cubre toda la información referida al software malicioso y está traducido al español. Los sitios de las empresas que diseñan los antivirus constituyen otro buen lugar donde informarse acerca de los últimos virus peligrosos.

La prevención, clave para la seguridad
Windows Vista y Linux exigen que se introduzcan el nombre de usuario y la contraseña cuando se va a realizar un cambio en la configuración
Los expertos en seguridad informática coinciden en que la prevención es fundamental para protegerse del malware. Por ejemplo, resulta básico activar la actualización automática del sistema operativo para prevenir los olvidos habituales cuando se deja esta opción en manual. Así, el ordenador siempre tendrá los últimos parches lanzados para el sistema operativo y se encontrará más preparado para resistir las amenazas.

Además, conviene activar o instalar un cortafuegos, que evita la transmisión de datos desde el ordenador al exterior y la intrusión de otros dentro del equipo. Se debe tener también el antivirus actualizado. En estos momentos se encuentran disponibles varias alternativas gratuitas, como Panda Cloud o Avira Antivir que permiten disponer sin coste de las últimas definiciones de los virus, un aspecto fundamental para que se puedan defender de ellos. Un antivirus sin actualizar no puede hacer nada contra los virus más novedosos, porque estos se diseñan para superar las barreras que establecen los programas de este tipo. "Lo mejor y más seguro es no desactivar las opciones de seguridad y no instalar nada de procedencia dudosa", concluye Alonso.


Nuevas amenazas más sigilosas


"No podemos delegar toda defensa a los nuevos sistemas operativos", advierte Chema Alonso, consultor de seguridad en la empresa Informatica64. Para este especialista el regreso de los troyanos supone "la mayor de las amenazas". Se trata de programas que se instalan en el ordenador a escondidas y le abren una puerta trasera para comunicarse con el exterior con aviesas intenciones. "La idea es que el malware ya no quiere infectar y destrozar tu equipo, ahora quiere quedarse en él viviendo contigo, para controlar tus acciones y utilizar el equipo a conveniencia", afirma. Por ejemplo, esos programas pueden descubrir lo que se teclea, y con ello los nombres de usuario y contraseñas de muchos servicios, con el consiguiente riesgo; o pueden instalar software dañino sin que el usuario se percate. También pueden utilizar el ordenador como centro emisor de spam y así camuflar mejor la ubicación de los verdaderos "spammers".

Los programas maliciosos han evolucionado. Antes, por lo general, necesitaban que el usuario los activara. Recurrían al ingenio, a lo que algunos denominan "ingeniería social", para que el usuario picara. Una vez que se ejecutaba el malware, el virus podía seguir las rutinas que le hubiera marcado su programador.

Un caso extremo de este ingenio aplicado al timo lo constituye el "phishing". Se trata de sitios web o mensajes de correo electrónico que se remiten simulando y suplantando (incluso con sus logos y direcciones de correo electrónico) a una entidad con que el usuario tenga trato comercial. Así, como si fuera la lotería, los timadores buscan la coincidencia. Por ejemplo, que un cliente de un banco reciba un presunto correo de su entidad conminándole a entrar en su cuenta por algún peregrino motivo y entre. Ante esta situación, lo más recomendable consiste en no abrir nunca un correo de una entidad bancaria y mucho menos pinchar un enlace dentro de dichos correos.

Las entidades sólo los mandan en muy pocos casos, siempre con protocolos de seguridad especiales y nunca para ofrecer servicios ni avisos. Pueden mandar correos para avisar de que alguien ha ingresado dinero en cuenta y poco más. Por eso, resulta preferible acceder desde el navegador a la página personal del usuario en el banco y, una vez dentro, comprobar si ha habido alguna comunicación.



En busca de vulnerabilidades

Hoy en día, las infecciones no necesitan de la intervención del usuario. Aprovechan los errores de los sistemas operativos y de los programas más habituales (el lector de PDF de Adobe o los procesadores de textos Microsoft Word u Open Office, por ejemplo) o agujeros que se hayan descubierto en los navegadores. Para minimizar el riesgo cuando se accede a Internet se puede recurrir a complementos como NoScript, que permite al usuario seleccionar lo que se ejecuta dentro de una página web.

No existe un software perfecto en seguridad, pero sí hay gente interesada en averiguar posibles vulnerabilidades para obtener un provecho económico
De esta manera, se puede establecer una lista blanca y dar permiso a lo que es seguro, por ejemplo, los elementos que hacen que funcione una página con menús dinámicos, y se deniegue el permiso a los desconocidos. Por su parte, Internet Explorer cuenta con un modo de navegación, denominado "Protegido", que minimiza las posibilidades de que se ejecute malware durante la navegación.

No existe un software perfecto en seguridad, pero sí hay gente interesada en averiguar posibles vulnerabilidades para obtener un provecho económico. De ahí la importancia de mantener todas las aplicaciones siempre actualizadas. Linux ofrece una buena solución en esta materia porque integra en sus distribuciones un actualizador tanto del sistema operativo como de las aplicaciones, puesto que la gran mayoría son libres. En Windows ningún sistema interno realiza esta labor, pero aplicaciones de terceros se encargan de esta tarea, como Filehippo o AppHit. Un buen sitio para enterarse de las últimas vulnerabilidades descubiertas en todo tipo de programas es Secunia.

Las redes de botnets

Una vez que uno de estos gusanos o troyanos infectan el ordenador, siempre que no sean detectados, esperan a que su diseñador los active. Se gestionan a distancia y de forma masiva mediante paneles de control. Se conforman lo que se conocen como "botnets", "grandes redes de ordenadores controlados, utilizadas por las mafias para la delincuencia".


Sin embargo, en la actualidad resulta difícil saber si un ordenador está infectado por uno de estos programas maliciosos. Se diseñan para permanecer en la sombra, sin que el usuario se percate. Desde luego, el primer síntoma es ese famoso "el ordenador me hace cosas raras". "Hablar hoy en día de cosas raras, cuando los sistemas XP y Vista están ya en las fases finales de su ciclo de vida y por tanto, cuando se han depurado la gran mayoría de sus defectos, es equivalente de tener algo malo en el equipo", explica Alonso.

Otra opción puede ser utilizar los servicios de escáner en línea de virus que buscan malware dentro de los discos duros y pueden eliminarlos. La única diferencia respecto a los antivirus tradicionales radica en que no pueden prevenir la infección por no estar instalados dentro del ordenador. En caso de que no se solucione y tampoco los antivirus convencionales ayuden, se debe formatear el ordenador y reinstalar el sistema operativo para que todo vuelva a la normalidad.

MicroUSB, puerto universal para cargar móviles

A partir del año que viene, en Europa los nuevos móviles usarán un tipo estándar de conexión que permitirá intercambiar los cargadores con independencia de las marcas

Un móvil en el bolsillo gasta poco, pero cuando se habla, el consumo se dispara y la batería se agota rápido. Por ello, no es extraño viajar y quedarse inesperadamente sin batería. Para colmo de males, en esos casos es habitual que nadie a nuestro alrededor tenga el mismo tipo de cargador que usamos, ya que cada fabricante propone el suyo. Así, no queda otro remedio que esperar al regreso para reactivar el móvil. Pero, a partir de 2010, y por acuerdo entre la mayoría de empresas del sector y la Unión Europea, la situación cambiará: todos los cargadores tendrán un mismo conector, el estándar microUSB.

Los aparatos portátiles, ya sean videoconsolas, teléfonos u ordenadores, tienen tres necesidades básicas: peso, dimensiones e independencia energética. Los teléfonos móviles son los que hasta ahora han resuelto mejor estas cuestiones, pero quizás el consumo de batería sea su asignatura pendiente. La autonomía de un teléfono, si apenas se usa, puede alcanzar las 40 horas. Pero a poco que se emplee para hablar, las funciones del aparato se activan y el consumo se dispara. Si además se tiene un teléfono 'smartphone' (capaz de recibir el correo electrónico, navegar por Internet, usar el GPS y reproducir música y vídeo) la autonomía puede reducirse a menos de cuatro horas en pleno uso.

No resulta extraño, pues, encontrarse de viaje, e incluso en el lugar de trabajo, con la batería baja y sin el cargador correspondiente. De hecho, muchas personas tienen un cargador de repuesto siempre conectado en su oficina o en su vehículo para prevenir las descargas. En situaciones tales lo más cómodo sería pedir el cargador a un compañero de trabajo o de viaje y solucionar el problema. Sin embargo, la realidad es que actualmente cada fabricante de móviles tiene su puerto específico de carga y su clavija, por lo que los cargadores no son intercambiables y hay que esperar a regresar a casa o bien encontrar a alguien con un teléfono del mismo fabricante.


Un problema ecológico

Más allá de la incomodidad que esto supone para el usuario, hay una cuestión ecológica de fondo que preocupa mucho más: ¿qué hacemos con el cargador cuando cambiamos de teléfono? Como es tan específico, a no ser que se compre un modelo muy similar, sólo queda el recurso de llevarlo a un punto de reciclaje, ya que no debe tirarse a la basura. De esta suerte, la incompatibilidad entre cargadores de móviles genera al año entre 51.000 y 82.000 toneladas de basura tecnológica, según datos de la GSMA, la asociación que agrupa a los fabricantes de móviles. Esta basura se produce porque cada año se renuevan entre el 50% y el 80% de los 1.200 millones de móviles vendidos.


Es por ello que los principales fabricantes de móviles (entre otros Nokia, Sony Ericsson, RIM, Apple, Samsung, Motorola, Nec o Texas Instruments) y las operadoras más importantes (Telefonica, Vodafone, Orange, Telecom Italia...), acordaron el pasado febrero, durante la reunión en Barcelona del Mobile World Congress, adoptar el puerto microUSB como estándar universal de carga para los teléfonos que se lancen al mercado a partir de 2012. A finales del pasado mes de junio, la Unión Europea comunicaba que para los países de la misma dicha adopción se adelanta a 2010, el año que viene. En otras palabras, los usuarios que tengan aparatos con marca de estos fabricantes (el 90% del mercado) podrán intercambiar sus cargadores y si se compran un móvil nuevo no tendrán que comprar también un nuevo cargador, sino que podrán usar el antiguo. El ahorro en cargadores sobrantes será, por tanto, considerable.

Además, por las características especiales del microUSB - puerto que sirve tanto para alimentar de energía a un aparato como para transferir datos, por lo que es especialmente eficiente en cuanto a rapidez de transmisión y aislamiento térmico- también se producirá un ahorro calculado en torno al 50% en eficiencia de carga. Los cargadores, al cargar más rápido y estar mejor aislado el puerto microUSB, se calentarán menos y causarán menos impacto en el entorno.


Algo más que un estándar de alimentación

Pero el puerto microUSB tiene otras virtudes interesantes. Más allá de la alimentación de baterías, es una derivación relativamente nueva y moderna del estándar de conexión y transferencia de datos USB. Esto quiere decir que permite sincronizar varios aparatos conectados entre sí, como por ejemplo un móvil y un ordenador, y también transfiere audio y vídeo. De hecho muchas cámaras digitales de vídeo y fotografía, y algunos reproductores de MP3, lo emplean para conectar con los ordenadores.


La idea es que, dado que los teléfonos móviles son cada vez menos teléfono y más ordenador, la transferencia de datos hacia y desde ellos, así como la reproducción de archivos multimedia, debe contar con un puerto eficiente y funcional pero no puede hacer que se multipliquen la cantidad de puertos en el aparato. Así, el microUSB resulta un puerto idóneo, ya que aúna todas estas funciones en sí mismo: permite usar un cable USB para sincronizar el teléfono (algo que por otro lado se hace cada vez menos), conectarle unos cascos para escuchar música o ponerle un cargador de batería.

Por otro lado, frente a otros puertos, como el miniUSB, usado en las populares Blackberry y en otros móviles de gama alta, el puerto microUSB presenta la ventaja principal de su resistencia, dado que va recubierto con una capucha de acero inoxidable que le habilita para soportar más de 10.000 ciclos de inserción (conexiones en la ranura). Obviamente esta característica es importante en un puerto que actúa muchas veces de comodín. No en vano microUSB se presentó en septiembre de 2007 por parte del Open Mobile Terminal Forum (la asociación creada por la industria para definir un estándar de conexión) como el candidato ideal, ya que por aquel entonces se usaba como cargador en agendas electrónicas PDA y otros dispositivos móviles de gama alta.


¿Qué hacemos con el iPhone y la Blacberry?

Tanto RIM (fabricante del teléfono Blackberry) como Apple (creador del iPhone) han firmado el acuerdo para adoptar el estándar microUSB en todo el mundo en 2012 y posiblemente en Europa en 2010. ¿Qué pasará entonces con los terminales adquiridos por los usuarios que no tienen este tipo de clavija? Blackberry, que comercializa su modelo Bold a un precio superior a los 500 euros, usa miniUSB. En principio es lógico que ningún usuario quiera cambiar un dispositivo de este precio simplemente por disponer de un cargador universal, pero a medida que pase el tiempo su teléfono perderá capacidades frente a los nuevos modelos. Ahora cualquier usuario de una Blackberry puede intercambiar su cargador con otro; en el futuro no será así. RIM no se ha pronunciado por el momento, pero en el mercado hay varios adaptadores para pasar las clavijas miniUSB a microUSB, con lo que en principio el problema tiene fácil solución siempre que se esté dispuesto a pagar unos 30 euros.


El caso de iPhone es similar: un teléfono tan mediático y con un crecimiento en ventas tan espectacular no puede quedarse fuera del acuerdo general. Es por ello que Apple firmó la adopción de microUSB, pero no va a eliminar el cable de alimentación característico de los aparatos móviles de Apple, el conector DOC. Este puerto es específico de la gama iPod e iPhone y permite tanto la carga energética como de datos con gran eficacia, siendo muy apreciado entre sus usuarios. La solución dispuesta por Apple para futuros modelos pasa por conservar el conector Doc y adoptar también el microUSB.

De mismo modo que sucede con la Blackberry, sería injusto que un teléfono que en el mercado puede superar los 700 euros se viera discriminado por su conector. Así, los dueños de aparatos iPhone anteriores a 2010 podrán adquirir un adaptador oficial para convertir Doc en microUSB. Pagando, desde luego.
--------------------