busqueda

domingo, 30 de marzo de 2008

Apple lanzará el iPhone 3G en junio

pple espera lanzar un iPhone diseñado para conectarse a Internet de banda ancha 3G en el segundo trimestre de 2008 y tiene previsto producir ocho millones de unidades en el tercer trimestre.

Este modelo busca mejorar la compatibilidad del dispositivo con las redes móviles existentes más avanzadas. El desarrollo de la conectividad 3G en este dispositivo permitirá navegar a mayor velocidad mediante la red del operador.

La versión actual de este dispositivo, lanzado hace menos de un año, solo permite conectividad GPRS y EDGE, cuyas velocidades máximas son muy inferiores a lo que permite una red en zona de cobertura 3G. Para navegar a mayor velocidad, es necesario emplear una red inalámbrica WiFi, cuya disponibilidad y cobertura es muy inferior a lo que ofrece la red de telefonía convencional.

La inclusión de esta función, casi una función por defecto en los terminales más actuales, permitirá al teléfono expandir sus prestaciones multimedia. Hace unos días anunciábamos que Telefónica había probado con éxito la televisión móvil con el estándar DVB-H. Esta plataforma de televisión es inviable en plataformas inferiores a 3G, dado que se basa en un sistema de difusión IP que requiere un ancho de banda considerable para funcionar correctamente.

Según Scott Craig, un analista del Bank of America, la producción de esta nueva versión del iPhone será ejecutada de forma escalonada, ensamblando inicialmente una partida de menor magnitud en mayo, y aumentándolo significativamente en junio. Por lo tanto, el lanzamiento se producirá en el segundo trimestre de este año, contribuyendo sustancialmente a alcanzar la estimación de 20 millones de iPhones vendidos a finales del 2008.

viernes, 28 de marzo de 2008

Lanzan sistema de sincronización automática entre Outlook y Gmail

Google ha recibido una importante ayuda en sus intentos por contrarrestar el dominio de Microsoft en el mercado del software ofimático.

Diario Ti: Nuevo producto de Cemaphore Systems hace posible sincronizar el correo electrónico e información del calendario entre Outlook y Gmail.

La compañía Cemaphore Systems anuncia un nuevo producto que sin duda alegra a Google. El sistema hace posible establecer una sincronización automática de correo electrónico, lista de direcciones e información del calendario entre Outlook y Gmail. La información ha sido publicada por el periódico estadounidense The New York Times.

El servicio tiene nombre Mail Shadow y Cemaphore Systems recalca que éste permite crear una copia de seguridad segura de las informaciones de Outlook, independientemente de la causa de los problemas técnicos que haya tenido el servidor primario. Los datos rescatados estarán disponibles mediante el sistema Gmail, que automáticamente será sincronizado con Outlook.

“Si usted puede alternar entre Exchange y Google y simultáneamente proteger Outlook para sus usuarios, entonces estamos frente a un plan interesante. Debemos ver ahora si realmente funciona", declaró el analista de Gartner, Matt Cain, a la publicación.

“Hay un gran número de usuarios verdaderamente satisfechos con el interfaz de Outlook. Mail Shadow incluye las funciones de Google en este interfaz, a la vez que hace posible la sincronización Esto elimina las barreras que impiden el uso de Google", declaró el director de Cemaphore Systems, Tyrone Pike.

Actualmente es posible leer el correo electrónico de Gmail y sincronizar el calendario de Gmail mediante Outlook. Sin embargo, Mail Shadow es el primer producto que automáticamente sincroniza correo electrónico libre de direcciones e información del calendario entre ambos programas de correo.

“Nos complace ver que Cemaphore y otras empresas aprovechan nuestra API abierta para crear productos que benefician a los clientes y usuarios de Google Apps", escribe el director de producto Rajen Sheth en un correo electrónico dirigido a The New York Times.

Mail Shadow es, por ahora, gratuito de usar, pero Cemaphore Systems informa que en algún momento comenzarán a cobrar por su uso.

jueves, 27 de marzo de 2008

Docomo prueba 4G en Japón

El gigante de las telecomunicaciones en el país nipón sigue marcando tendencias con implantación de nuevas tecnologías: de hecho, ya están comenzando a implantar la infraestructura para una red 4G que ofrecerá velocidades de transmisión de datos increíbles.

De hecho, sus desarrolladores afirman que han logrado alcanzar tasas de hasta 250 Mbps en descarga con esta tecnología inalámbrica. Es obvio que los terminales tendrán unas velocidades de conexiones menores, pero aún así tener un límite como este demuestra que las comunicaciones móviles en Japón están muy por delante de lo que podemos decir en Europa o EE.UU.

Docomo realizó estas pruebas experimentales con la tecnología que ellos llaman Super 3G, pero que por estos lares se conoce como LTE (Long Term Evolution), o más concretamente, por 4G. La ventaja de este estándar es precisamente que podría convertirse en una fórmula universal válida para todas las operadoras y países que nos haría olvidarnos de los famosos teléfonos con soporte de varias bandas para trabajar sin problemas aquí o en EE.UU y Japón.

lunes, 24 de marzo de 2008

Linux se estrena con una capa de emulación RTOS nativa

El proyecto Xenomai/SOLO pretende ofrecer VxWorks y otras emulaciones de sistemas operativos en tiempo real en la mayor parte de los kernel Linux, muy útiles para aplicaciones críticas de ciertas áreas.

En teoría, el Xenomai/SOLO podría simplificar el trabajo en compañías que pasan aplicaciones VxWorks o RTOS a Linux. Estos puertos permiten a las compañías sacar el máximo rendimiento de las configuraciones de software y aprovecharse al mismo tiempo del moderno soporte hardware de Linux, capacidades de red, opciones de interfaz de usuario y compatibilidad con un gran número de bibliotecas de software de código abierto.

Xenomai/SOLO proviene de Xenomai, una extensión en tiempo real para Linux que a su vez proviene de RTAI (interfaz en tiempo real). El primer Xenomai utilizaba un co-kernel en el que las aplicaciones en tiempo real corrían en un kernel separado que “cooperaba” con el kernel de Linux. Ahora, el nuevo Xenomai/SOLO se deshace del co-kernel e integra en su lugar un emulador RTOS de Xenomai, que está mucho más unido al kernel de Linux.

El proyecto está siendo financiado por OSADL (Open Source Automation Development Lab) y Denx Software Engineering. Se puede saber más de él aquí.

jueves, 20 de marzo de 2008

Dell desmiente los fallos en equipos con SSDs

El fabricante estadounidense ha negado la información ofrecida por los analistas de Avian Securities que indicaba una alarmante tasa de devolución de un 20 a un 30% en equipos Dell con unidades SSDs.

El informe del que se han hecho eco los principales blogs tecnológicos mundiales, ha puesto en entredicho las ventajas de estos dispositivos de almacenamiento debido a fallos y problemas con el rendimiento. Para Dell simplemente esas cifras no son ciertas y niega además que se pusieran en contacto con ellos durante la investigación.

“Nuestros datos a nivel mundial indican que la fiabilidad de las unidades SSDs que hemos comercializado son iguales o mejores que los tradicionales discos duros”, dicen desde Dell, añadiendo que “las tasas de retorno están en línea con lo esperado en una nueva tecnología”.

“Dell es muy estricto con la calidad de sus productos, en especial con las unidades de almacenamiento, porque un equipo puede ser sustituido pero no los datos almacenados de nuestros clientes”.

Además indican que están potenciando esta tecnología ofreciendo unidades SSDs de Samsung de segunda generación SATA II que superan el rendimiento de las incluidas en los portátiles actuales, o equipos de sobremesa con los discos duros más rápidos.

domingo, 16 de marzo de 2008

EE.UU. llevó a cabo un simulacro de ataque durante 5 días

El Gobierno estadounidense ha informado del ataque dirigido para comprobar los sistemas de telecomunicaciones e informáticos, el simulacro duró 5 días en total.

El programa de ejercicios de seguridad fue bautizado como “Cyber Storm II” y es el más importante a nivel mundial jamás realizado. El Subsecretario Estado para la Seguridad Interna de EE.UU. , Robert Jamison, afirmó que la amenaza es “real y creciente” y de ahí que sean necesarias dichas medidas para estar preparados en un supuesto caso real.

Las pruebas se basaron en 1.800 ataques simulados por “hackers” y ataques con matices políticos que necesitan respuesta coordinada internacional para poder solucionar el problema. Para llevar a cabo la operación Cyber Storm II fue necesaria la participación de 40 expertos en seguridad de sistemas informático de más de cinco países, más de cuarenta empresas privadas y numerosas agencias gubernamentales que pusieron a prueba los sistemas actuales de seguridad y alarma. Gracias a la colaboración mutua y el estudio en común de todos los datos han podido identificar las deficiencias del sistema para poder mejorarlo.

lunes, 10 de marzo de 2008

El ciberterrorismo es tan peligroso como los ataques con misiles, advierte la OTAN

El responsable de ciberdefensa de la OTAN, Suleyman Anil, cree que si se emprendiese un ataque contra la infraestructura digital de un país no habría sistema defensivo que lo detuviese.

La amenaza es tan grande como la que representan los ataques con misiles. Los países necesitan mejorar sus sistemas de defensa en línea para poder recuperarse rápidamente de ataques contra la Web, asegura Anil.

Anil puso como ejemplo los ataques del año pasado en Estonia, que hicieron caer los sistemas financieros centrales del país y demostraron las graves consecuencias que un ciberataque puede tener sobre el funcionamiento de un país.

“La ciberguerra puede convertirse en un problema global muy efectivo porque puede realizarse con poco riesgo, con bajo coste y relativa facilidad. Es casi un arma ideal que nadie puede ignorar”, comenta.

Por el momento, la OTAN utiliza sistemas de escaneo de virus, tecnología de prevención de intrusos y software de análisis de seguridad. Pero según Anil, son los propios países los que tienen que trabajar en el tema endureciendo las leyes y promoviendo sistemas de vigilancia cibernética más efectivos.

BitTorrent: Cómo parchear 6.500 PCs con 22 Terabytes de software en 4 horas

Una universidad holandesa ha descubierto una técnica fantástica para poder tener todos sus PCs actualizados a la última en apenas 4 horas, un proceso que de otro modo podría haber llevado días. BitTorrent vuelve a demostrar sus virtudes.

A pesar de que normalmente se hable de los ‘usos malvados’ de este fantástico protocolo, lo cierto es que la red BitTorrent y la filosofía P2P vuelven a poner de manifiesto su potencia con casos como este. El departamento de tecnología de la universidad llamada InHolland logró aplicar BitTorrent para poder actualizar sus 6.500 PCs en tan sólo 4 horas.

Teniendo en cuenta que de media se necesitaban descargar 3,5 Gbytes de actualizaciones de diversos tipos, eso daría un total de 22,2 Terabytes de datos que se transfirieron en la red a velocidades de vértigo. De hecho, el proceso se completó en tan sólo 4 horas. Mientras que anteriormente contaban con un par de docenas de servidores para este tipo de procesos, en esta ocasión hicieron que cada PC se convirtiera de hecho en un servidor del que otros descargaban parches, y la interacción mutua entre todos ellos permitió que se actualizaran en tiempo récord.

jueves, 6 de marzo de 2008

Seis botnets son responsables del 85% del spam mundial

Que el spam es una de las mayores lacras de Internet es de todos conocidos cuando diversos informes advierten que el 95% de todos los correos electrónicos son basura. Un nuevo estudio revela que grandes botnets compiten entre ellos por hacerse con un nuevo y turbio mercado que se sospecha salpica a la misma industria.

La firma de seguridad Marshal ha informado que seis grandes redes de software robots acaparan el 85% del spam mundial. “Srizbi” es actualmente el líder de esta penosa clasificación con el 39% del “mercado”. La siguen “Rustock” con el 20%, “Mega-D” con el 11%, “Hacktool.Spammer” con el 7%, “Pushdo” el 6 y “Storm” con el 2%.

Estos bots, controlan de manera remota los servidores/ordenadores infectados de forma remota, normalmente a través de servidores propios de IRC, vendiendo su servicio a los Spammers.

El artículo afirma que múltiples botnets se utilizan para anunciar un producto o un grupo de ellos, en una retorcida competición entorno a la publicidad fraudulenta.

Es difícil pensar quien se deja infectar por este tipo de correos, con anuncios normalmente inútiles, pero visto el crecimiento de estas redes y el dinero que se mueve, el negocio debe ser bastante lucrativo. Es imperativa la mejora tecnológica contra esta lacra y la prudencia y conocimiento del internauta.