busqueda

viernes, 28 de diciembre de 2007

Nuevas Certificaciones de Microsoft

Aqui comentan como van a quedar las nuevas certificaciones de M$ http://viewer.zmags.com/publications/mid/rgwgg
despues de leer detenidamente el tema, no lo veo nada claro, despues de leer tambien

Preparation Guide for Exam 70-648
TS: Upgrading Your MCSA on Windows Server 2003 to Windows Server 2008, Technology Specialist
http://www.microsoft.com/learning/exams/70-648.mspx


Preparation Guide for Exam 70-649
TS: Upgrading Your MCSE on Windows Server 2003 to Windows Server 2008, Technology Specialist
http://www.microsoft.com/learning/exams/70-649.mspx

Algo no me cuadra o yo soy de entendederas dificiles

sábado, 22 de diciembre de 2007

El software no está a la altura de los microprocesadores

Dentro de poco comenzarán a circular los procesadores de ocho núcleos. Sin embargo, los programas actuales no están en condiciones de aprovechar la capacidad extraordinaria de cálculo.

Diario Ti: Durante muchos años, los procesadores se han desarrollado a la par con el software que ha de ejecutarlos. Las compañías Intel y AMD siguen la denominada ley de Moore, segú la cual el número de transistores en un circuito es doblado cada año. La ley no ha fallado por más de 40 años. Por su parte, los desarrolladores de software procuran que sus programas en todo momento estén en condiciones de aprovechar la capacidad extra de cálculo para mostrar gráficos cada vez más sorprendentes, cálculos cada vez más rápidos o nuevas funciones. Tal parece ser, en todo caso, la teoría.

Pero en la práctica la situación es bastante distinta. Lo cierto es que los procesadores y el software ya no avanzan al mismo ritmo. Incluso la actual generación de procesadores de doble núcleo no están siendo aprovechados al máximo por los programas disponibles actualmente. La situación será aún peor con los nuevos procesadores de 4 núcleos y los anunciados procesadores multinúcleo con más de 8 núcleos.

La situación ha motivado a Microsoft a iniciar una iniciativa en que un gran porcentaje de los programas de la compañía serán reescritos en un modelo paralelo de computación. En combinación con los nuevos procesadores multinúcleo, los programas podrán ser ejecutados varios cientos de veces más rápido. Sin embargo, la tarea es de una envergadura tal que tomará varios años antes que los usuarios finales puedan beneficiarse de la iniciativa.

Microsoft espera que los nuevos procesadores multinúcleo estarán disponibles casi simultáneamente con Windows 7, el seguidor de Windows Vista.

martes, 18 de diciembre de 2007

Facturón de 5.000 euros de Orange por exceso de tráfico con final feliz

La banda ancha si que le salió cara a un asturiano que se pasó toda la noche descargando en Internet y recibió una factura de casi 5.000 euros de Orange.

Según la Unión de Consumidores (UCE) el tipo de contrato que el usuario mantiene con con la operadora es una tarifa plana, en concreto la tarifa T.P Everywhere de Orange. Pero en el documento no se especifica el límite de navegación de 2 GB, ni que todo lo que se excediera se facturaría a un coste de 50 céntimos. "Sólo figura la tarifa, pero no te indican lo que te cobran de más", aseguran los responsables de UCE. La buena noticia para el cliente es que Orange ha alegado que la factura estaba "bien tarifada", pero para evitar trámites legales ha recurrido a un "gesto comercial" y ha condonado la factura al cliente.

La UCE denuncia que las empresas telefónicas ofertan tarifas planas que permiten navegar por Internet a un precio económico, pero no se informa de "forma clara" de la letra pequeña, omitiendo en el contrato el servicio realmente contratado. La Unión de Consumidores cree que la información "más básica" e "importante" para el consumidor no sólo no se comunica al cliente en el momento de contratarlo, sino que no se refleja en el contrato pese a ser un contenido básico del mismo.

El organismo de defensa de los consumidores asegura haber detectado numerosas quejas de usuarios que al recibir facturas se encuentran con importes excesivos. Ante esta situación UCE recomienda leer detenidamente las condiciones ofertadas y conservar la publicidad de las mismas, ya que pueden ser de "vital importancia" en el caso de iniciar una reclamación.

Límites de descarga o de velocidad

Os recordamos que el ADSL barato de un mega de Telefónica tiene una limitación de 20GB pero si el cliente sobrepasa este caudal no supone un incremento de precio. Eso sí, la velocidad se divide entre cuatro. Esta práctica es muy habitual en las "tarifas planas" de datos en banda ancha móvil.

Leopard, el mejor lanzamiento de un SO de Apple en toda su historia

Un estudio de NPD Group revela que en Apple están aprendiendo a hacer las cosas cada vez mejor, y lo demuestra el reciente lanzamiento de Mac OS X 10.5 Leopard, un sistema operativo que está triunfando de forma espectacular.

El informe de NPD Group revela que Leopard se está vendiendo un 20,5% más durante su primer mes que Tiger, el anterior sistema operativo de Apple que salió hace 2 años y medio. Los ingresos crecieron un 32,8%, lo que indica además que muchos han comprado copias de este sistema, lo que cuenta aún más que adquirirlos con nuevas máquinas o a través de paquetes de actualizaciones.

Según NPD Group ha sido un acierto vender el sistema como lo han hecho, anunciando a bombo y platillo sus novedades y ‘creando una expectación previa’ que ha ayudado a generar interés.

Y además, deberíamos añadir, el sistema no ha defraudado como lo ha hecho un competidor suyo muy conocido.

La última actualización de seguridad de Microsoft causa problemas en Internet Explorer

Las actualizaciones que aparecieron el pasado 11 de diciembre están provocando algunos problemas a los usuarios de Internet Explorer 6 y 7 a los usuarios Windows XP y Vista, tal y como han confirmado en la propia Microsoft.

Algunos usuarios se han visto ante un problema grave que les impide conectarse a Internet con estos navegadores: o bien los navegadores se niegan a abrirse, o bien no sirven para navegar por la inmensa mayoría de sitios web.

Uno de los usuarios que han informado del problema comentó que “el 60% del tiempo obtengo un mensaje que dice ‘Internet Explorer ha detectado un problema y debe cerrarse’”. Otros usuarios han confirmado dichos problemas, que se presentan en IE6 e IE7 y tanto en Windows XP como en Windows Vista.

Microsoft ha informado de que está investigando el problema. Mark Miller, director de respuestas de seguridad, afirmó que “nuestro servicio de atención al cliente está investigando un problema en la implantación del Microsoft Security Bulletin MS07-069″. Ya hay un artículo en la base de conocimiento de Microsoft que ayuda a tratar de evitar el problema.

domingo, 16 de diciembre de 2007

Torvalds augura un buen futuro a Linux en los móviles

El creador de Linux, Linus Torvalds, indicó que el sistema de código abierto despegará el año que viene en celulares gracias al impulso de Google.

“No he estado personalmente implicado, pero parece que en 2008, gracias a la alianza con Google, será más fácil disponer de Linux en los teléfonos móviles”, dijo Torvalds en una entrevista para Reuters el viernes.

La británica Symbia, de la que el primer fabricante mundial de móviles Nokia es dueña del 50%, es la empresa líder en el mercado de los sistemas operativos para móviles, seguido de Microsoft.

Pero esta situación puede cambiar según Torvalds, gracias a la plataforma de software libre Android, que impulsa Google con el apoyo de compañías como Motorola, T-Mobile o Qualcomm.

miércoles, 12 de diciembre de 2007

TELECABLE amplía la velocidad de sus accesos a Internet

La operadora asturiana Telecable sorprende a sus clientes con un regalo inesperado de Navidad.

Las Velocidades quedarían así :

Velocidad Antigua Velocidad Nueva
1 MB/150 K 6 MB/320 K (*)
4 MB/320 K 10 MB/500 K
6 MB/640 K 20 MB/800 K



La ampliación de velocidad será gratuita como en anteriores ocasiones y se realizaría en fechas próximas.


Fuente de la informacion: servicio de atención al cliente de Telecable.


(*) No confirmado, puede ser 4 MB/320 K.

domingo, 9 de diciembre de 2007

Informe sobre Ciberataques: Kriptopolis

Cuando no nos habíamos recuperado del problema de Estonia con Rusia, con aquellos ciberataques que provocaron la intervención de expertos de la OTAN, parece que el problema de los ciberataques chinos va en aumento y por desgracia, está afectando a sistemas muy sensibles.

Es de todos conocido que China es fuente de malware de todo tipo, en especial troyanos y también origen de ataques de phishing, cuyas víctimas preferentes suelen ser bancos españoles (pensarán que somos más fáciles de engañar), pero ahora se habla de ciberataques con origen gubernamental y de alta sofisticación tecnológica. Incluso hay sospechas de que la reciente contaminación de discos duros fabricados en China mediante troyanos, tuviera algo que ver con todo este feo asunto...

Ya alertaron los expertos sobre la adquisición de capacidades de guerra cibernética por parte de las unidades del Ejército de Liberación del Pueblo, pero equivocaron el posible objetivo de dichas capacidades. En lugar de atacar Taiwan, foco de conflicto regional con China, los ataques se han dirigido a Alemania, Nueva Zelanda, India, Francia, Reino Unido y Estados Unidos. Los objetivos de estos ataques han sido variados, desde empresas tecnológicas, o relacionadas con materias primas y energía, a sistemas gubernamentales relacionados con defensa o la energía. Nos podemos hacer una mejor idea de todo lo anterior, mediante este interesante informe de McAfee. En ocasiones, el posible éxito de los ataques ha obligado a la desconexión de ordenadores de la Red, como ocurrió el pasado mes de junio, con la desconexión de 1.500 ordenadores del Departamento de Defensa de los Estados Unidos.

Tal es la preocupación por los ciberataques y sus posibles consecuencias para los intereses nacionales, la seguridad o la economía, que los EEUU incluso se plantea la posibilidad de bombardear físicamente el origen de los mismos, si se da el caso. Mientras, parece que algunas demostraciones militares en el Pacífico van por ese camino, con las consiguiente respuesta por parte de China. El pesimismo es tal, que se está hablando de una nueva “ciberguerra fría”, con opiniones para todos los gustos. No deja de ser curioso que cuando alguien roba las contraseñas de las embajadas sea China una de las naciones que pone el grito en el cielo.


Pero hay un toque de atención procedente de analistas de la OTAN que me preocupa y mucho:

Muchas oficinas estatales ni siquiera saben aún que tienen filtraciones de información. Probablemente, no se conoce todavía el 99% de los casos. Los atacantes utilizan troyanos dirigidos a oficinas estatales concretas. Como éstos se han creado a la medida, la detección de firmas no puede identificarlos y engañan a las tecnologías de detección, por lo que el problema es grave. Los fabricantes de malware tienen capacidades de aseguramiento de calidad especializadas que aplican a todo su software malintencionado para asegurarse de que éste no sea detectado.

Recordemos que a diferencia de los virus, cuya carga de pago se acababa manifestando de un modo u otro, el objetivo del malware actual es que el usuario no se entere que lo tiene y obtener de él toda la información que se pueda, en especial, la que tiene valor económico o de inteligencia. Podemos hacernos otra pregunta ¿cuántas instituciones, empresas o usuarios están preparados para darse cuenta de que les han entrado hasta la cocina y les han robado hasta el papel de la mantequilla?.

Estos mismos analistas de la OTAN, también sostienen que el 90%-95% de las amenazas a los sistemas de información, pueden evitarse con herramientas ordinarias y buenas prácticas de TI, lo que yo pongo en duda en base a los resultados recientes. Aunque también es cierto, que estos expertos avisan de que los últimos ataques procedentes de China, han sido muy sofisticados y deberían llamar la atención de los gobiernos y de las principales empresas de todo el mundo.

Protegerse adecuadamente ante esta situación puede ser muy caro, extremadamente caro, e inútil en algunos casos. No hay que perder de vista, que gran parte del problema tiene como origen el actual monocultura informática que afecta a la sociedad, empresas e instituciones, como ya denunció en su momento Bruce Schneier. No debemos perder de vista tampoco, que nuevas tecnologías también abren nuevas vulnerabilidades, como bien descubrieron los estonios hace unos meses. Ellos tienen el e-dni antes que los españoles y lo usan para casi todo, hasta para las votaciones, pero sufrieron una denegación de servicio en sus instituciones y no lo pudieron usar. Pero como veremos más adelante, el e-dni, lejos de ser una forma de mejorar la seguridad, puede ser fuente de nuevos problemas, si firmamos lo que no debemos mediante engaño.

Lo más lamentable de todo lo anterior, es que a pesar de que estamos sobre aviso, todavía se produzcan accesos a sistemas de alta seguridad y en países altamente desarrollados tecnológicamente. Un caso reciente, que también atribuyen a China, ha afectado a instalaciones nucleares de los Estados Unidos. Esto me provoca cierto pesimismo sobre nuestra capacidad real a la hora de evitar ataques se este tipo. ¿No decían los expertos de la OTAN que bastaban las herramientas ordinarias y buenas prácticas de TI para evitar el 95% del los problemas?, parece que no, a la vista de los resultados. Nos miramos el ombligo y discutimos si el software propietario es mejor que el libre y viceversa y mientras, se los cuelan hasta la cocina gracias a un 95,6% de los sistemas que usan un mismo software propietario, eso sí, cuentan con todas las certificaciones y bendiciones de seguridad habidas y por haber. Dicho de otro modo, que tu airbag esté certificado, no evita que te mates con tu coche.

Pues señores algo falla y estoy con lo que dice Bruce Schneier, tenemos lo que nos merecemos. El problema es fruto de un monocultivo informático inasumible y de nuestra dependencia tecnológica, que se focaliza en determinadas empresas que son monopolios de facto. En este saco también entra algunas empresas de hardware de comunicaciones, cuyos fallos de seguridad están teniendo el mismo efecto negativo por su presencia global y su elevada cuota del mercado.

Mal nos podemos defender si una determinada vulnerabilidad afecta al 95,6% de los ordenadores instalados y para defendernos, hace falta software y hardware adicional en tiempo y en lugar, que siempre tendrá un elevado coste, por el impresionante factor de escala en el que nos movemos. Un euro por ordenador son muchos, pero que muchos euros, lo malo es que no es un euro por ordenador. La naturaleza es muy sabia y creo que no hubiera sobrevivido en la Tierra ninguna especie cuya presencia fuera el 95,6% de la población global y que fuera vulnerable a un determinado virus o bacteria, la extinción habría sido masiva a pesar del factor de seguridad que impone la reproducción sexual ¿no creen ustedes?. De hecho, las infecciones actuales se producen de forma masiva y afectan casi al 100% de los ordenadores a las que se dirigen, sin que se puedan defender por la elevada capacidad de infección, mutación y adaptación del malware de última generación. Eso es así, lo estamos viendo a diario, afectando incluso a sistemas de alta seguridad, sin que parezca que se pueda poner remedio al problema. Yo estoy convencido de que este problema no se soluciona mediante las recetas tradicionales de antivirus y cortafuegos, pero expertos hay que dicen lo contrario.

Si seguimos por el mismo camino, que ya vemos que no es bueno, puede que esta batalla esté perdida de antemano. Natalya Kaspersky, CEO de Kaspersky Lab, admite en unas declaraciones a la revista ComputerWorld, que no tienen soluciones para el ciberdelito:

Pensamos que era posible realizar antivirus y que eran una protección adecuada. Ya no es así." Además asegura que Kaspersky tiene "a 50 ingenieros analizando el nuevo malware y buscando formas de bloquearlo, pero con 200 nuevas muestras por día, y en aumento, el trabajo se hace arduo". "Ninguna compañía antivirus puede venir y decirte que puede manejarlo todo. Consideramos responsable hacerlo saber a la gente de forma clara.

Desde mi punto de vista, una forma de protegerse "naturalmente" sería aumentando la competencia en el mercado del software, evitando los monocultivos informáticos y generando una mayor diversificación en las plataformas mediante el fomento de las alternativas a todos los niveles. Tenemos que evitar el paso transparente del malware a través de todas los sistemas de una organización, que es lo que parece que no podemos evitar con los bálsamos de Fierabrás "tradicionales".

Pero como están las cosas, ese objetivo de diversificación tecnológica parece inviable y aunque les estamos viendo las orejas al lobo y en ocasiones, incluso estamos sintiendo sus terribles dentelladas en el trasero, todavía no percibo una voluntad clara y decidida para solucionar el problema, ni en las instituciones, ni en la sociedad, ni en las empresas.

También estoy convencido de que que hay que mejorar la cultura de seguridad a todos los niveles de la sociedad. Creo que la conferencia impartida durante el DISI 2007 por Sergio de los Santos, de Hispasec, sobre la Evolución del Malware [PDF], es más que esclarecedora y muestra el elevado nivel de conocimientos que es necesario tener, si no se quiere tener problemas. En el escenario presentado, bastaba hacer clic sobre un banner para ser infectado y de nada valían los certificados digitales, el e-dni, o las comunicaciones cifradas, el problema estaba a nivel de usuario y en su navegador, aterrador y desconocido por el gran público sin duda.

También nos debe abrir los ojos un informe del SANS Institute [PDF] sobre los 20 riesgos más importantes a la seguridad en Internet, "los usuarios que son fácilmente engañados y las aplicaciones creadas a medida”, se encuentran en los dos primeros puestos y se conforman de este modo, como los principales objetivos para los atacantes. Hispasec reconoció en un estudio reciente y a pesar de como están las cosas por el mundo, que "la seguridad no es una prioridad para los usuarios", o quizás, podemos decir que "la seguridad sigue sin ser una prioridad para los usuarios". Puede que esta postura de los usuarios sea el fruto no deseado de la cultura lanzada por algunas empresas de software, de que la "informática es apta para todo el mundo" y de que "todo es sencillo y automático", convirtiendo el "user friendly software" en "red hot chili suicidial challenge". Gracias a ello, los usuarios solamente se acuerdan de la seguridad de sus sistemas cuando les limpian la cuenta y desgraciadamente, estos afectados son cada día más numerosos.

Mientras, las noticias más o menos alarmantes sobre ciberataques se suceden en la prensa e Internet y las soluciones que nos vienen del poder legislativo, casi siempre pasan por el recorte de las libertades públicas y ejemplos de ello, los tenemos variados en los últimos tiempos, lo que evidentemente no soluciona el problema, e incluso, puede que empeore la situación



Compra Vista o muere

Es lo que viene a decir Gartner, una de las firmas punteras en análisis de mercado, que advierte a las grandes empresas de los riesgos que a su juicio, podrían correr en el futuro si no adoptan Windows Vista a tiempo.

La consultora confirma que la mayoría de empresas han retrasado los planes de migración , hasta 2008 o 2009 o incluso algunas piensan omitirlo por completo a la espera de “algo mejor”.

Sin embargo el vicepresidente de la firma Michael Silver, advierte de que la próxima versión de Windows denominada internamente “7”, también podría retrasarse y ser más difícil la actualización del sistema operativo.

“Las grandes compañías que intentaron omitir Windows 98, Windows 2000 y Windows XP a menudo tuvieron problemas de soporte técnico y una migración final difícil o forzada. Las organizaciones que intenten omitir Windows Vista es probable que experimenten las mismas dificultades”.

Según Silver, aunque Microsoft soportará versiones empresariales de Windows al menos durante 10 años y lanzará revisiones de seguridad para XP al menos hasta 2014, muchos proveedores de software no soportarán tanto tiempo sus productos en Windows XP ni tampoco admitirán que sus nuevos desarrollos se instalen en sistemas más antiguos. Según sus previsiones los grandes desarrolladores cerrarán la compatibilidad de su software para Windows XP entre 2010 y 2012.

Sin embargo Gartner, también dice que omitir Windows Vista podría ser la decisión correcta para organizaciones más pequeñas ya que no tienen la escala para admitir varios sistemas operativos de forma continua.

Ya hemos hablado de esto en multitud de ocasiones. ¿Para qué va a invertir una empresa recursos en migrar a un sistema que no le ofrece ninguna mejora de importancia y sí más gasto en la obligada actualización de máquinas y problemas de compatibilidad en hardware y software?

ATI RV635, la primera gráfica con DisplayPort

DisplayPort, la nueva interfaz de conexión digital aprobada como estándar por VESA y que debe ser la sucesora de VGA y DVI, ha aparecido y por partida doble en la gráfica de ATI con chip RV635.

La nueva interfaz ofrece un ancho de banda de 10,8 Gbps y una resolución máxima de 2560 x 1600 píxeles. También puede transportar sonido a un máximo de 192 kHz a 24 bits y con 8 canales.

La tarjeta revelada por ATI incluye dos puertos DisplayPort y uno DVI con lo que la solución multimonitor está asegurada.

Compatible con HDCP podría también competir con el estándar HDMI en televisores, consolas y reproductores digitales, aunque su diseño está enfocado al uso en computadoras.

Hace unos meses se presentaron paneles que hacen uso de esta interfaz como el modelo de Samsung y NVIDIA anunció que mostraría gráficas con este tipo de conexiones a comienzos de año.

La comercialización de monitores y gráficas con esta tecnología se espera en el segundo semestre de 2008.

Dell, a la venta en tiendas Best Buy

El segundo fabricante mundial de computadoras ha acordado la venta de sus productos en la cadena de tiendas estadounidense, en un paso más por abrir el canal de distribución variando su estrategia de venta exclusiva online y telefónica

En principio solo estarán disponibles algunos modelos y en una parte de las 10.000 tiendas de la cadena, aunque el acuerdo contempla incrementar el negocio a la totalidad de las mismas en todo el mundo.

Los primeros modelos comercializados serán los portátiles de la serie XPS e Inspiron del que también se venderán máquinas de escritorio.

El acuerdo fue comunicado por el vicepresidente de ventas y marketing de Dell, Michael Tatelman, y es una nueva confirmación de los esfuerzos por recuperar las ventas perdidas en los últimos meses aumentando el canal de distribución.

Best Buy es una de las mayores cadenas mundiales de electrónica de consumo y cuenta con 140.000 trabajadores en todo el mundo. De esta forma se une a otras cadenas como Walmart o los hipermercados Carrefour que ya acordaron la venta de productos Dell en sus establecimientos.

sábado, 8 de diciembre de 2007

Un adolescente llama al número secreto de Bush creando una alerta de seguridad

Cuidado cuando llame usted...

Un adolescente islandés averiguó y llamó al teléfono privado del presidente estadounidense, indicándole que era el presidente de Islandia y que deseaba le fuera devuelta la llamada, informó la cadena MSNBC.

Alertada por el servicio secreto la policía visitó al adolescente que no reveló como obtuvo el número de teléfono en teoría Top-secret.

Se especula que lo podría haber obtenido descifrando el código cuando Jenna Bush llamó a sus padres en un show televisivo.

La aparente facilidad para hacerse con el número privado del teléfono del hombre más poderoso del mundo ha abierto el debate.

miércoles, 5 de diciembre de 2007

Denuncian a Yoigo por publicidad engañosa

Antes de nada decir, el que revolucione el mercado el que ponga al resto de operadoras de movil, contra la pared, ese será castigado, solo asi se entiende

FACUA-Consumidores en Acción ha denunciado a Yoigo por publicidad engañosa en radio e Internet. La compañía asegura en su actual campaña publicitaria que "todas las llamadas entre todos los yoigos cuestan cero cent/min" y advierte que lo hace "sin letra pequeña", pero en realidad excluye de esta oferta a los clientes con dos de sus cuatro planes tarifarios: Tarjeta 2 y Contrato 2.

Las denuncias han sido remitidas al Instituto Nacional del Consumo (INC) del Ministerio de Sanidad y Consumo y la Dirección General de Consumo de la Comunidad de Madrid, donde la empresa tiene su sede social. No son las únicas quejas sobre la joven operadora, muchos usuarios se siguen quejando de que la velocidad en su acceso a Internet móvil continua estando limitada.

FACUA solicitó a Yoigo, al inicio de su campaña, que modificase sus versiones en radio e Internet para, como mínimo, aclarar que su oferta afecta a los clientes con planes tarifarios con un consumo mínimo mensual de 6 euros más IVA, algo que sí hace en televisión, prensa y medios de publicidad exterior. La tarifa Tarjeta 2 no impone un gasto mínimo al mes, mientras que Contrato 2 supone un bono de 60 euros (siempre más IVA) mensuales.

Al no haber realizado esta rectificación, FACUA ha optado por denunciar a Yoigo ante los organismos competentes en materia de protección a los consumidores.

Lo que traerá el Kernel 2.6.24

* Soporte de Tickless: Una nueva infraestructura para gestionar el tiempo muerto de la CPU.

* Markers: Esta es una de las partes que conforma lo que podríamos llamar "DTrace de Linux".

* Puntos de montaje "bind" de sólo lectura: Ahora se pueden hacer monturas "bind" de sólo lectura.

* Mejoras del gestor de procesos: Se podrá configurar cómo particionar el tiempo de CPU entre usuarios o grupos.

* Antifragmentación de la memoria: Una mejora definitiva que afecta a la asignación de memoria al más bajo nivel posible.

* Task Control Groups: Esta es una caracterísitica que sirve para la asignación y control de recursos a grupos de procesos.

* Drivers para dispositivos inalámbricos: En Linux se añaden drivers
continuamente, pero en esta ocasión se ha añadido una buena cantidad más.

* Autorización USB: Ahora la pila USB puede configurarse a través de sysfs para que los dispositivos USB conectados al sistema no esten "autorizados" para funcionar.

* Reunificación x86-32 y x86-64: Ya no hay arch/i386 y arch/x86_64, ahora hay arch/x86 (aunque se conservan algunos enlaces simbólicos por compatibilidad).

* Espacios de nombres para los PIDs y la pila de red: Esto tiene que ver con la virtualización a nivel de sistema operativo, tipo vServer o OpenVZ, las "jails" de los BSDs o los Containers de Solaris.

* Límites de memoria "sucia" para cada dispositivo: Los límites de la cantidad de memoria que puede estar "sucia" (sin escribir a disco) son independientes para cada dispositivo y se calculan dinámicamente.

* Soporte SPI/SDIO en la capa MMC: ¿Sabían ustedes que las mierdas de ranuras donde se meten las tarjetas de memoria MMC en las cámaras digitales pueden actuar como bus si al fabricante le da la gana añadir los cables y chips necesarios, y que se les puede conectar tarjetas de red y cosas así? Ahora Linux soporta esa tecnología.

lunes, 3 de diciembre de 2007

Mac OS X podría ejecutar aplicaciones Windows en breve

Un usuario ha descubierto evidencias en la última versión del sistema operativo de Apple, que permitirían en un futuro la ejecución de aplicaciones Windows de forma nativa, sin emplear sistemas de emulación o virtualización.

El debate comienza cuando Steven Edward envía a una lista de correo un mensaje denominado Interesting Behavior of OS X, en el que se describe que Leopard contiene un cargador de “Portable Executables” un tipo de ficheros usados en las versiones Windows de 32 y 64 bits.

Esta función, que nunca se ha documentado por Apple, incluso trata de buscar las DLLs apropiadas cuando intenta lanzar un binario Windows.

Esta información aumenta la sospecha que Leopard contenga ya los elementos básicos para que Apple añada algún día una capa de compatibilidad en Mac OS X, para ejecutar aplicaciones Windows del mismo modo que para sus aplicaciones nativas.

De hecho el software de código abierto Wine –muy utilizado en Linux- , facilita esta funcionalidad aunque de forma reducida, mediante la API que permite ejecutar programas Windows en entornos UNIX.

Esto sería el siguiente paso desde que los chips de Intel aparecieron en los Macs y Apple incluyó el software BootCamp para la instalación y ejecución de sistemas Windows XP o Vista en sus máquinas.

En los foros Mac especializados comentan que quizá se trate de alguna fase de test de las versiones de iTunes, Quicktime y Safari que sí tienen versión Windows, o algún modo “Coherence” dentro del mismo sistema operativo, de forma que a través de la partición Bootcamp éste fuese capaz de lanzar ejecutables de Windows estando en OS X.

O podría ser un auténtico bombazo como sería lanzar aplicaciones Windows de forma nativa en OS X… ¿Quién sabe? Seguramente tras la MacWorld de 2008 tendremos más respuestas.

jueves, 29 de noviembre de 2007

554 abonados de Asturias tienen ya conexiones de 100 megas simétricos

El Gobierno regional de Asturias finalizó el pasado mes de marzo las obras para extender la fibra óptica (FTTH) en Asturias. Las obras ya finalizadas abarcan una red de 220 kilómetros que ofrece servicio a 21 localidades de las comarcas del Nalón, el Caudal y el suroccidente de Asturias. Actualmente, hay 554 abonados a la red que explota el operador Adamo y que ofrece conexiones de 100 megas simétricos por 49 euros.

Carlos Tornadijo, Informático de formación, empleado de una empresa de reprografía y presidente de Narcea Digital, Tornadijo disfruta de un privilegio que casi nadie en el mundo tiene. "Lo increíble es disponer no ya de 100 megas de bajada, sino, sobre todo, de 100 megas de subida. Es revolucionario", afirma este cangués, de 30 años y apasionado de las telecomunicaciones, sobre todo si nos comparamos con otros munipios rurales que por el mismo precio prácticamente tienen sólo 512kbps de velocidad.

Según señala ElPaís, el propósito de esta red es llevar la banda ancha a las zonas en las que no hay red alternativa a la de Telefónica, no existe ADSL aún y en las que, si tienen este tipo de conexión, está muy limitada por su propia naturaleza, tanto por la distancia respecto a la central más cercana como por los condicionamientos del cable de cobre.

El Gobierno asturiano ha optado para estas zonas de poca población y hábitat muy disperso, el establecimiento de una red de fibra óptica hasta el hogar, donde se conectan directamente la televisión, el ordenador y el teléfono. La fibra óptica, de muy alta capacidad, transmite señal luminosa, que el equipo de conexión en cada hogar transforma en señal eléctrica.

"En pruebas de velocidad se alcanzan 73,66 Mb por segundo de transferencia y, a veces casi 90. Esto no quiere decir que no se llegue a la máxima capacidad de 100 Mb, pero para ello tenemos que contar con la capacidad de los servidores que proveen los datos, con la pérdida de señal del cable hasta el ordenador del cliente y de los aparatos existentes en la red del cliente", explica Tornadijo.

"En el medidor de velocidad Testdevelocidad.es se han recogido muestras de Adamo de más de 60 megas de velocidad"

"Esta barata y rapidísima conexión permite a los internautas", señala Tordanijo, "acceder a contenidos que requieren un gran ancho de banda, como televisión, streaming, videoconferencia, descargas de ficheros a alta velocidad y envío y recepción de correos electrónicos voluminosos. Para hacernos una idea de su velocidad, supone descargarnos el contenido de un CD-ROM completo en un minuto".

miércoles, 28 de noviembre de 2007

Cisco conecta a los 80.000 habitantes de Avilés con una red WiFi de 600MB

El centro histórico y el paseo marítimo de la ciudad asturiana de Avilés cuentan desde el pasado mes de abril con el despliegue de red inalámbrica metropolitana WiFi de topología mallada, una de las más grandes de España, con 40 puntos de acceso que podrán llegar a más de 70 cuando se culmine la segunda fase de ampliación, prevista para el primer semestre de 2008.

La MuniWiFi de Avilés ha sido desplegada utilizando la solución de redes inalámbricas malladas (también conocida como Mesh) de Cisco. La red inalámbrica consta de arquitectura centralizada, cuya inteligencia de red descansa en unas unidades centrales denominadas controladoras (WLAN Controller) que permiten a las unidades de punto de acceso (AP) dedicarse sólo a su principal trabajo: conectar eficientemente a los usuarios a la red inalámbrica pública. El proyecto ha sido diseñado y desplegado por la empresa ITECASTUR, partner especialista en soluciones inalámbricas de Cisco.

La MuniWiFi MESH de Avilés no sólo tiene la cualidad de ser una de las más grandes de su tipo desplegada en España, sino que es la primera red inalámbrica pública bajo el modelo de explotación de terceros por “coubicación”, es decir, la red es propiedad pública y la explotación la efectúan varios operadores privados en simultáneo, vía concurso público. La operadora Telecable ha ganado el concurso para explotar una parte del ancho de banda disponible de la MuniWiFi. Esta capacidad de explotación multioperador se consigue gracias al hecho de que la solución WiFi Mesh de Cisco permite múltiples redes (SSID) en simultáneo (hasta 16 redes distintas).

Otra característica de la red de Avilés es que es la primera desarrollada en un concepto de alta densidad de puntos de acceso, es decir que se han desplegado más AP por área cubierta de lo normal, lo que permite el desarrollo de aplicaciones como telefonía móvil IP, vídeo IP o vehículos conectados en movimiento a Internet. El nivel de calidad de servicios (QoS), que incluye asuntos como la seguridad, es muy elevado, con lo que se garantiza una conectividad de alto nivel.

La capacidad actual máxima de la red es de casi 600Mbps repartidos en 40 puntos de acceso, permitiendo hasta 800 usuarios simultáneos. El operador de cable Telecable tiene conectado a la MuniWiFi, como punto de partida, un troncal de fibra óptica de acceso simétrico a Internet de 20 Mbps. Desde su puesta en marcha a comienzos de abril hasta el mes de septiembre, la red estuvo en un periodo de prueba de conectividad gratuita, con conexiones simultáneas de hasta 165 usuarios diarios y cifras de casi 4.000 usuarios mes.

La red MuniWiFi de Avilés no sólo cuenta con una excelente electrónica inalámbrica, sino con una sofisticada electrónica de conmutadores, cortafuegos y sistema de control de acceso y monitorización de red, todo del fabricante Cisco. Una de las ventajas ofrecidas por Cisco es la facilidad de integración de la red MuniWiFi con la red alámbrica con los niveles de seguridad, eficiencia y control que mantienen las redes locales corporativas.

En la red MuniWiFi de Avilés coexisten una red pública multioperador y la red privada del Ayuntamiento, con lo que se permite a los funcionarios el acceso seguro a la intranet municipal desde la calle e incluso en movimiento. La solución inalámbrica de Cisco permite en simultáneo y utilizando la misma topología centralizada desplegar redes malladas exteriores y redes de AP interiores.

Las capacidades de la MuniWiFi de Avilés no sólo se limitan al simple acceso a Internet, sino que es la plataforma para nuevas iniciativas de alto valor social, como los puntos informativos turísticos, desarrollos de iniciativas Web locales para colectivos juveniles y tercera edad, control de tráfico y respaldo de la red de semáforos, televigilancia, control de violencia, etc.

martes, 27 de noviembre de 2007

GDrive, el producto de almacenamiento en línea de Google, podría estar ahora sí en camino

Desde abril de 2006 se lleva hablando de Google Drive: “un lugar para almacenar el 100 por cien de los datos de los usuarios en línea”. Según el Wall Street Journal, podría estar disponible en unos pocos meses.

Incluso se había llegado a decir que el proyecto había sido cancelado por Google. En abril de 2006 se habló de que Microsoft pudiese lanzar un Live Drive adelantándose a GDrive. En octubre de ese año, alguien dijo que los empleados de Google estaban utilizando un GDrive cliente. Desde entonces, no habíamos vuelto a saber nada.

Ahora, el Wall Street Journal publica que este producto de almacenamiento en Internet con nombre en código Platypus podría estar en camino.

En el artículo del periódico estadounidense no se dice nada sobre el servicio que no se haya dicho ya, con la excepción de que el producto estaría conectado con los servicios de Google como Google Docs. Menciona también acceso a través del móvil. De ser cierto lo que dice el rotativo, GDrive podría estar listo “de aquí a unos cuantos meses”.

En este caso, Google no es el primero en ofrecer almacenamiento en línea, ya que una gran variedad de empresas pequeñas compiten ya en este mercado con otras más grandes como Microsoft, AOL e incluso Apple (con Dotmac).

Los empleados se arriesgan más en la oficina que en casa

Un estudio ha revelado que los riesgos informáticos que toman los empleados en el trabajo superan con creces a los que toman en sus hogares, donde son más cuidadosos.
La Information Systems Audit and Control Association (ISACA) encuestó a 301 trabajadores de empresas con al menos 100 personas, y de su estudio se deduce que el comportamiento de estas personas en sus trabajos no es especialmente ‘cuidadoso’.

Por ejemplo, el 15% de ellos intercambiaba archivos vía P2P, que según ISACA era como “abrir una gran puerta a las corporaciones”.

Además, el 11% había enviado documentos confidenciales a la persona equivocada, aunque sólo el 60% de ellos consideraba dicha acción como arriesgada. Y el 35% habían violado las políticas corporativas de TI con conocimiento.

“Creen que incluso si cometen un error, nada malo ocurrirá, dijo Kent Anderson, un consultor de ISACA.

El estudio concluye afirmando que los empleados dan como un hecho que las infraestructuras de la empresa les proporcionan la seguridad necesaria, mientras que sí que se preocupan por la seguridad de sus datos en sus hogares.

sábado, 24 de noviembre de 2007

Windows Server 2008, dicen que vuela al transferir archivos

“Si no lo veo no lo creo”, pero la noticia indica que en unas pruebas recientes de transferencia de ficheros, la RC0 del nuevo Server 2008 fue nada menos que 45 veces más rápida que Windows Server 2003.

ard Ralston del Windows Server Division Weblog explicó que las pruebas se hicieron por su grupo de MSN transfiriendo 10,8 Gbytes de datos de Virtual Earth entre dos servidores.

En Windows Server 2003 tardaron 5 horas 40 minutos en completar la tarea y 6 horas 6 minutos en el camino de vuelta.

En la RC0 de Windows Server 2008 los resultados son simplemente espectaculares en comparación, con 7 minutos 45 segundos y 8 minutos y 10 segundos respectivamente para completar los 11 Gbytes de datos.

Suponemos que la mejora se debe a la actualización de la pila TCP/IP con el nuevo algoritmo Compound TCP (CTCP) para moderar el control del flujo TCP y a la implantación del protocolo SMB 2.0 que trabaja con mayores tamaños de buffer y permite el envío de múltiples comandos en un paquete.

El SP3 aumenta en un 10% el rendimiento de XP

Nuevas pruebas con la versión previa de Windows XP Service Pack 3 (v.3244), ofrecieron una mejora de rendimiento de un 10% en el test OfficeBench. Nada científico, pero resaltable tras las decepcionantes pruebas con el SP1 del Vista del que se esperaba mucho más.

A pesar de que Microsoft no anunció para el Service Pack 3 del XP mejora del rendimiento, parece que las pruebas realizadas han sorprendido agradablemente a los probadores.

El equipo utilizado para las pruebas fue un Dell XPS M1710 con procesador Core 2 Duo a 2 GHz, 1 Gbyte de RAM y una gráfica GeForce Go 7900GS.

Malas noticias para Vista y buenas para XP que doblaría el rendimiento a su hermano mayor al menos en estas pruebas preliminares. Por supuesto que el rendimiento no lo es todo y menos con unas pruebas tan específicas, pero son una razón más para que los usuarios estén pasando de Vista por el momento.

sábado, 17 de noviembre de 2007

Gmail 2.0 con problemas

Desde Computer World leemos que la importante actualización 2.0 del cliente de correo web gratuito de Google, está siendo el azote de muchos usuarios que se quejan que la nueva versión es muy lenta, a menudo no se puede cargar las páginas y que incluso bloquea sus exploradores.

Los foros de discusión han sido la fuente de las quejas desde la actualización realizada hace dos semanas, lo que se une a otro problema con la pérdida de correos supuestamente por virus.

En teoría Gmail 2.0, que incluye un administrador de contactos actualizados, está diseñado para ser más rápido y más estable y supone el comienzo del “cambio de código estructural” de las nuevas características anunciadas por Google para los próximos meses

Aunque la compañía afirmó que “la mayoría de los usuarios debería notar una mejora en el rendimiento” con la versión 2.0, a muchos usuarios les sucede justamente lo contrario.

Especialmente reseñable son los bloqueos denunciados con Firefox 2.0, a pesar que Google recomendó utilizar este navegador e ie 7 para aprovechar la interfaz.

Cuando los usuarios con problemas cambian a la versión anterior, estos desaparecen. Sin embargo como Gmail no permite elegir la versión a utilizar, en cada inicio de sesión el sistema actualiza a la 2.0, debiendo hacerlo manualmente.

Google debería dar respuesta a estas quejas antes de migrar a todos sus usuarios a la nueva versión o al menos permitir rechazar la actualización hasta que aporte soluciones.

“Gmail slow” es el post con más actividad últimamente de la ayuda de Gmail con 35 páginas detallando los problemas. No deberían caer en saco roto.

viernes, 16 de noviembre de 2007

Ubuntu también en los servidores de Dell

Con esta noticia se hacen realidad los deseos de Canonical Ltd. de entrar con su distribución de lleno en el mercado de los servidores corporativos.

Finalmente se espera que Dell, que ya vendía PCs para el escritorio con Ubuntu, anuncie en el primer cuarto del próximo 2008 que ya terminó de certificar esa distribución también en su línea de servidores. Dell, sin embargo, ya vende servidores con Ubuntu pre-instalado:

"Si un cliente de Dell nos pide pre-instalar Ubuntu en un servidor, nosotros lo hacemos por ellos. Hacemos lo mismo con Red Hat y SUSE. Nuestro grupo de soporte Open Source trabajará con ellos lo mejor que pueda, pero la mayoría de los desarrolladores que piden por Linux probablemente saben más que nosotros sobre Ubuntu. De hecho, nosotros les pedimos consejos a ellos", dice Rick Becker vice-presidente del grupo de productos de Dell.

Dell anunció recientemente que también incluirá a Solaris en sus servidores.

jueves, 15 de noviembre de 2007

La Release Candidate del Service Pack 1 para Vista Esta siendo probada por 15 Testers

El primer paquete de servicio para Windows Vista está cada vez más cerca, como lo demuestra la publicación de una preview a la Release Candidate que ya está en manos de los ‘probadores oficiales’ de Microsoft.
Ya en septiembre se publicó la primera beta del Service Pack 1, que fue a parar a manos de 12.000 probadores. Ahora el número de gente preseleccionada por Microsoft para analizar esta nueva versión es de 15.000 personas, que tendrán la oportunidad de comprobar las mejoras que este SP1 para Windows Vista trae consigo.

Aún no se sabe la fecha concreta de salida del SP1, aunque el plazo marcado por Microsoft es el del primer trimestre de 2008.

Forrester: “Linux en el escritorio es una amenaza real para Windows”

La prestigiosa consultora ha emitido un informe en el cual valora la situación de Linux en el escritorio y sus posibilidades en el futuro. La conclusión: en Microsoft debería empezar a preocuparse.
“El alto volumen de peticiones de clientes para instalar Linux en sus escritorios indica que esta alternativa no va a desaparecer a corto plazo. Se espera que Linux crezca durante el año que viene ya que los distribuidores están trabajando duro para convertirla en una oferta de clase empresarial de primer nivel.”

El estudio de Forrester titulado “How Windows Vista Will Shake Up The State Of The Enterprise Operating System.” (”Cómo Windows Vista cambiará de forma crítica el estado de los sistemas operativos en la empresa”) se realizó a 1001 personas encargadas de la toma de decisiones en empresas norteamericanas y europeas.

De esas empresas, casi el 50% afirmaron tener planes concretos para instalar Vista en sus empresas en 2008, y un 7% ya comenzaría esa implantación antes de final de este año. Un 17% planeaba saltar a Vista en 2009 o incluso más tarde.

Sin embargo, el estudio también reveló algo que todos sabíamos: que la adopción de Vista en la empresa está siendo muy lenta, y eso tiene implicaciones. Uno de los responsables del estudio, Benjamin Gray, dijo “¿Se estandarizará la plataforma Windows aún más y eso provocará que Linux no tenga lugar en el escritorio en empresas? Imposible”.

lunes, 12 de noviembre de 2007

Steve Ballmer: “Google es mejor para las búsquedas"

El presidente de Microsoft, Steve Ballmer, causa sorpresa al admitir que Google es mejor.

Diario Ti: Steve Ballmer no destaca precisamente por sus elogios de los competidores. Sin embargo, diversos indicios hacen suponer que está cambiando de estrategia. Por ejemplo, recientemente elogió el teléfono iPhone de Apple, y a pesar de diversas arremetidas contra los entornos Linux, también se ha referido positivamente a tal plataforma de código abierto.

Ballmer considera a Google como el principal competidor de Microsoft. Para el lanzamiento de la nueva versión de Live Messenger, realizado la semana pasada, comenzó su disertación con algunos disgustados comentarios sobre el gigante de las búsquedas.

El presidente de Microsoft comenzó señalando que su compañía es superior en cuanto a la mayoría de los servicios disponibles en línea, pero admitió seguidamente que Google lleva la ventaja en el tema de las búsquedas.

“Google no nos supera, pero en lo relativo a la búsquedas, sí lo hace", declaró Ballmer a los asistentes.

domingo, 11 de noviembre de 2007

“La NSA espía todo el tráfico web”, dice un ex trabajador de AT&T

Mark Klein, el que fuera técnico de la operadora y ayudara a destapar el escándalo de las escuchas de la NSA, revela ahora más detalles de las violaciones de derechos civiles con el supuesto espionaje de la agencia de seguridad americana.

Klein explica que conoció el montaje en la “habitación 641A” en el centro de AT&T en San Francisco de un sistema computacional supuestamente encargado por la NSA a la operadora, donde se recibía copias de todo el tráfico web nacional e internacional, correos electrónicos y llamadas telefónicas de los clientes de AT&T y de otras operadoras. Incluso un agente de la NSA entrevistó a técnicos de la operadora para encargar “un trabajo especial”.

Las declaraciones anteriores del gobierno estadounidense, AT&T y del mismo Bush, señalaban que las únicas comunicaciones “interceptadas” eran las relativas a la seguridad nacional, presuntos terroristas y sospechosos extranjeros.

Según Klein el sistema montado era incapaz de cualquier tipo de filtrado, insistiendo que se recibía todo el tráfico nacional e internacional de la señal de la operadora.

Aunque no se conoce con seguridad lo que ocurría dentro de esa “habitación” el técnico reveló que el sistema integraba equipos especiales de análisis de datos incluyendo un Narus STA 6400, dispositivo diseñado especialmente para el análisis de comunicaciones de Internet a muy alta velocidad.

Además reveló que según datos internos, equipamiento similar se habría instalado en otras “habitaciones secretas” en los centros de Seattle, San José, Los Angeles y San Diego.

A raíz del atentado del 11 de septiembre, Bush firmó una orden por la que los servicios de inteligencia pueden “monitorizar” llamadas y mensajes, sin orden judicial.

Sin embargo en este caso que sigue pendiente, el gobierno Bush sigue invocando al recurrente “secretos de estado” y AT&T afirma que seguía órdenes del gobierno por lo que no es responsable de ninguna demanda legal.

¡En manos de quienes estamos

Un “asesor de seguridad” admite infectar 250.000 ordenadores mediante ataques “botnet”

John Schiefer, de 26 años, se declaró culpable de cuatro cargos por fraude e interferencia de comunicaciones, admitiendo haber infectado un cuarto de millón de computadoras, espiando sus comunicaciones, robando identidades y accediendo a las cuentas bancarias de sus dueños.
Según el fiscal, Schiefer y otros cómplices instalaron códigos ilegales de ordenadores que actuaban como interceptores de comunicación en páginas, como en la del sistema de pago online paypal.

Schiefer llevaba una doble vida. Trabajaba curiosamente como asesor de seguridad de información en la empresa Simpel en la que infectó 130.000 ordenadores, mientras participaba en una red clandestina desde las que preparaba sus hazañas.

Los ataques realizados mediante la instalación de un “bot” en los equipos remotos, permitieron el control total de los mismos.

Ahora el sujeto se enfrenta el 3 de diciembre a un proceso que podría suponerle 60 años de cárcel.

sábado, 10 de noviembre de 2007

Routers 802.11n ¿Vale la pena?

Aunque el estándar 802.11n sigue sin ser definitivo, el último borrador ha permitido que ya existan soluciones en el mercado con dicho soporte. En Ars Technica han probado cuatro de ellos, y han analizado sus ventajas y desventajas.
Esta nueva norma tiene dos mejoras clave: la opción de uso de nuevas bandas de frecuencias - la de 5GHz, que interfiere mucho menos con otros dispositivos inalámbricos - y la velocidad de transmisión que puede llegar a un máximo teórico de 258 Mbits por segundo frente a los 54 del estándar 802.11g.

Sin embargo, la banda de frecuencia de los 5 GHz no es un requisito, y de hecho de los 4 routers analizados solo el Airport Extreme de Apple tenía dicho soporte. Los demás operan en la banda de los 2,4 GHz, lo que los hace compatibles con las normas 802.11b/g.

El borrador 2.0 que fue aprobado en marzo de este año parece que será la base real de un estándar final que podría aparecer en 2009.

En las pruebas comprobaron que el throughput - el tráfico de datos - de paquetes TCP/UDP era algo mayor, pero que aún no justifica el cambio si disponéis de routers 802.11g. El coste de estas soluciones aún es elevado, pero si tenéis routers 802.11b no es mala idea pensar en este tipo de dispositivos.

Sin embargo, lo más interesante no es el aumento de la velocidad de transferencia - cuya importancia decrece según nos alejamos de la fuente - sino el uso de la banda de los 5 GHz, que permite eliminar interferencias con otros dispositivos y mejorar de forma notable la calidad y velocidad de la comunicación.

viernes, 9 de noviembre de 2007

Las pruebas de la red 4G, prometedoras

El consorcio creado por fabricantes de móviles y telecomunicaciones, como Nokia, Nortel, T-Mobile, Vodafone, France Telecom y Alcatel acaba de concluir la primera fase de pruebas de la red inalámbrica 4G, y los resultados son esperanzadores.
Con la subasta en enero del segmento de 700MHz en Estados Unidos y el lanzamiento por parte de Sprint de su red WiMAX, la banda ancha inalámbrica ha conseguido ser noticia con bastante frecuencia estos últimos meses. Sin embargo, el rendimiento de las redes inalámbricas 3G no ha cumplido con las expectativas, por lo que muchos tienen ya puesta la mirada en la próxima revolución: el mundo de las 4G.



En las pruebas realizadas por este consorcio de empresas se utilizó el proyecto 3GPP LTE (Long Term Evolution), una especificación de banda ancha inalámbrica 4G que trata de acoplar el rendimiento de la actual UMTS a las necesidades del futuro. El objetivo de LTE es ambicioso: velocidades de 100 Mbps de bajada y 50 Mbps de subida, latencia inferior a los 5 milisegundos para ciertos casos de tráfico IP y soporte no inferior a los 200 usuarios simultáneos en cada porción de espectro de los 5MHz utilizado.

Las pruebas se realizaron tanto en el laboratorio como fuera de él, en entornos urbanos. LSTI utilizó sistemas de radio multi-antena y antena única, y fue capaz de alcanzar los objetivos de rendimiento en todos los casos, tanto para operaciones estacionarias como móviles.

No obstante, la realidad de esta red es aún lejana. Según las previsiones de la LTE, no llegaría al mercado hasta el 2010.

miércoles, 7 de noviembre de 2007

Mac OS X 10.5 Leopard Server vs. Windows 2003 Server

Aunque últimamente ofrecen un conjunto de características similares, como servicios de directorio, servicios de impresión y archivos, o varios servicios de internet entre otros, las dos plataformas parecen haber sido diseñadas para dos tipos de usuarios completamente distintos. Un ejemplo excelente de esto puede ser la propuesta tan dispar realizada por ambas compañías en cuanto a la licencia del software:

Windows Server está disponible en torno a una docena de versiones diferentes, cada una de ellas con su propio precio y conjunto de características dirigidas a entornos específicos. Por el contrario, sólo hay una única versión de Mac OS X Server en la que se ofrecen todas las características disponibles a cualquiera que lo compre.

Apple ha diseñado Leopard Server específicamente para las pequeñas empresas que carezcan de un departamento de IT. El producto ofrece un proceso de configuración simplificado que pueden realizar sin problema cualquier técnico o usuario avanzado.

Esta combinación de sencillez de interfaz y opciones para un crecimiento planificado hacen que Leopard Server suponga una opción más atractiva en comparación con Windows Small Business Server para los pequeños negocios así como otras organizaciones.

El hecho de que Apple las haya basado en estándares abiertos hacen de Leopard Server (por sí mismo o con Windows Server) una plataforma idónea para cualquier empresa que, con un tamaño moderado, quiera facilitar las tareas de gestión de proyectos y la interacción entre sus empleados. Nuevamente, el soporte multiplataforma de Leopard Server proporciona una gran flexibilidad y sencillez de configuración en los entornos con clientes Mac y Unix/Linux además de para estaciones de trabajo Windows.

Si bien es cierto que hay que superar la curva de aprendizaje inicial para cambiar a Mac OS X Server, la plataforma no debería ser descartada de forma inmediata. Las tecnologías que emplea son robustas y muy bien diseñadas con una sólida base en estándares abiertos y sistemas de código abierto. Esta arquitectura de código abierto hace que el Mac OS X Server sea mucho más flexible gracias a que los ingenieros experimentados pueden ampliar con facilidad los productos de Apple.

Dadas las posibilidades adicionales que ofrece el OS X Server más allá de la simple gestión de clientes, bien vale su consideración por parte del segmento empresarial, desde los pequeños negocios hasta las grandes multinacionales.

lunes, 5 de noviembre de 2007

Ya es posible: ADSL hasta 100 MB

Un investigador australiano va camino de hacerse rico después de descubrir la manera de hacer conexiones de banda ancha 100 veces más rápidas que las actuales.

e llama John Papandriopoulos (no olviden este nombre) y acaba de desarrollar un algoritmo capaz de reducir la interferencia electromagnética que ralentiza las conexiones ADSL que conocemos.

La mayoría de los servicios ADSL que funcionan por el mundo tienen un límite de velocidad real de 1 a 20 Mbps. Con la tecnología de Papandriopoulos, este límite podría acercarse a los 100 Mbps.

El trabajo de este australiano ha sido ya revisado por John Cioffi, profesor de la Universidad de Stanford y conocido como el “padre del DSL”. La sorpresa fue mayúscula y le faltó tiempo para ofrecer al joven australiano (29 años), un puesto en su empresa de Silicon Valley, ASSIA, que trabaja en el desarrollo de tecnologías capaces de optimizar el rendimiento de las redes DSL.

Con la mochila ya al hombro, a Papandriopoulos sólo le queda averiguar cuánto ganará exactamente con su invento. De momento, Melbourne Ventures, asociada a la Universidad de Melbourne, está comprando el mejor equipamiento DSL para empezar a comercializar el producto. En dos o tres años, podría estar implantada en los proveedores de Internet de todo el mundo.

viernes, 2 de noviembre de 2007

Acusan a la NSA de poder entrar en cualquier ordenador

Noticias de Kritopolis

Lo que muchos sospechamos y algunos insinúan, muy pocos se atreven a afirmarlo. Y no es de extrañar, porque se trata del tipo de aseveraciones que pueden consagrar o dinamitar la reputación de un individuo o un sitio.

Cryptome, que desde hace algún tiempo sigue la pista a las direcciones IP utilizadas por la NSA y sus socios, hoy va un paso más lejos, con la siguiente afirmación:

Los amplios rangos de IP publicados por Cryptome son utilizados por la NSA, por contratistas del sector privado que trabajan con la NSA y por agencias gubernamentales no estadounidenses amigas de la NSA para acceder tanto a sistemas independientes como a redes ejecutando productos de Microsoft. Esto incluye el espionaje de "smart phones" ejecutando Microsoft Mobile. Los privilegios de administración remota permiten utilizar puertas traseras en los sistemas operativos de Microsoft mediante los puertos TCP/IP 1024 a 1030. Esto es disparado con más frecuencia cuando los ordenadores visitan los servidores de actualizaciones de Microsoft. Una vez se han establecido los privilegios de administración remota, los ordenadores pueden ser accedidos de forma remota a voluntad. Algunos fabricantes de cortafuegos y software de detección de intrusos facilitan eso de forma consciente. Detalles más amplios sobre qué fabricantes y sus medios de facilitación no están ahora mismo disponibles, pero serán proporcionados a Cryptome cuando se descubran.

Sin duda, todo un órdago a la grande...

La última frase resulta particularmente intrigante, y alimenta las sospechas de quienes efectivamente creen que Cryptome dispone de un informador secreto (denominado "A" por Cryptome) dentro de la propia NSA, lo que le ha venido permitiendo publicar sus listados de IPS desde el pasado verano.

Como siempre digo, la sospecha es libre... y la especulación también. Además, desde siempre, en estos asuntos información y desinformación son las dos caras de la misma moneda.

Cryptome acaba de poner muy alto el listón. Permaneceremos muy atentos a esos interesantes detalles que hoy nos anuncian.

Ataque con troyano para usuarios de Mac

Detectada diversas variantes de un troyano destinado a usuarios de Mac. De momento se ha detectado únicamente hospedado en páginas de contenido pornográfico, a través de las cuales intentan engañar a los usuarios para que se instalen el troyano.

Se trata de un ataque dirigido a usuarios de Windows y Mac desde páginas con supuestos vídeos pornográficos. Para atraer a las potenciales víctimas, las direcciones de las webs que contienen los troyanos han sido anunciadas a través de spam, incluyendo el envío de los enlaces a varios foros de usuarios de Mac.

Cuando el usuario visita una de las páginas y selecciona visualizar uno de los vídeos, el servidor web detecta si el sistema es un Windows o Mac a través del user-agent del navegador. En función de ese dato, la página web intentará que el usuario se instale la versión del troyano para Windows (extensión .exe) o para Mac (extensión .dmg).

La estrategia de los atacantes consiste en hacer creer al usuario que necesita instalar un componente adicional, un codec, para poder visualizar el vídeo. El usuario de Mac tendrá que introducir la contraseña de administrador para proceder a la instalación del troyano, si bien muchos podrían hacerlo creyendo que es necesario para instalar el componente que les permitirá ver el deseado vídeo.

Una vez el troyano se instala lleva a cabo su cometido, que no es otro que modificar los servidores DNS del sistema para que apunten a unos nuevos que están bajo el dominio de los atacantes. Estos servidores DNS llevarían a cabo un ataque del tipo pharming, ya que pueden redireccionar ciertos dominios, como el de algunas entidades bancarias, a servidores que hospedan phishing con el fin de sustraer las credenciales de acceso de las víctimas.

La detección antivirus es de momento escasa, normal si tenemos en cuenta que el malware suele ser, en la práctica, un terreno de Windows, en incluso muchas casas antivirus no tienen soluciones para Mac. Las diversas variantes a las que tenemos acceso en Hispasec hasta el momento son detectadas por ninguno, uno, o a lo máximo dos productos antivirus, entre los que se encuentra Sophos que lo identifica con el nombre de "OSX/RSPlug-A" y Mcafee como "OSX/Pupe".

La recomendación obvia a los usuarios de Mac es que no instalen ningún software de fuentes no confiables y, dado este caso en concreto, especialmente desconfíen de cualquier web de contenido adulto que les incite a instalar un supuesto codec de vídeo.

Aunque el ataque también se dirige a usuarios de Windows, que es lo común, la noticia es que se hayan molestado en desarrollar una versión del troyano específica para los usuarios de Mac. Hasta la fecha la mayoría del malware para Mac era anecdótico, pruebas de concepto o laboratorio, que realmente no tenían una repercusión significativa entre los usuarios de Mac. En esta ocasión estamos ante un caso real de malware funcional desarrollado por atacantes que han fijado, como parte de sus objetivos, el fraude online a usuarios de Mac.

¿Caso puntual o el comienzo de una nueva era en lo que respecta al malware para Mac?

Más información y ejemplos de las webs que distribuyen el troyano pueden encontrarse en el blog del laboratorio de Hispasec:
http://blog.hispasec.com/laboratorio/250

Yoigo anuncia que las llamadas entre sus clientes serán gratuitas

Telefonía Móvil Yoigo es más barato que el resto de operadores y ahora lo vuelve a demostrar. El operador ha anunciando que desde el 1 de noviembre de 2007 las llamadas entre clientes Yoigo costarán solo el establecimiento de llamada.

Estas llamadas a 0 centimos/minuto estarán disponibles de manera automática para los clientes de cartera como para los nuevos clientes que tengan la tarifa 1 (en contrato o en prepago) cuyo única condición es la de un consumo mínimo mensual de 6€

De esta manera, Yoigo continua con su política de ser un operador simple, claro y sencillo. Ahora si son el operador más barato sin necesidad de recurrir a planes de ahorro como Movistar, Vodafone y Orange.

La operadora también apostó por la Voz IP, permitiendo el desarrollo de las llamadas gratuitas por internet en su red tiene un evidente componente de reclamo para los sectores más jóvenes de la telefonía celular.
La decisión de no impedir el uso de la voz gratuita por internet desde las redes de móvil va a obligar a Yoigo a realizar un esfuerzo de comunicación para explicar a sus usuarios que ésta es “una prestación en la que no podremos garantizar un nivel de calidad y estabilidad en la conexión”. Para hacer llamadas de voz “con todas las garantías que exige el servicio, tendrán que seguir utilizando la vía celular convencional.

martes, 30 de octubre de 2007

Europa dice que es hora de pasar a las IPv6

La Red Europea de IPs (la RIPE, en francés) acaba de adoptar una resolución en la que se establece que ha llegado el momento de empezar a utilizar direcciones IPv6, ya que las IPv4 estarán saturadas en dos o cuatro años.

En mayo, ARIN, la organización que concede las direcciones IP en América del Norte, dijo que había llegado el momento de empezar a utilizar las IPv6. Cinco meses y 76 millones de direcciones IPv4 más tarde, su equivalente europea, la RIPE, ha adoptado una resolución semejante.

“El crecimiento y la innovación de Internet dependen de que siga habiendo espacio disponible para las direcciones IP”, reza la resolución. “El espacio que queda aún libre en el espectro del IPv4 estará saturado en dos o cuatro años. La IPv6 proporciona el espacio necesario para el crecimiento futuro”.

No obstante, hay quien cree que lo que debería hacerse es utilizar el espacio de clase E vacante en la IPv4. Si se añade al espacio que aún queda libre en la IPv4, el que va desde los números 240 al 255, el espacio de clase E, tendríamos capacidad para 1.420 millones de direcciones. El problema es que los sistemas operativos, los routers y los cortafuegos suelen rechazar las direcciones de clase E.

Apple presentó Mac OS X Leopard a nivel mundial

El nuevo escritorio de Leopard incluye un rediseñado Dock 3D con Stacks, una nueva forma de organizar los archivos para acceder a ellos de manera rápida y fácil con un sólo click.

Diario Ti: Apple presentó a nivel mundial su Mac OS X Leopard, solución que ofrece más de 300 nuevas características, como un escritorio con Stacks, una nueva e intuitiva forma de acceder a los archivos desde el Dock; un Finder rediseñado que permite al usuario explorar rápidamente y compartir ficheros entre múltiples Macs; Quick Look, una nueva forma de previsualizar instantáneamente la mayoría de los archivos sin tener que abrir ninguna aplicación; entre otras.

Entre las nuevas capacidades de Leopard destacan:

- Control para Padres mejorado.
- Versión completa de Boot Camp.
- Web Clip.
- Nuevas características en Photo Booth.
- Nuevo Diccionario mejorado.
- Nuevo y actualizado iCal.
- Versión actualizada de Front Row.

Primeras críticas al cortafuegos de Mac OS X Leopard

El pasado viernes Apple presentó Leopard, la última versión de su sistema operativo Mac OS X, que llega dos años y medio después del anterior, Tiger.

Aunque la seguridad mejorada se presenta como una de las principales de sus más de 300 nuevas funcionalidades, un primer análisis realizado por Heise sobre el cortafuegos de Leopard no resulta nada halagüeño, sino más bien todo lo contrario...

Para empezar, el cortafuegos de Leopard viene desactivado por defecto (una política que incluso Microsoft abandonó años atrás, con el SP2 de Windows XP), y lo que es peor: si el usuario de una versión previa de Mac OS X tenía su cortafuegos activado, la actualización a Leopard se lo desactiva.

Pero hay más: servicios instalados por defecto corriendo en background y transparentes al exterior pese a configurar al cortafuegos de la forma más restrictiva ("bloquear todas las conexiones entrantes"), una política de compartición de recursos demasiado confiada, permisividad total de acceso al exterior cualquier proceso iniciado en la propia máquina, etc.

Merece la pena leer el análisis de Heise.

domingo, 28 de octubre de 2007

Cómo limpiar paquetes huérfanos en Debian

El sitio de la recomendable revista Free Software Magazine publica un interesantísimo artículo sobre cómo mantener "limpia" la instalación de cualquier distribución GNU/Linux basada en Debian (Ubuntu incluída), y más particularmente, en su herramienta de administración de paquetes Apt. La idea es manter nuestro sistema libre de paquetes "huérfanos", o sea, aquellos que aún quedan instalados depués de que desinstalamos el paquete que los instaló primero como una dependencia previa. De esta manera, liberamos su espacio en el disco rígido, evitamos redundancias innecesarias y conflictos con otros paquetes que decidamos instalar después.

Este problema nace por el hecho de que cuando removemos un paquete determinado con apt-get remove sólo eliminamos a éste en particular, y no a todos los paquetes que pudo haber instalado como dependencias (generalmente librerías) antes.

La solución viene de la mando de herramientas como Deborphan (y sus frontends como Orphaner, Editkeep y GtkOprphan), Debfoster y por supuesto, Aptitude más dselect.

En Ubuntu, a partir de su versión 6.10 en adelante, su apt-get soporta la opción autoremove, que remueve el paquete indicado más todas sus dependencias que ya no se usan.

Drivers ATI con soporte para Compiz Fusion

Hace unos días AMD lanzó la nueva versión de su driver propietario (fglrx 8.42.3), que finalmente -y después de una larga espera- tiene soporte para AIGLX. Eso básicamente significa que podrás correr los efectos ultramágicos de Compiz Fusion sin la necesidad de usar XGL entre medio (¿se acuerdan el cachito que era instalarlo?). Además, el nuevo driver soporta la última versión de X.org (7.3), e incluye varias mejoras en rendimiento, especialmente en la reproducción de video. Eso sí, curiosamente, no soporta el Kernel 2.6.23 debido a problemas con la arquitectura de 64 bits. Supuestamente, fglrx 8.43 corregirá ese problema.

Bien por AMD, que finalmente escuchó los gritos de tantos usuarios de ATI alrededor del mundo. Ahora finalmente podemos hacer las paces con ellos y disfrutar de una buena tarjeta ATI.

viernes, 26 de octubre de 2007

Los rusos utilizan tarjetas gráficas baratas para entrar en Vista

La técnica utiliza hardware para gráficos baratos, como la GeForce de NVIDIA, para craquear las contraseñas de los ordenadores.

Según publica la revista NewScientifistTech, la compañía de software rusa Elcomsoft ha patentado esta técnica que se aprovecha de las capacidades de “procesamiento en paralelo masivas” de las GPUs (utilizadas normalmente para producir gráficos realistas en los videojuegos).

Con una tarjeta gráfica de 800 dólares de NVIDIA, la GeForce 8800 Ultra, Elcomsoft rompió la contraseña un 25 por ciento más rápido de lo normal, según su presidente, Vladimir Katalov.

Para romper las contraseñas más difíciles, como las que se utilizan para registrarse en los ordenadores Vista, se necesita normalmente meses de procesos continuos utilizando la CPU. Con una GPU de 150 dólares, menos potente incluso que la NVIDIA 8800, Elcomsoft dice que puede craquear el sistema en sólo tres o cinco días. Las contraseñas menos complejas pueden desmantelarse en minutos, en vez de en horas o días.

Intel anuncia teclado a prueba de cerveza y café

La compañía Intel en general es relacionada con microprocesadores y otras tecnologías instaladas al interior del ordenador.

Diario Ti: Sin embargo, la compañía ha desarrollado en esta oportunidad una tecnología que soluciona un problema más práctico que las frecuencias de reloj y protocolos de comunicación.

La compañía ha inventado un teclado resistente a los líquidos, como por ejemplo café, cerveza o refrescos. Si un usuario vierte entonces tales líquidos sobre el teclado, el laptop no es dañado.

El invento se basa en un sistema que permite la circulación de aire hacia el teclado, pero no líquidos. Intel no explica en concreto el funcionamiento del invento, que según observadores podría tratarse de un material semiporoso que actúa como filtro.

El teclado comenzará a ser distribuido en el mercado en 2008. El precio aún no ha sido anunciado.

martes, 23 de octubre de 2007

Un consumidor solicita el embargo de las cuentas de Telefónica Móviles porque no le pagan

La demanda interpuesta por un consumidor contra Telefónica Móviles, el 23 de Febrero, solicitando el cumplimiento de la Promoción Pioneros, resultó en la condena a Telefónica a pagar más de 60.000 euros al “pionero”.

23-10-2007 - El Plan Pioneros, consistía en que los clientes que al comprar un vídeo Terminal UMTS Movistar y tras suscribirse vía web en la fase de captación del Plan, del 05/10/04 al 31/12/04, se convertía en Pionero y disfrutaría de un descuento del 50% en la renovación de sus terminales UMTS entre las fechas 01/11/05 al 31/01/06. Este plan fue promocionado a nivel nacional y, un consumidor que logró registrarse como “pionero”, demandó a Telefónica Móviles cuando vio que no ésta cumplía su oferta.

Teniendo en cuenta que este consumidor lleva desde el año 2005 peleando para que Telefónica Móviles le diese lo que le debe, que ya un Tribunal dictaminó que tenía razón, que además determinó que el equivalente económico de la promoción lo era por más de 60.000 euros y, que Telefónica es quien es, el embargo de sus cuentas parece la solución más surrealista del mundo.

Sin embargo, así ha sido, se ha tenido que solicitar que el Juzgado emita una orden de embargo a los principales bancos que operan en el territorio español, porque Telefónica se niega a cumplir sus compromisos con un cliente.

Parece que lo que pretende la gran multinacional es demostrar hasta dónde llega su poder para incumplir las normas, hasta que punto está dispuesta a llegar con tal de no cumplir sus obligaciones con sus clientes y, peor aún, hasta dónde deberán llegar éstos si quieren conseguir la correcta prestación de servicios y la confianza que nos venden en la tele.

jueves, 18 de octubre de 2007

Ya tenemos Ubuntu 7.10 ‘Gutsy Gibbon’

Ya podemos bajar de aqui la nueva version Gutsy Gibbon

La esperada distribución Linux de Canonical ya está disponible para su descarga, es el momento de probarla ya que parece tener muy buena pinta, yo he probado las versiones Beta y RC (Release Candidate) apreciando buenas mejoras, como que ya viene con buenos drivers tanto como tarjetas nvidia como ati. Ya hablaremos mas cuando la pruebe mas a fondo

Jazztel lanza ADSL sin necesidad de tener línea con Telefónica

Jazztel puede dar ya servicios de ADSL y voz a los clientes del mercado residencial sin que éstos tengan la obligación, como hasta ahora, de tener una línea operativa con Telefónica. El servicio se ha probado con más de mil nuevos clientes durante el último mes, con el fin de garantizar la calidad y buen funcionamiento del proceso de provisión antes del lanzamiento comercial.

La operadora ha presentado hoy el nuevo servicio que posibilitará además que los clientes de operadores de cable se cambien a Jazztel sin necesidad de pasar antes por Telefonica.

Además, un técnico de Jazztel dejará el servicio instalado y funcionando en casa del cliente. No solo instalara un PTR como sucede actualmente, la operadora ha hecho hincapié en que el técnico comprobará si funciona correctamente la línea.

Esta novedad, permitirá a Jazztel acceder a dos millones más de clientes con la cobertura actual.

Por otra parte, todos los usuarios de Jazztel que se cambien de domicilio, podrán seguir beneficiándose de los servicios de Jazztel sin tener que solicitar una nueva línea al operador incumbente.

Este servicio de Jazztel está disponible en modalidades de hasta 3 megas y hasta 20 megas con factura única. Para las nuevas líneas, la cuota de alta es de 90 euros, si bien el usuario que ya cuente con línea de otro operador y desee portar su número disfrutará de un descuento del 75% en dicha cuota. Es decir, que un cliente de ONO tendra que pagar 22,5 euros para portar su número a Jazztel.

domingo, 14 de octubre de 2007

Servidores Linux avanzan con paso firme según Dell

Las reclamaciones de Microsoft sobre las supuestas violaciones de patentes de Linux, no han afectado a las ventas de hardware con este sistema según Michael Dell

En una reciente entrevista el ejecutivo jefe de Dell afirmó que su empresa era testigo de que “la adopción de Linux en servidores continúa creciendo a buen ritmo y más rápido que con sistemas Windows”. “Estamos viendo movimiento en aplicaciones críticas y la migración a Linux no ha disminuido”, afirmó.

Desde que Microsoft denunciara en mayo que el software Open Source violaba 283 de sus patentes, no ha proporcionado información detallada sobre esa declaración (ni prueba judicial que lo demuestre).

Mark Jarvis, responsable de marketing en Dell, afirmo que “a pesar de la estrecha relación pasada con Microsoft, no habían recibido información alguna sobre la infracción de patentes” incluso con el apoyo de la compañía a servidores Linux extendido recientemente a ordenadores de sobremesa y portátiles.

A este respecto negó el rumor de la “llamada de Microsoft” cuando Dell anunció el portátil con Linux preinstalado.

Jarvis añadió que “no esperaban grandes ventas de sus PC,s Linux domésticos, pero sí en la gama de servidores reiterando su continuo crecimiento”.

No sorprende que Dell mime su gama de servidores. A pesar de los resultados totales discretos de los últimos tiempos, en el último trimestre este segmento sorprendió al mercado con un aumento de ventas del 20%

3.7 GB extras dentro de un mes: Gmail pisa el acelerador de su contador y ofrece más capacidad

El 1 de abril de 2005, el día que el servicio de correo Gmail cumplió 1 año, comenzó a incuir en su página inicial un contador ascendente de la capacidad de las cuentas gratuitas, que por aquel entonces superaba ligeramente los 1000 Mb. A partir de ayer, se anunció en este post oficial, este contador aumenta su ritmo y a esta hora se muestran 3029.27 MB, aunque la cifra que podemos observar en la parte inferior de nuestro 'Inbox' señala "2914 MB".

Hemos hecho un pequeño cálculo y, al ritmo que tiene este contador en este momento (ha aumentado 1.26 MB en poco más de 14 minutos), y extrapolándolo a un mes, podríamos esperar que dentro de 30 días habríamos obtenido 3.7 GB extras (6.7 GB en total). Naturalmente, cabe esperar que Google mantenga este ritmo durante los próximos días, y lo desacelere posteriormente.

Además de la capacidad de las cuentas gratuitas de Gmail, desde este pasado verano podemos comprar más espacio a un precio de 20 dólares al año (6 GB extras). En cuanto a 'Google Apps', si nos hacemos con una cuenta gratuita (necesitamos haber adquirido previamente un dominio propio) también disfrutaremos del aumento gratuito. La versión de pago de 'Google Apps', os contábamos hace unos días, pasará de tener cuentas de correo de 10 GB a 25 GB.

lunes, 8 de octubre de 2007

Personal: Certificaciones

Despues del MCSA hay vida, ahora toca el MCSE inmersos en la lectura de los libros 70-293 y 70-294.

¿Que mas certificaciones hay interesantes? Todas las referentes a Cisco, sobre todo el CCNA el mas fácil. Pero eso no mas que la punta de iceberg tenemos unas certificaciones muy interesantes que son CISA CISM que a medio plazo hay que mirarlas y coquetear con ellas.

Ya habia visto pero me recordaron los de Hispasec la Certificacion de EC-Council la de Ethical Hacker, que tambien puede estar interesante echarle un ojo, hay mas certificaciones interesantes ?

jueves, 4 de octubre de 2007

Ataques DoS contra VeriSign podrían paralizar a Internet

La compañía Verisign tiene la responsabilidad por la parte más crítica de la estructura de Internet, por lo que sus sistemas están constantemente siendo atacados.

Diario Ti: Verisign advierte que un ataque a gran escala de tipo negación de servicio (DoS) podría paralizar la infraestructura de la compañía y, con ello, paralizar a toda Internet. La compañía estadounidense tiene, entre otras cosas, la responsabilidad por todos los dominios .com, lo que implica que es responsable de una porción crítica de la infraestructura de Internet. En una entrevista con el director de seguridad Ken Silva, de Verisign, trasciende que la compañía está constantemente siendo atacada.
“Hemos registrado numerosos ataques en que se intenta dejar fuera de servicio a todos nuestros servidores. En caso de materializarse un ataque de tal envergadura, toda Internet quedaría paralizada", indica Silva.

El funcionario explica que su compañía está dedicada al desarrollo de nuevos métodos para bloquear los ataques, extendiendo además su ancho de banda de forma que sea difícil desbordarlo con paquetes de llamadas falsas. Con todo, la compañía indica que a largo plazo la única solución será mejorar la infraestructura de Internet contra ese tipo de ataques.

“Nuestros sistemas de vigilancia se asemejan a los usados en naves espaciales. Medimos el rendimiento de nuestras CPU y la asignación de memoria en todos nuestros servidores. De esta forma podemos predecir donde surgirán los problemas, en lugar de esperar a que ocurran" indica Silva a la publicación ZDNet.

En Gran Bretaña, las autoridades carcelarias del país debieron actualizar sus servidores después de numerosos ataques de negación de servicio. Tales ataques son frecuentemente puestos en escena por decenas de miles de computadoras infectadas, en lo que se conoce como redes zombis.

Estonia propone convención sobre la ciberguerra

Como resultado de los ataques masivos que sufrió en meses recientes, Estonia propone una convención de Naciones Unidas sobre la ciberguerra.

Diario Ti: La pasada primavera, Estonia fue objeto de ataques cibenéticos a gran escala, realizados mediante redes zombis. “Con recursos relativamente limitados, atacantes pueden paralizar países completos a distancia", declaró el presidente de Estonia, Toomas Hendik Ilves, al referirse al tema de la ciberguerra y el terrorismo TI.

En un discurso pronunciado ante la Asamblea General de Naciones Unidas, el presidente declaró que la amenaza que representan las ciber guerras son subestimadas y que un gran número de ataques son mantenidos en secreto por razones de seguridad.
El presidente Hendik Ilves propone que los países miembros de la ONU suscriban una convención sobre guerra TI, y que a la vez condenen los ataques cibernéticos de la misma forma que ocurre con el terrorismo.

Los ciber ataques son un ejemplo claro de las amenazas de seguridad actuales, no simétricas. Con recursos relativamente limitados, saboteadores pueden paralizar sociedades completas usando solamente una computadora. En manos de terroristas, estos ataques podrían ser mucho más peligrosos a futuro", indicó el jefe de estado en su discurso.

A juicio del presidente, las amenazas TI son subestimadas debido a que no han ocasionado pérdidas de vidas humanas. Considera que, sin embargo, solo es cuestión de tiempo ante que ello ocurra, debido a que gran parte de las funciones de la sociedad dependen totalmente del buen funcionamiento de los sistemas TI.

miércoles, 3 de octubre de 2007

Telefónica aumentará las líneas ADSL de 3 Mbps a 10 Mbps

Uno de los máximos responsables de la compañía ha anunciado la disponibilidad a corto plazo de sus líneas ADSL de 10 Mbps, que serán ofrecidas a los usuarios actuales de las líneas de 3 Mbps por cinco euros más al mes.

Es una oferta interesante, y se une a otra que quieren implantar próximamente y que ofrecerá líneas de fibra óptica con una capacidad de 30 Mbps, que estarán disponibles a principios de 2008 en las llamadas “zonas digitales”.

La cobertura del plan de migración de los 3 a los 10 ‘megas’ es del 50% según Antonio Viana-Baptista, el directivo de Telefónica que hizo el anuncio, y según sus palabras esa velocidad será real.

Lamentablemente, no harán nada para el canal de subida, que se mantendrá en unos ridículos 320 Kbps.

Hubo otros anuncios para los usuarios de Trio, ya que Imagenio incorporará la característica ‘Past TV’ que permitirá acceder a programas de hasta 7 años atrás y un novedoso sistema de pre-estrenos de películas.

Como señalan en adslzone, los 50 Mbps que preveía Telefónica - algo de lo que también hablamos hace tiempo - no estarán disponibles de momento, pero la intención del gigante de las telecomunicaciones es la de que el 25% de los clientes tengan 100 Mbps en 2009. Ja.

sábado, 29 de septiembre de 2007

NVIDIA Triple SLI en camino

La compañía prepara la introducción de una nueva tecnología multi GPU que permitirá funcionar con tres tarjetas gráficas a la vez en respuesta a la triple GPU de AMD con tecnología CrossFire.

Según la imagen capturada del sitio web Expreview, 3-way SLI será la nueva plataforma para jugones de la compañía. Está por determinar si el triple SLI se convertirá en la verdadera solución de alto rendimiento para juegos, o allanará el camino para la llegada del quad-SLI de la firma.

Las primeras tarjetas que funcionarían bajo este sistema serían inicialmente la 8800 GTX y la 8800 Ultra, aunque se prevé soporte para otras. Uno de los slots podría ser ocupado por una tarjeta de aceleración física, y el resto en SLI para gráficos como actualmente.

En cuanto a los chipset que soportarían nativamente este desarrollo serían los nuevos 780a y 780i, además del nForce 680i

Además para las PCI Express 2.0 llegará un “BR04” para potenciar la eficiencia de las operaciones multiGPU.

Microsoft potencia las ventas de Linux

Novell ha incrementado sus ventas en 243% como resultado del acuerdo suscrito con Microsoft.

Diario Ti: El ejecutivo Justin Steinman, de Novell, está seguro que la cooperación con Microsoft es la causa del fuerte incremento que han experimentado las ventas de software de la compañía.

Según Steinman, Novell puede agradecer a Microsoft el boom que ha experimentado su cartera Linux. “Hemos facturado más de 100 millones de dólares como resultado directo de nuestra cooperación con Microsoft".

Gran parte del incremento en las ventas debe atribuirse a que su distribución Linux es recomendada por Microsoft. El gigante informático, por su parte, no proporciona mayores detalles respecto de su cooperación con Novell, en especial respecto de los aspectos económicos de la cooperación.

“Prefiero no comentar si Microsoft ha recibido mayores ingresos que los que habríamos tenido sin la cooperación con Novell. Sin embargo, el acuerdo entre ambas compañías ha significado, en general, un gran avance" declaró Peter Rodriguez, director de licencias en Microsoft ,a IDG.

jueves, 27 de septiembre de 2007

Denegación de servicio a través de ptrace en Linux Kernel 2.6.x

De Hispasec:

Se ha encontrado una vulnerabilidad en el kernel de Linux que puede ser explotada por un atacante local para causar una denegación de servicio.

El problema reside en un error en ptrace cuando un proceso hijo es depurado paso a paso (single-stepping a debugged child process) que puede hacer que el registro "CS" apunte a "null". Esto puede ser explotado para causar una denegación de servicio en el kernel.

Existe la posibilidad actualizar el parche existente en el repositorio git:
http://git.kernel.org/?p=linux/kernel/git/torvalds/linux-2.6.git;a=commitdiff;h=29eb51101c02df517ca64ec472d7501127ad1da8

martes, 25 de septiembre de 2007

Condenan a Acer a devolver el dinero de Windows

El fabricante informático Acer deberá reembolsar el costo del sistema operativo Windows a un cliente que notificó que no deseaba usar el producto de Microsoft, por lo cual exigía que se le descontará del precio de la computadora que había acabado de adquirir.

La Asociación Francesa de Usuarios de Linux (ASUL, por sus siglas en francés) celebró la decisión del tribunal y manifestó que es "la primera vez que un juez trata con profundidad problemas de este tipo", ya que en el pasado sólo encontraron negativas cuando exigían una separación entre la venta de hardware y software.

En su opinión, los fabricantes informáticos se niegan a vender computadoras sin software preinstalado para evitar la disminución de los márgenes de ganancia, lo cual afecta además la difusión de otro tipo de software diferente a Windows.

Según el tribunal, que se pronunció a favor del demandante, la venta del hardware y el software deben ir por separado e inclusive facturadas en modo diferente, por lo cual Acer deberá reembolsar el precio del software que su cliente no desea usar.

Asimismo, deberá pagarle 500 euros de indemnización al cliente por haberse negado a pagarle el reembolso cuando lo había solicitado. En ese entonces, Acer le propuso un reintegro de únicamente 30 dólares sobre el valor de la computadora.

Firefox 3 consumirá menos memoria

Uno de las críticas más duras que se hacen del navegador Firefox - y con razón - es la de su gran consumo de memoria, algo que podría tener solución para la próxima versión en la que desde hace tiempo están trabajando los desarrolladores de la Mozilla Foundation.

Según el post de un blog dedicado a este navegador, toda la comunidad de programadores implicados en el próximo Firefox 3 están muy centrados en el objetivo de reducir los problemas con la gestión de memoria que afectan a Firefox actualmente.

Como todos los que utilizan este navegador sabrán, tener esta aplicación abierta hace que el consumo de memoria se incremente de forma realmente increíble, un defecto que perjudicaba a los usuarios con menos memoria a la hora de tener abiertas varias aplicaciones para aprovechar las ventajas de los sistemas operativos multitarea.

Sin embargo, esos problemas podrían solucionarse en Firefox 3, o al menos, podrían hacerlo en parte. Según el mencionado post, el consumo de memoria del navegador será menor, pero lo será especialmente después de estar utilizándolo durante varias horas.

Tú también puedes señalar más problemas usando algunos scripts disponibles en el enlace original - aun sin ser programador. El objetivo: tener un Firefox 3 lo más eficiente posible.

lunes, 24 de septiembre de 2007

Microsoft permitirá hacer "downgrades" de Vista a XP

Que los dos mayores ensambladores como son Dell y HP ofrezcan soluciones con Linux, y además tengan una gran aceptación parece que ha sentado regular en Redmond: En Microsoft parece que se han dado cuenta de que su Vista no gusta demasiado, y para que la gente no se vaya a la competencia -dígase Mac o Linux- mejor ofrecen Windows XP de nuevo.

Y para eso han puesto en marcha una campaña para permitir a los ensambladores dar la opción a sus clientes de hacer un "downgrade" de Vista hacia XP.

Desde Microsoft están procurando que esta campaña sea lo más silenciosa posible, lo que parece obvio, ya que si todo el mundo se entera de que pueden seguir manteniendo XP, el Vista lo tendrá muy difícil para imponerse -aún más-. La condición impuesta por Microsoft parece ser que en el equipo venga preinstalado Vista en su edición Business o Ultimate.

sábado, 22 de septiembre de 2007

la Red Asturcón, a examen

Por bandaancha.st

El día 16 de enero de este año, aparecía en portada de este weblog la noticia de que el Gobierno de Asturias está desplegando una red FTTH. Muchos la acogieron con cierto escepticismo y muchas dudas que, finalmente se despejaron a principios de este verano: lo que en principio parecía una utopía, llevar la más alta tecnología a zonas habitualmente olvidadas por los proveedores tradicionales de servicios de banda ancha, y además, con las más altas prestaciones, se había hecho realidad. El primer usuario del foro con este servicio nos dejó sus impresiones en este estupendo y minucioso artículo, "Fibra óptica hasta el hogar", tras el cual, varios usuarios plantearon una serie de cuestiones y dudas sobre la Red Asturcón, el GIT, el Gestor de Infraestructuras Públicas del Principado de Asturias y ADAMO, el primer usuario de esta Red.

Hemos traslado estás dudas a Enrique García, Gerente de Provisión de GIT, el cual ha tenido la amabilidad de contestar a todas nuestras preguntas en una entrevista que podéis leer a continuación. Seguramente, nos hemos dejado muchas cuestiones en el tintero, y esperamos que los usuarios de esta página plantéis aquí vuestras propias dudas e inquietudes.


Adamo va a ofrecer hasta 100 megas simétricos de conexión a Internet. Si bien es cierto que el protocolo que va a utilizar permite esas velocidades, nos gustaría saber qué velocidad máxima podrá alcanzar un usuario que haya establecido conexiones con distintos servidores extranjeros. Resumiendo, esta tecnología no dará problemas entre usuarios de Adamo, ¿Cómo será una conexión entre un usuario de esta red y uno que no esté en esa red?

La conexión que hay entre nuestra red e internet depende siempre del operador y sería a él a quien habría que preguntarle. Las pruebas que hemos hecho son bastante alentadoras. Como muestra, puedes ver la imagen que adjunto.

Esta imagen fue tomada mientras nos descargábamos una distribución Linux desde un torrent con muchos seeds y a la vez estábamos compartiendo un archivo bastante solicitado en estas redes y subiendo un ISO a un FTP de la universidad, de ahí que cuando se hizo el test la velocidad de bajada fuese más baja de la real y la de subida realmente se resintiese.

Durante el test otros 4 ordenadores estaban haciendo un uso similar de la red en distintas ONTS y la variación era mínima.

Por parte de Adamo ¿Hay previsto una expansión fuera del territorio de Asturias?

Como he comentado antes, todos los temas relacionados con un operador, son cuestiones del propio operador y ahí el GIT no tiene ningún tipo de visibilidad. Os recomiendo que cualquier tema relacionado con consultas a los operadores lo hagáis desde su página web correspondiente o poniéndoos en contacto con alguno de sus representantes

¿Se ofrecerá el mismo ancho de banda a cada cliente, independientemente de la cantidad que estén conectados?

Para el GIT, los clientes son los operadores y estos contratan tantos interfaces de 1Gb o de 10Gb como crean necesario para la correcta funcionalidad de los servicios contratados. La salida hacia internet depende de ellos, pero tenemos la constancia que todos ellos, tanto los que están conectados como los que se conectarán a nuestra red dará una salida a Internet adecuada para así no producir un cuello de botella.

¿Cómo nació y con qué objetivos la Red Asturcón?

La red Asturcón nació como necesidad de disminuir la gran brecha digital que sufrían muchas zonas del territorio asturiano.

Su objetivo fundamental es llevar a zonas en las que no hay apenas oferta de banda ancha, unos servicios de los que hasta ahora no disponían.

Hasta ahora muchos pueblos y ciudades del territorio asturiano, no disponían de servicio de banda ancha, o si lo tenían, estaba limitado por la propia naturaleza del mismo, por ejemplo, en el caso del ADSL la distancia a la central y el tipo de cableado de cobre que estas zonas tienen.

El GIT, con la red Asturcón pretende llegar a estas zonas en las que solo hay un operador y darles la posibilidad de elegir un nuevo servicio acorde con los tiempos en los que estamos, haciendo que zonas en las que a la iniciativa privada no le es rentable invertir y se estaban quedando atrás a nivel de telecomunicaciones, se conviertan casi en zonas punteras.

¿Qué ancho de banda tiene la Red Asturcón?

La red Asturcón es una red completamente construida sobre fibra óptica y la capacidad de ancho de banda viene dada por los interfaces que ofrecemos al operador, que como dije antes son interfaces de 1Gb y 10Gb.

Para evitar posibles problemas en la red y saturaciones, el GIT ha decidido que ningún operador pueda superar los 512 usuarios por interfaz en el caso de 1Gb y de 5120 usuarios en los interfaces de 10Gb garantizando así un mínimo de 2Mb por usuario. Lógicamente estamos hablando de valores máximos.

¿Cuántos operadores hay actualmente que usen la Red Asturcón?

Actualmente hay dos operadores interesados en la red Asturcón, uno de ellos es Adamo y el otro es la empresa asturiana de cable TeleCable.

¿Qué tipo de servicios se puede ofrecer? ¿Está previsto ampliar el número de estos servicios?

Ddentro de la red Asturcon se pueden ofrecer cualquier tipo de servicio que cualquier red actual ofrece. Los servicios ofertados dependen de los servicios que cada operador quiera dar, pero entre los servicios actuales son: TVIP, TV RF, Conexión a internet, POTS, VoIP. Más adelante y dependiendo del operador se puede dar VoD y televisión HD.

En principio esos serían los servicios actualmente soportados por la red aunque cualquier otro sería soportado sin ningún tipo de problemas por el equipamiento del que dispone la misma.

¿Cuándo estará completada la Red?

La red estará terminada cuando se llegue a todos los municipios que no tienen más oferta que la que da un solo operador, siempre en poblaciones que superen los 1.000 habitantes

En estos momentos el GIT llega a 11 poblaciones: Tineo, Cangas de Narcea, Tuilla, Blimea, El entrego, Sotrondio, Rioturbio, Pola de Lena, Santa Cruz de Mieres, Figaredo, Turón y Ujo.

A finales de Septiembre entrarán en servicio Pola de Laviana y Barredos y para final de año se tiene previsto que entren en servicio Villanueva, Caborana, Moreda, Oyanco, Cabañaquinta, Felechosa y Santa Eulalia de Morcín.

Por supuesto la Red aún le queda bastante para ser terminada, pero según se vaya ampliado, aparecerá reflejado en la web del GIT www.gitpa.es .

¿Qué inversión se ha hecho hasta el momento?

La inversión hecha para la red Asturcón fue y es una inversión muy grande ya que se ha creado una red de fibra óptica GPON desde 0. Realmente la inversión más importante ha sido la que hizo el Principado de Asturias al crear este proyecto novedoso en España y ponerlo a funcionar.

A nivel económico, la inversión realizada para toda la cobertura que se está realizando es de 20 millones de Euros.

¿Con que apoyos financieros, públicos y privados, ha contado para costear dicha inversión?

La red Asturcón está financiada totalmente con capital público. Ha sido financiada con los fondos Europeos concedidos al Principado de Asturias.

¿A quién se le adjudicó la extensión de la Red de banda ancha?

La explotación de la red se le adjudicó a la empresa GITPA, empresa creada para la Gestión de infraestructuras públicas del Principado de Asturias.

El GIT es una empresa pública participada al 100% por el Gobierno del Principado.

¿Qué distancia abarca la red hasta la actualidad?

Es un poco difícil de determinar la distancia que abarca la red en total ya que por ejemplo, la cabecera de la red está en Gijón y uno de los puntos más alejados está a unos 80 Kilómetros (Felechosa) así que más o menos se puede hacer uno una idea del tamaño de la red.

¿Cuántas poblaciones se benefician por el momento?

Como ya comenté en una de las preguntas anteriores, actualmente el GIT llega a 11 poblaciones: Tineo, Cangas de Narcea, Tuilla, Blimea, El entrego, Sotrondio, Rioturbio, Pola de Lena, Santa Cruz de Mieres, Figaredo, Turón y Ujo.

A finales de Septiembre entrarán en servicio Pola de Laviana y Barredos y para final de año se tiene previsto que entren en servicio Villanueva, Caborana, Moreda, Oyanco, Cabañaquinta, Felechosa y Santa Eulalia de Morcín.


¿Qué se espera para el futuro?

Por parte del GIT esperamos un crecimiento de la red para que llegue a todas las zonas que lo necesitan y esperamos también que nuevos operadores den servicio sobre nuestra red, ya que es una red pionera en España y puede ser muy beneficiosa, tanto a los operadores como a los usuarios de la misma.


Para finalizar, me gustaría decir a todos los usuarios dentro de las zonas de cobertura de la red Asturcón que tengan paciencia, puesto que ya que se está comenzando a dar dar altas, pero son muchos los usuarios que la ha solicitado. Poco a poco se están realizando. Sé que es muy apetecible estar en la red Asturcón, pero, como he dicho antes, hay que tener paciencia, al igual que los usuarios de zonas que se están empezando a cubrir. Sé que es difícil ver cómo empiezan a dar cobertura en tu zona y aún no poder disfrutarla..

También me gustaría recalcar que aún quedan muchas poblaciones sin cobertura, pero una red así tiene que ir haciéndose poco a poco y no se puede dar cobertura al 100% de las localidades directamente, hay que empezar por algún sitio y se han empezado por las anteriormente citadas, aunque, paso a paso, iremos cubriendo otras localidades en Asturias..