Un gen sintético para capturar el dióxido de carbono

February 14, 2010

Químicos de la UCLA reportan haber creado un gen sintético que puede capturar el dióxido de carbono, principal componente químico que constribuye al calentamiento global, aumento del nivel del mar y a la acidez de los oceanos. “Nosotros hemos creado cristales tridimensionales sintéticos similares al ADN”, dijo el químico y bioquímico, el profesor Omar M. Yaghi , quien es miembro del Instituto de nanosistemas de Califormia  (CNSI) en la UCLA y el Departamento de Genoma y Proteoma. “Nosotros hemos tomado unidades orgánicas e inorgánicas y las hemos combinados en un cristal sintético que codifica información del mismo modo que el ADN lo hace. Bajo ningún criterio este cristal tiene el mismo nivel de sofisticación del ADN pero de seguro es algo nuevo en la química y ciencia de los materiales.
Este descubrimiento puede llevarnos al uso de energía mas limpias, incluyendo tecnologías que pueden ser usadas en fabricas y automóviles para capturar el dióxido de carbono antes que escape a la atmósfera.
“Lo que nosotros pensamos es que esto es muy importante por la potencialidad viable de obtener un material ultraselectivo para la captura de dióxido de carbono” expresó Yaghi, quien mantiene la silla Irving y Jean Stone en ciencias físicas y es director del centro de química reticular. El científico expresó: ” Soy un optimista, considero que está en nuestro alcanze. Potencialmente, nosotros podemos crear un material que convierta dioxido de carbono en algún combustible, o alguna clase de material que pueda capturar el dioxido de carbono con mayor eficiencia”
Esta investigación fué financiada por el Departamento de Energía de los Estados Unidos. El autor fundamental de este proyecto es Hexiang “DJ” Deng, un estudiante doctoral en el laboratorio de el profesor Yaghi.
” El ADN es una magnifica molécula que tiene un modo extraordinario de codificar por información, el problema es codificar información en nuestro cristal del mismo modo que el ADN lo hace. La secuencia de funcionalidades orgánicas que muestran los poros del cristal es de modo seguro un código único.”
El profesor Omar M. Yaghi expresó ” DJ ha mostrado que un miembro de la serie de materiales que él ha sintetizado tiene una eficiencia de captura de dióxido de carbono 400 % superior que aquellos materiales que no tienen el mismo codigo”

Lea el artículo completo en inglés y en formato PDF desde mi blog

Science 12 February 2010:
Vol. 327. no. 5967, pp. 846 – 850
DOI: 10.1126/science.1181761

Multiple Functional Groups of Varying Ratios in Metal-Organic Frameworks
Hexiang Deng, Christian J. Doonan, Hiroyasu Furukawa, Ricardo B. Ferreira, John Towne, Carolyn B. Knobler, Bo Wang, Omar M. Yaghi*

We show that metal-organic frameworks (MOFs) can incorporate a large number of different functionalities on linking groups in a way that mixes the linker, rather than forming separate domains. We made complex MOFs from 1,4-benzenedicarboxylate (denoted by “A” in this work) and its derivatives -NH2, -Br, -(Cl)2, -NO2, -(CH3)2, -C4H4, -(OC3H5)2, and -(OC7H7)2 (denoted by “B” to “I,” respectively) to synthesize 18 multivariate (MTV) MOF-5 type structures that contain up to eight distinct functionalities in one phase. The backbone (zinc oxide and phenylene units) of these structures is ordered, but the distribution of functional groups is disordered. The complex arrangements of several functional groups within the pores can lead to properties that are not simply linear sums of those of the pure components. For example, a member of this series, MTV-MOF-5-EHI, exhibits up to 400% better selectivity for carbon dioxide over carbon monoxide compared with its best same-link counterparts.

E-mail: yaghi@chem.ucla.edu

Fuente: http://www.sciencedaily.com

APA University of California – Los Angeles (2010, February 12). Chemists create synthetic ‘gene-like’ crystals for carbon dioxide capture.

Espero proveer en la menor brevedad posible la publicación original, contenida en Science, por lo pronto veo que en el abstracto de la publicación no se menciona nada de gen sintético sino de estructuras y materiales. Algo que si hace mucho más sentido, esperemos por el artículo, este es un laboratorio altamente reconocido por su trabajo y seriedad a nivel mundial. Espero a más tardar esta semana tener el artículo y proveerlo en mi blog.


Directorio CGI-bin

December 17, 2009

No pude ser lo suficientemente explicito, traté de ser simple en mi posting referente a CGI, sabía desde el principio mismo que me enfrentaba a un grupo de lectores con bajo nivel de conocimiento informático pero si extremadamente inteligentes e inquisitivos, la clase de lectores que siempre retornan con otra pregunta.No, no, los scripts de CGI no corren como aplicaciones independientes en cualquier directorio como cualquier otra clase de aplicación. No se pueden  “poner” en cualquier directorio, no eso no es posible o al menos recomendable. Recuerden que estos scripts de CGI guardan una estrecha relación con el servidor web y otras aplicaciones.Es importante hacer notar que como CGI recursos  hay archivos tipo script y también archivos compilados.Supongamos que usamos un sistemas de bases de datos como Microsoft SQL Server y un servidor de web como Microsoft IIS. Supongamos nuevamente que tenemos un script que extrae información de la base de dato , crea “on the fly” una página dinámica de html con la data  y que el servidor de web la entregue a la aplicación cliente ( básicamente un navegador de internet tal como Firefox). Como expliqué anteriormente la duda que he recibido es muy simple y consiste en qué sitio debemos poner el script para que realize su función apropiadamente, bueno el script debe ser puesto en un subdirectorio  del servidor web llamado CGI-bin,  la parte bin del nombre de este directorio alude al  hecho de que los scripts o programas van a ser ejecutados o invocados en este directorio. Es muy importante entender que este directorio va a poseer permisos especiales otorgados por el administrador del servidor que permite que los programas se ejecuten y realizen su función. Manteniendo los programas en este directorio específico CGI-bin en vez de permitir que puedan estar en múltiples sitios mantiene la seguridad del servidor, en definitiva estamos hablando de programas ejecutandose y realizando múltiples funciones. Esto es asi, hasta donde conozco personalmente con mi limitada experiencia pero no descarto que estos programas puedan ser puesto en otros sitios, y hacer referencias a ellos desde un archivo en el subdirectorio CGI-bin, uso de wrapping,  o cualquier otra clase de ardid informático que yo ignore. Por ahora solo les puedo exponer que el enfoque “clásico” es poner los archivos ejecutables de CGI en el subdirectorio CGI-bin, quizás en algunos comentarios  aparezcan soluciones muchos más sofisticadas e ingeniosas, unos cuantos de mis lectores son verdaderos expertos en informática. Para mi, la informática es un medio para alcanzar un propósito, básicamente una herramienta más en mi arsenal,  no una meta en si. Pero se muy bien, que algunos de estos lectores pueden proveer explicaciones y alternativas muy ingeniosas , asi que sigan los comentarios, si hay alguno a este posting.


Una simple definición de CGI

December 15, 2009

Este posting es dedicado a los muchos que me han preguntado en sus correos que es CGI, se muy bien que muchos de mis lectores no son entendidos en conceptos de informática, creo que merecen alguna explicación básica, trataré de introducir del modo más simple el concepto, ya veremos si con esto basta. CGI es un importante componente tecnológico de la internet ,fundamentalmente de la experiencia asociada al World Wide Web que permite a una aplicación cliente (navegadores de internet tales como Firefox o IE) solicitar datos de un programa ejecutado en un servidor web (Web Sever tal como Apache o IIS). Un programa CGI, que generalmente adopta la forma de script, básicamente son programas que se ejecutan en el lado del web server y pueden proporcionar acceso a una serie de servicios y aplicaciones del lado del server. Entre estos servicios y aplicaciones podemos citar base de datos, utilidades de búsqueda, etc. Estos scripts son generalmentes escritos en lenguajes como como PERL y C++. En pocas palabras CGI consiste en programas que “corren” en el lado del web server y proveen al usuario con páginas dinámicas o sea el html es generado de manera dinámica como resultado de la ejecución de estos programas.En un script CGI, el servidor web pasa las solicitudes del cliente a un programa externo tal como una base de datos. El “output” de dicho programa genera una página html “on the fly” o sea de modo dinámico que es enviada al cliente en lugar de la página estática tradicional.
A continuación les presento un simple ejemplo de CGI script escrito en PERL que crea una página html, que nos muestra en el browser la expresión “Hola mundo”, el html de esta página ha sido creado de modo dinámico en el servidor.

#!/usr/local/bin/perl

print (“Content-type: text/html\n\n”);
print (“<HTML>”);
print (“<HEAD>”);
print (“<TITLE>”);
print (“Hola mundo”);
print (“</TITLE>”);
print (“</HEAD>”);
print (“<BODY>”);
print (“<H2>Hola mundo</H2>”);
print (“</BODY>”);
print (“</HTML>”);

 Fuentes usadas: La Enciclopedia libre Wikipedia


CGI scripts y el nuevo enfoque de mi blog

December 13, 2009

Originalmente mi blog tenia un propósito mucho más definido y limitado que en estos últimos meses:  la presentación de materiales bioinformáticos y biológicos computacionales pero con el paso del tiempo este propósito original ha sido alterado, no sé si para bien del blog o no. En sus primeras semanas de existencia  algunos amigos, de buena fe, calificaron mi blog de autoblog, en el sentido que solo yo sentiría interés en leerlo y de algún modo estaban en lo cierto.En definitiva quien quiere leer solo sobre biología computacional? Imaginen mi frustación. Este dilema originó una crisis en torno al contenido del blog, en definitiva uno hace un blog con la intención de que otros al menos lean tus postings y solo una opción viable vino a mi mente. Comenzé de modo deliberado a “salpicar” mi blog con algunos que otros temas variados y en mi opinión interesantes. Aparentemente esta “solución” trabajó, me he sentido feliz con los resultados en términos de tráfico e interacción pero lo lamentable es que el propósito original de mi blog de algún modo se ha perdido.  He comenzado a incluir postings de temas disímiles, en ocasiones que introducen conceptos variados y he asumido que son entendibles por una mayoría de mis lectores. Quizás lo mejor para mi blog consiste en esta solución de compromiso, incluir contenido variado no científico y también artículos científicos. Una consecuencia de esta nueva política en torno a contenido, es la inmensa cantidad de preguntas que estoy recibiendo vía correo electrónico, no me molesta para nada, me hace sentir que puedo ayudar. La inmensa mayoría las respondo con un reply, de modo privado, pero hay otras preguntas que creo que su respuestas ameritan un posting. Les diré que he respondido alrededor de 50 correos en torno al ADN mitocondrial , nuclear y de los cloroplastos, todos estos correos provenian de estudiantes angustiados y el hecho de poderlos ayudar en sus retos académicos me ha suministrado la mayor de las satisfacciones. Yo me ví en situaciones similares por culpa de profesores pomposos y pretenciosos ayudados por libros innecesariamente crípticos. Una estudiante entendió plenamente la esencia del método heurítico en mi blog, no lo había logrado pese a muchas lecturas académicas y el concurso de un inepto Profesor, inclusive lo nombró, me lo hizo saber y sentí que ese posting en particular había cumplido un propósito, me sentí bien, no pude evitarlo. El posting exponía conceptos simples de un modo aún más simple y soportado por ejemplos de la vida real. Yo también, en ocasiones, fui victimizado en la universidad y obtuve mi epifanía en la internet.

En un artículo anterior hice referencia a que el lenguaje de programación PERL es usado ampliamente para crear CGI scripts para aplicaciones web. Muchos de mis lectores proveniendo de diversos backgrounds quieren saber en palabras simples y planas que es un CGI script. Desde muy temprano he sabido lo difícil que es explicar términos técnicos de modo efectivo y en pocas palabras a personas que no poseen un bagaje técnico. Esta meta constituye un verdadero reto para mí, algunos de mis lectores se mueven en la interfase con la tecnología, ya veremos que puedo hacer. Trataré de presentar de modo simple, facil de entender y correcto en que consiste un CGI script. Estoy trabajando en esto desde la madrugada, por lo pronto les digo que CGI script es la clase de script que permite interactividad en las páginas web. Las páginas web regulares que sirven un servidor de web a un browser son de naturaleza estática, los scripts de CGI le añaden el elemento dinámico e interactivo al cual los usuarios de la internet estamos tan habituados. Por lo pronto solo es necesario entender que los servidores web pueden proveernos con 2 clase de páginas : estáticas y dinámicas-interactivas y que los CGI scripts pueden ser programados en otros lenguajes de programación, no solo en PERL. Este es un reto dificil para mi, para ser honesto nunca he escrito un CGI script en PERL ni en C++ , pero si he usado otras herramientas para crear aplicaciones webs. Pretendo que la explicación sea pequeña, genérica y transmita la idea de una forma no técnica y comprensible, solo quiero transmitir una idea general, también mostraré alguna que otra pieza de codigo que encontré en un libro. El posting sobre Bioperl si ha resultado un behemot , algo bien difícil de desarrollar y exponer, por lo pronto está casi terminado pero no me siento muy satisfecho con él.


CPAN modulos, PPM y PERL

December 10, 2009

Todos sabemos; los que un punto u otro hemos escrito un programa, desde el más trivial hasta el más complejo de ellos,desde los más experimentados programadores hasta los menos, que no hay punto en “reinventing the wheel” cuando podemos usar un código ya bien desarrollado por otros. Esta máxima aplica a cualquier lenguaje de programación y de alguna manera es un principio metodológico en el área de desarrollo de software. PERL no escapa a esta máxima, existen repositorios que contienen codigos muy bien probados y reusables tales como CPAN. CPAN no es más que el “Comprehensive Perl Archive Network”, básicamente constituye un repositorio de miles, casi 20000 modulos escritos en PERL y su documentación asociada. Puede ser accedido en http://www.cpan.org y en sus cientos de “server mirrors”. No importa lo que se esté haciendo en PERL siempre es una buena idea “to check” primero CPAN, quizás alguien ya escribió algún codigo que resuelva tu problema, quizás no y entonces a escribir. Pero no todo  es tan simple, hay una serie de limitantes con los modulos de CPAN, siendo la primera que estos modulos han de ser bajados, instalados, no siempre con los mejores resultados, en ocasiones la documentación deja mucho que desear  y otro problema es que la mayoria de estos modulos han sido desarrollados y compilados para la plataforma UNIX. Para Windows , se están desarrollando cada vez más modulos para integrar en programas de PERL, si está usando ActiveState, PPM es una herramienta específica en Windows para acceder, obtener e installar los modulos de CPAN. También para MacPerl hay modulos y herramientas para descargarlos e instalarlos, personalmente nunca los he usado o visto esta herramienta, pero se que existen. Siempre he usado ActiveState, para la plataforma windows, no puedo decir que mi experiencia en PERL es extraordinaria, ha sido limitada a tareas académicas pero mi experiencia con los modulos no la puedo describir como algo satisfactoria. Algunos de estos modulos tenían que ser compilados, otros simplemente no trabajaban, en otros la documentacion era críptica como un jeroglífico egipcio, pero algunos si trabajaron a la perfección y ese es un buen momento a recordar. En mi próximo posting introduciré Bioperl que no es más que un repositorio de modulos escritos en PERL, modulos de naturaleza bioinformática que han jugado un papel vital en el desarrollo de software bioinformáticos de toda clase. Básicamente Bioperl provee un grupo de clases bioinformáticas que constituye un magnífico “framework” para realizar biología computacional. En una nota menos técnica y algo más personal, aún recuerdo , cuando en “Graduate School”, se me fue asignado la tarea de introducir Bioperl a un grupo de experimentados programadores en PERL, conocía algo de Bioperl pero muchisimo menos de PERL, para ser exacto digamos que casi nada conocía, tuve que introducir los modulos de Bioperl casi sin ningun conocimiento de PERL, definitivamente un recuerdo nada grato. Dos libros, unos cuantos dias y la mejor intención para evitar un ridículo, no bastaron para prepararme para el seminario. A cambio sobreviví para contarlo. En el próximo posting introduciré detalladamente a Bioperl.


PERL en Bioinformática

December 8, 2009

Un amigo me ha preguntado la razón del uso predominante del lenguaje de programación PERL en el área de la bioinformática. El es fundamentalmente un biólogo dedicado a la preservación de la biodiversidad, pero está familiarizado a este punto con los bioinformáticos y el uso de sus herramientas. En definitiva hay tantos lenguages de programación poderosos y versátiles que él conoce de referencia, el hecho de que PERL es tan especial para la bioinformática, es básicamente su pregunta. Bueno, PERL es tan popular con los bioinformáticos porque es magnífico a la hora de resolver tareas bioinformáticas. Ya sé que esa es la respuesta mas trivial que se puede ofrecer por excelencia a esta pregunta, pero esto no será lo último que hablemos de PERL en este posting. Una de las cosas que hace PERL tan popular para abordar tareas biológicas está precisamente en su origen ecléctico , este lenguage proviene del lenguage de programación C y del Shell de Unix, este origen va a proveer justo la flexiblidad y las herramientas de programación necesarias para resolver problemas de contexto biológico. PERL es básicamente un lenguaje de programación tipo “scripting” que toma elementos de UNIX tales como sed, grep, awk, shell scripting y la dinámica y enfoque del lenguage de programación C. Por muchos años PERL nada tuvo que ver con biología, este lenguaje fué usado fundamentalmente por Administradores de Sistemas Unix para resolver tareas administrativas y posteriormente fue usado para crear CGI “scripts” en aplicaciones web. Solo mucho después PERL se convertiría en la mejor herramienta de programación que la Bioinformática podría contar en su arsenal. Que hace que sea PERL tan especial para la biología computacional? Podría citar algunas razones que hace PERL un magnifico lenguaje de programación. Entre ellas, PERL es portable, al ser un “script”, este “script” va a correr en cualquier plataforma sin cambio o con pequeños cambios. PERL es también flexible, o sea que hay diferentes modos de lograr un mismo propósito y eso ayuda a cualquier programador independientemente de su experiencia. Como lenguaje de programación PERL es relativamente fácil de aprender y eso es algo a apreciar por cualquiera. No creo que ninguna de las razones citadas anteriormente explican el uso predominante de PERL en al ambito biológico, hay solo una particularidad de PERL que solo explica su éxito y uso extendido en la bioinformática.  Esta particularidad es que Perl es un lenguaje orientado y diseñado a la manipulación y presentación de cadenas de caracteres, esta manipulación es simplificada por el importante número de operadores a disposición del usuario que básicamente provienen del Shell de UNIX. El ADN, ARN y demás moléculas biológicas también pueden ser reducidas a cadenas de caracteres en sus componentes fundamentales, caracteres comos A, C, G, T, U que equivalen a elementos constitutivos y  distintivos tales como bases nitrogenadas. Estas secuencias de caracteres que caracterizan a las moléculas les proporcionan su identidad y unicidad. Estamos en presencia de una combinación perfecta, un lenguaje de programación insuperable en la manipulación y presentación de cadenas de caracteres y un paradigma biológico molecular que puede ser reducido también en ultima instancia a simples cadenas de caracteres. Esta es la razón por la cual PERL predomina en el campo de la bioinformática.

Por ejemplo, este simple “script” , convierte una secuencia de ADN contenido en un archivo de entrada a una secuencia de ARN. Es evidente lo simple de este programa para abordar esta tarea relativamente trivial.

# Este script convierte la secuencia de ADN  a secuencia de ARN 

# Mientras ejecuta este script el pregunta por el nombre del archivo de la secuencia de ADN. Si el archivo de  la secuencia no esta disponible en el mismo directorio del script, entre el nombre del archivo conjuntamente con el path: /home/user/sequence/dnafile.txt

print “\n\n\t\#################### DNA 2 RNA #################### \n\n”;
print “Este script convierte tu secuencia de ADN en una secuencia de ARN\n\n”;
print “Entre el nombre del archivo de la secuencia de ADN:= “;
$dnafilename = <STDIN>;
chomp $dnafilename;
unless ( open(DNAFILE, $dnafilename) ) {
    print “No puede abrir archivo \”$dnafilename\”\n\n”;
    goto h;
}
@DNA = <DNAFILE>;
close DNAFILE;
$DNA = join( ”, @DNA);
print “La secuencia original de ADN :=\n\n”;
$DNA =~ s/\s//g;
print “$DNA\n\n”;
$RNA = $DNA;
$RNA =~ s/T/U/g;
$RNA =~ s/t/u/g;
print “Convertiendo de ADN a ARN :=\n\n”;
print “$RNA\n”;
<STDIN>;


Ubuntu 9.10 y sus problemas

November 14, 2009

bannerg11

ubuntu1

Dicen que segundas partes nunca han sido buenas. Esta máxima ha resultado ser no completamente real, al menos para mí en esta instancia particular que describo en torno a Ubuntu 9.10. Bueno anteriormente , en unos de mis postings expresé mi frustración y sorpresa ante todo los problemas que enfrenté con la nueva versión de Ubuntu, la  9.10. Describí las pantallas negras, los problemas con el shutdown,  el login impredecible y mostré un poll que de algún modo soportaba mi experiencia. Todo lo que describí fue absolutamente cierto y consistente con la experiencia de una comunidad. A varios amigos, les he contado , que yo me autodefino como el San Pablo del Linux, que lo odié primeramente a muerte, aún recuerdo mis primeras experiencias con Linux, instalaciones horrendas, los drivers ni hablar, softwares pocos fiables, en fin todo lo que no queria ver ni necesitaba en un sistema operativo. Eventualmente vine a apreciar y reconocer las virtudes y ventajas del Linux con el paso del tiempo. Soy de la clase de hombre que no disfruto resolver problemas, para mí la computacion no es un fin , sino un medio o instrumento para abordar propósitos superiores, aunque tengo un background apropiado por mi educación formal que me permite programar,  pero rechazaba y aún rechazo la noción de que un megabug aparezca en mi sistema operativo y yo tenga que dedicar tiempo e ingentes recursos para identificarlo y resolverlo, no es lo mio, no hay suficiente paciencia en mi para esto. Anteriormente me autodescribí como un San Pablo con relación al Linux, yo no iba camino a Damasco cuando una voz me derribó del caballo, de hecho nunca he montado un caballo, lo que me convenció fue la progresión de Linux hacia formas amigables sin hacer alguna clase de concesión en cuanto a lo distintivo y fundamental. Cuando me refiero a progreso, me refiero a un sistema operativo,que se vuelve facil de instalar, robusto, estable, aunque en cuanto a robustez y estabilidad siempre lo fué, de repente el Linux comenzó ser algo posible para mí, no constituía un reto ni riesgo alguno sino una opción más en mi arsenal. Todo lo que distinguía al Linux como algo superior se mantuvo o incrementó durante esta progresión, es algo raro no hacer concesiones para ganar público o espacio, Linux optó por asumir esa posición y triunfar. Normalmente en cualquier empresa humana usted se gana una audencia más grande haciendo concesiones que podían haber desnaturalizado al Linux, eso no ocurrió y distingue al Linux y me hace admirar a los protagonistas que optaron el camino difícil, mantener lo grande de Linux, y mejorar lo que lo hacia un sistemas operativo extremadamente engorroso de instalar y operar. Paralelamente gran parte del software para Bioinformática comenzó a compilarse para Linux , muchas de las aplicaciones  contenidas en portales de la internet, estaban disponibles para distros de Linux, de más está decir que ese fue mi momento de aceptar que el Linux era necesario y que era un sistema operativo válido y pujante.  Ubunto vino a poner final a mi conversión, un producto que se autodenomina para humanos, una versión de Linux para uno como yo, que quería todas las ventajas de un sistema como UNIX sin rompecabezas y horas de sufrimiento. La experiencia con este producto de más está decir que fue magnífica y de repente me vi en las huestes de Linux, comprando libros, participando en forums y  sosprendiendo más de un amigo en el proceso. Ya esta altura me convertí en especie de un apostol de los gentiles, no solo acepté Ubuntu plenamente como un sistema operativo superior, sino que comencé mi labor proselitista. Cuando instalé la versión 9.10 de Ubuntu, realmente no hice un “full installation” sino un “update”, creo que ese es el origen de los problemas que enfrenté, no hay disculpa que exima a Canonical de estos problemas, ni creo que se me pueda achacar alguna clase de torpeza particular de mi parte, en definitiva Canonical proveyó el mecanismo de “update” y en este proceso se crearon miles de problemas. Es mi opinión, es que si hacemos  “full installation” de Ubuntu 9.10  disminuimos dramáticamente las probabilidades de enfrentar problemas. Yo instalé Ubuntu 9.10 nuevamente en mi desktop, no hice el update sino la instalación completa y en estos momentos Ubuntu trabaja perfectamente para mí, no hay nada de lo que me puedo quejar, no motivo de tribulaciones y yo con toda fe, proclamo el evangelio que Ubuntu es humano nuevamente, al menos en mi experiencia , por virtud de una instalación completa. Entre mis amistades también los problemas desaparecieron cuando el “update” fue sustituidos por instalaciones completas del sistema operativo, estoy hablando de 4 desktop y una laptop y creo que esto implica una correlación débil pero sostenida entre el proceso de “update” y la aparición de problemas, la correlación inversa muestra que los problemas desparecen y esto es algo a tomar en cuenta. A este punto creo que la mayoría de los problemas provienen del proceso de “update” y que pueden ser corregidos con un “full installation”. No pretendo decir que instalaciones completas de Ubuntu 9.10 garantizen en estos momentos la ausencia de problemas, se que hay problemas en Ubuntu 9.10. No hay balas de platas por el momento. Es importante notar que muchos de los que se quejan de problemas con la nueva versión de Ubuntu, no han ni realmente instalado Ubuntu, han usado el instalador de WUBI, que no crea particiones, ni sistema de archivos, básicamente crea un archivo enorme en Windows, que provee en el Windows Boot Manager la opción de usar Ubuntu como sistema operativo. Creo que deben hacer el  “full installation”, olviden el procedimiento de “update” y WUBI , no creo que deban ser opciones por ahora  y enfrentarán menos problemas, aún así mantengo que Canonical en esta instancia no justificó nuestras expectativas pero también creo que una instalación completa minimiza la probabilidad de enfrentar problemas y que en los próximos meses muchos de estos serán corregidos.