Búscalo aquí:

Estándar ZigBee

ZigBee es un estándar de comunicaciones inalámbricas cuya aparición es de hace algunos años. ZigBee es un conjunto estandarizado de soluciones que pueden ser implementadas por cualquier fabricante; esta basado en el estándar IEEE 802.15.4 de redes inalámbricas de área personal y tiene como objetivo las aplicaciones que requieren comunicaciones seguras con baja tasa de envío de datos y maximización de la vida útil de sus baterías.

Muchos fabricantes tienen muchas expectativas en ZigBee debido a sus características de bajo costo y consumo que hacen pensar que se convertirá en el competidor más cercano de Bluetooth. Sin embargo este no es el objetivo de ZigBee, pues ha nacido con otros objetivos, principalmente para ser aplicado a sistemas de domótica, sin embargo, sus amplias capacidades le permiten múltiples aplicaciones, incluso en telefonía celular.

Desde aquí pueden descargar un breve informe descriptivo de éste estándar.

Encriptación de Imágenes RGB

Introducción
En la presente entrada se muestra una experiencia al adaptar un método de cifrado de clave pública, como es el RSA, para lograr el cifrado de una imagen buscando la mejor manera de que la imagen cifrada sea totalmente ilegible a la vista común. El proceso de descifrar así mismo debe garantizar la obtención de una imagen totalmente idéntica a la original.

En esta entrada se presenta la descripción de la adaptación del método RSA para el cifrado de imágenes, sin embargo, este tipo de cifrado ha sido evaluado con otros métodos de clave pública como el Goldwasser-Micali y Blum-Goldwasser, en todoas estas pruebas se obtuvieron diversos tiempos para el cifrado (los cuales eran muy similares para el descifrado),a demás los resultados de encriptación tomaron diversos matices con cada uno de los diferentes algoritmos.

Sin embargo, una característica común en todas las pruebas fue el alto coste de tiempo que se requiere para lograr el cifrado-descifrado de imágenes, pero tal costo es compensado con el casi 100% de ilegibilidad de las imágenes cifradas y con el 100% de recuperación de la imagen original al realizarse el descifrado. En este experimento se tomo como prevalencia estos factores, aunque aún hace falta fortalecer la seguridad en el aspecto del tratamiento de claves.



Criptosistema RSA
Este criptosistema fue inventado en 1977 por Ron Rivest, Adi Shamir y Leonard Adleman, se basa en criptografía de clave pública con las siguientes características

  • Cada usuario obtiene un par de claves, una pública y una privada.
  • La clave pública de cada persona será difundida de tal manera que puede ser difundida por cualquiera. Un usuario A que desee enviar un mensaje a un usuario B utilizará la clave pública de B para cifrar el mensaje que desea enviarle además de su propia clave privada (la de A)
  • La clave privada se mantiene en secreto por los propietarios de la misma. Con esta clave se podrán descifrar los mensajes que lleguen. Así, en el contexto del ejemplo anterior, B utilizaría la clave pública de A y su propia clave privada para descifrar el mensaje enviado por A.
  • De esta manera se pueda observar que únicamente las claves públicas serán difundidas y podrán ser conocidas por cualquiera. Las claves privadas no son transmitidas o compartidas.
  • La base de este criptosistema está en que no se puede obtener la clave privada del usuario receptor a partir de su clave pública.

Cifrado y Descifrado de Imágenes usando RSA
El objetivo que se busca con el cifrado de imágenes es obtener una imagen totalmente distinta a la original y de esta manera ocultar lo mejor posible la información contenida en ella. Sin embargo, al cifrar imágenes mediante el método de RSA se han presentado algunos inconvenientes, los cuales son:

  • Debido a que los tonos de intensidad de los píxeles de una imagen se encuentran entre 0 y 255, el espacio de trabajo n se ve enormemente reducido. Además se encuentra el hecho de que el posible mayor espacio de trabajo es 255 y éste número no es el resultado del producto de dos primos.
  • Por este mismo motivo, la clave pública e y la clave privada d también se verán reducidas.


La reducción del espacio de trabajo es un serio problema, puesto que de él dependerá la fortaleza que el criptosistema tiene para soportar posibles ataques. Sin embargo, como medida de solución se ha planteado la siguiente estrategia:

  • Se ha construido un método que se encarga de generar dos primos p y q diferentes, y que además, el producto de estos sea un número que abarque la mayor cantidad de tonos de intensidad de los píxeles. Esto con la intensión de maximizar en lo posible el ya reducido espacio de trabajo n. Después de realizar las pruebas pertinentes se ha notado que el método arrojaba en la totalidad de dichas pruebas valores de p y q únicos, estos valores son p=23 y q=11 , lo que nos indica que el verdadero espacio de trabajo esta en: n=pq, n=253 . Esto significa que solo los píxeles que se encuentren entre 0 y n-1 podrán ser cifrados, por tanto, la estrategia planteada resuelve el problema dejando de cifrar los píxeles 253, 254 y 255, que representan los tonos más blancos.


Una vez que se ha determinado el espacio de trabajo se procede a generar, a partir de los factores de ella, la clave pública y privada.

Es en este momento en el que se procede a cifrar la imagen. El esquema general que se ha desarrollado consiste en tomar cada matriz R, G, B que componen a la imagen original y haciendo un recorrido de filas por columnas, tomar cada píxel y cifrarlo mediante RSA, de esta manera, cada píxel cifrado es guardado en su posición original, en una nueva matriz R1, G1 y B1, respectivamente, las cuales son unidas para formar una nueva imagen cifrada.

Se debe tener en cuenta que sólo serán cifrados aquellos píxeles que están dentro del espacio de trabajo previamente definido, esto es, si están entre 0 y n-1, los píxeles que no pertenecen al espacio de trabajo pasan a ser copiados a la matriz resultante tal y como se encuentran en la matriz original. Para el descifrado ocurre lo mismo, solo se descifran los píxeles cuyo tono esta entre 0 y , los demás no se descifran pues no fueron cifrados.

Sin embargo, el hecho de no cifrar ciertos tonos de píxeles trae un gran problema el cual se presenta de manera extremadamente notoria en imágenes con fondo blanco o de tonos muy cercanos a ellos, es decir, si los tonos 253, 254 y 255, se encuentran en abundancia y de manera consecutiva. La imagen cifrada arrojaría como resultado una imagen en la que se puede distinguir claramente el contorno de la imagen, lo cual puede ser muy significativo si lo que se pretende es el ocultamiento total de la información contenida en dicha imagen. Este caso puede observarse en la figura 1.

Figura 1. Cifrado de una imágen RGB aplicando RSA. Izq. imagen original, Centro imagen cifrada, Der. imagen descifrada

Otro inconveniente notorio es el que ocurre cuando una imagen contiene gran cantidad de tonos similares o de la misma intensidad, ubicados de manera muy cercana y abundante; entonces al ser cifrados, el resultado dará una imagen con tonos diferentes a los originales pero que también serán similares entre ellos.

Entonces, para dar mayor consistencia al cifrado de las imágenes y corregir de cierta manera los dos inconvenientes antes descritos, se ha creado un método para la partición y distorsión de la imagen. Este método consiste en partir la imagen a cifrar en 4 divisiones de manera vertical y en 3 divisiones de manera horizontal, de esta manera se obtienen 12 sub-imágenes, las cuales luego son alternadas formando una nueva imagen. Esta imagen dividida y alternada pasa a ser cifrada, obteniéndose de esta manera una imagen que oculta mejor la información que contiene, superándose enormemente los inconvenientes identificados. Como un trabajo futuro se puede generalizar éste método y lograr que la imagen sea subdivida en p sub-imágenes. Ver figura 2.

Para el proceso de descifrado, se procede primero a descifrar la imagen cifrada, luego el resultado de este proceso es una imagen que vuelve a ser dividida siguiendo el mismo método descrito anteriormente para finalmente volver cada división a su posición original.

Figura 2. Cifrado de una imágen RGB aplicando subdivisión y alternación de la imagen para luego cifrar mediante RSA. Izq. imagen original, Centro imagen cifrada, Der. imagen descifrada


Conclusiones
El esquema de clave pública RSA ofrece un amplio espacio de claves, además de un tiempo prudente en cifrar/desifrar imágenes RGB, pero además su capacidad de encriptar la imagen puede mejorarse con otros métodos para la redistribución de subáreas de píxeles con fines de mejorar la capacidad de encriptación de las imágenes. Así mismo el proceso de desencriptar la imágen encriptada logra obtener una imágen 100% idéntica a la original, es decir, no se produce pérdida de información.

Sin embargo, debido a la reducción del espacio de trabajo (por adaptación al problema de ifrar/desciffrar imágenes) también se reduce considerblemente el espacio de claves, de manera tal que bastaría con un simple ataque de fuerza bruta para romper rápidamente el sistema y obtener la clave. En este aspecto se esta trabajando la mejor manera para solucionar este problema.

En la figura 3 se muestra la interface de la aplicación implementada en la que se observa el cifrado de una fotografía de Machupicchu.

Figura 3. Interfaz de la aplicación que implementa el algoritmo RSA para el cifrado/descifrado de imágenes RGB. Se observa el cifrado de una imágen de 801 x 600 píxeles y en el descifrado, la imágen idéntica a la original.

Richard Stallman dará conferencia magistral en Trujillo

Esta es una noticia formidable, por primera vez en la ciudad de Trujillo, el líder mundial del movimiento del software libre, Richard Stallman presentará conferencia magistral.

Richard Stallman hablará sobre las metas y la filosofía del movimiento del Software Libre, y el estado y la historia del sistema operativo GNU, el cual conjuntamente con el núcleo Linux ahora es utilizado por decenas de millones de usuarios en todo el mundo. (fuente: Free Software Foundation). Además se promoverá el uso y desarrollo del Software Libre para el desarrollo tecnológico, además de la Ciencia de la Computación como eje de desarrollo de nuevas tecnologías en la región La Libertad.

La primera conferencia se llevará a cabo el día 17 de Agosto del presente, esta conferencia se realizará en el Teatrin Copernico de la Universidad Nacional de Trujillo a horas 4:00pm y será de ingreso libre, además para quienes así lo deseen, podrán adquirir un certificado de asistente al costo de S/.10.00 soles.

Además, la Universidad Nacional de Trujillo como institución sede y promotora de la conferencia hará del líder del Software Libre, su “Huésped Distinguido” por su valioso aporte en el ámbito científico y tecnológico, con el desarrollo del Proyecto GNU.

La visita de Richard Stallman a Trujillo y sus actividades en la ciudad, viene siendo organizada por el Grupo de Lideres para la Sociedad “Vanguardia Informática” conformado por estudiantes de la Escuela de Informática de la UNT, y jóvenes miembros de la Sociedad Universitaria San Agustín que promueven la ética profesional y la practica de valores.


Para mayor información puede visitar el sitio web: http://stallman.informatizate.net
Contacto: Edward Vega Gavidia
Celular: 9402111
E-mail: stallman@informatizate.net Esta dirección de e-mail está protegida contra spam bots, necesita Javascript activado para verla
Comité de Prensa y Difusión
Av. Larco 100 (Instituto SALI)
Trujillo – Perú

Fuente: NoticiasTrujillo

Graficación de Objetos 3D

I. Introducción
  • Los orígenes de los fundamentos de las imágenes en tres dimensiones se remontan al renacimiento, época en la que los artistas aprendieron cómo engañar al ojo logrando una sensación de profundidad al contemplar una superficie plana bidimensional.
  • Con el correr de los años este trabajo a sido mejorado, hasta nuestros días, en lo que las películas mezclan el arte tridimensional y la animación con la fotografía y la cinematografía tradicionales haciendo que se desplieguen grandes esfuerzos para lograr un mejor fotorrealismo.
  • El fotorrealismo se refiere a imágenes generadas por ordenador que modelan las propiedades ópticas y físicas del mundo real de forma tan acertada que, al contemplarlas, dan la impresión de ser fotografías tomadas de escenas del mundo real.
  • Los programas de creación de imágenes en 3D codifican en una serie de algoritmos las leyes de la perspectiva y las complejas interrelaciones entre las superficies y la iluminación de las mismas.

Nueva versión de Slackware Linux remueve reproductor XMMS

La nueva versión de Slackware es la 12 y ya llegó!!!, más estable que nunca!!!. Slackware es la distribución GNU/Linux más antigua de todas y que se ha ganado el respeto por ser una distro mur seria, capaz de funcionar perfectamente en servidores o PC's de escritorio.

Las novedades de la versión 12 son: soporta la rama 2.6 del kernel Linux exclusivamente, trae de serie un 2.6.21.5 afinado para lograr la mayor performance posible, la librería GNU C esta en la versión 2.5, Xorg en 7.2.0, Apache 2.2.4, soporta Dynamic Shared Object, SSL, y PHP 5.2.3, se incorporó el sistema de gestión dinámico de dispositivos undev, entre otras cosas.

Sin embargo, otra de las novedades que trae esta nueva distro es que se ha removido al reproductor XMMS. XMMS son las siglas de X Multi-Media System: es un reproductor multimedia que se parece mucho al Winamp que corre en Windows, de hecho su interfaz es casi idéntica, esto debido a que se penso en que los usuarios del sistema operativo de Microsoft no sufrieran demasiado en la migración a GNU/Linux.

XMMS 1.x es un buen software de libre distribución que sirve para reproducir varios tipos de archivos multimedia: sonido en formatos mp3, ogg vorbis, mod, y MIDI entre unos cuantos, y también reproduce video, al menos en formato mpeg; además tiene capacidades para incorporar extensiones (plugins) que lo hacen muy poderoso, sin embargo parece que se ha quedado un poco atrazado.

La distribución Gentoo ya habría removido este software hace un tiempo atrás, ahora lo hace Slackware. Pero todos se preguntarán ¿Por qué?. Porque XMMS 1.x está basado en GTK 1, que es una librería un tanto anticuada para los usos actuales de la informática, por lo cual el usuario se ve ante ciertas incomodidades a la hora de manejar los programas basados en GTK 1, y además no son tan lindos como los GTK 2.

La última noticia en que en el sitio de X Multimedia System nos deja este mensaje:

"xap/xmms-1.2.10-i486-3.tgz: XMMS developers: MUCHAS GRACIAS por sus años de dedicación. Esperamos (que) consideren un nuevo diseño basado en GTK+2 en algún momento futuro (Paquete removido)".

La respuesta de los desarrolladores de XMMS no es menos cordial:

"No, gracias a USTEDES por mantener una limpia y ordenada versión de XMMS sin un montón de parches ridículos. ... Es poco probable que nuestros caminos se crucen nuevamente, pero disfrutamos la ausencia de incidentes de soporte que Slackware nos dió".

De todas maneras no se desesperen: el equipo desarrollador de XMMS está desarrollando la versión 2, y acepta sugerencias de los usuarios aquí.

Por último si necesitaís un programa como XMMS y no puedes esperar a la nueva distribución, pues tranquilo, existen varios reproductores multimedia libres, entre los cuales debemos destacar VLC y Amarok, siendo ambos excelentes demostraciones de inteligencia humana y belleza, todos ellos se encuentran en distribuciones como Debian o Ututo, por nombrar sólo dos.

Más información la pueden encontrar aquí.

Sistema Experto para el Diagnóstico Fitosanitario de Espárragos

1. Introducción
Actualmente el cultivo de espárrago ha convertido al Perú en el segundo país productor a nivel mundial de este vegetal. Con una producción que a partir del 2001 llegó a superar las 180,000 toneladas. Eso ha provocado evidentemente un incremento en las exigencias de los niveles de calidad en las principales empresas agricultoras y productores del espárrago. El espárrago es una hortaliza que requiere de un primordial cuidado, con la necesidad de tener zonas climáticas de 20 a 22 grados celsius de temperatura y suelo dotado de salinos. Por ello y muchos otros requerimientos necesarios para su cultivo, el Perú tiene el lugar y suelo idóneo. Actualmente la región La región Libertad es una de las principales zonas de producción, específicamente en Chao-Virú y Paiján.
El gran despliegue que las redes de comunicación como la Internet tienen en el mundo de hoy, permiten una gran disponibilidad de información apropiada para tomar decisiones. Sin embargo, en el campo de la agricultura existe una seria limitación que impide que agricultores o investigadores puedan acceder información apropiada ya que en la mayoría de casos ésta se encuentra dispersa y poco sistematizada. Por todo ello las empresas específicamente en esta región - La Libertad - están fomentando la capacitación especialmente de los agricultores, personas que trabajan de manera directa y a la cuales, las empresas como Campo Sol y otras, desean instruir para la toma de decisiones ante eventos impredecibles.

La Computación Multinúcleo

Las supercomputadoras, potentísimas máquinas que sólo estabán a disposición de unos pocos y privilegiados centros de investigación, ahora gozán de un rendimiento aún mayor, aprovechando más y más la computación multinúcleo.

El mismo concepto de computación en la actualidad se encuentra dotando de capacidades asombrosas a los ordenadores domésticos (por ejm, los procesadores Quad Core de Intel con 4 nucleos ). La promesa de tener un poder computacional casi inimaginable en la comodidad del hogar parecía remota hasta hace algunos años, años en los que incluso se pensaba que los diseñadores de hardware habían prometido demasiado.

Los ordenadores de computación multinúcleo tienen más de una unidad de procesamiento o CPU, y cada CPU en esencia es un PC individual. En los próximos años, los nuevos ordenadores de alto rendimiento tendrán docenas o centenares de PCs en un chip, ofreciendo inmensas mejoras en su rendimiento comparados con las máquinas actuales más rápidas.

Si queremos que los ordenadores sigan incrementando su rendimiento como lo han hecho durante las décadas anteriores, se necesita de ordenadores de computación multinúcleo. Este incremento en el rendimiento es necesario para una amplia variedad de tareas de alta tecnología, como los estudios con modelos informáticos del clima, el diseño de armamento militar, o el descubrimiento de medicamentos y sus mejoras en la fabricación, por mencionar algunas de las más dispares de esas labores. Pero los ordenadores multinúcleo requieren de programas de computación en paralelo porque cada PC, o núcleo, debe obtener su propio juego de instrucciones. Actualmente, la mayor parte del software disponible no está escrito para aprovechar la computación multinúcleo.

Pese a todas las cosas asombrosas que realizan los ordenadores, sólo hacen una cosa cada vez. Las instrucciones se entregan en un solo archivo, como un paquete entregado a través de una única puerta. El procesamiento en paralelo abre más puertas, pero también crea desafíos debido a los múltiples paquetes o conjuntos de instrucciones requeridos. "Imagínese que usted tiene cuatro pelotas de golf y necesita acertar en cuatro blancos. Si dispusiera de cuatro personas y cada una lanzase una pelota al mismo tiempo, podrían hacerlo más rápido que una sola persona", explica Faisal Saied, investigador en Tecnologías de la Información, de la Universidad Purdue, quien estudia este problema. "Esa es la ventaja de la computación multinúcleo. Múltiples PCs, todos en el mismo chip, y cada PC trabajando en uno de múltiples aspectos de una tarea. La dificultad está en dividir la tarea en esos múltiples componentes".

El ingeniero Steve Kirsch, de la empresa Raytheon Systems, cree que la computación multinúcleo nos presenta tanto el sueño de la capacidad de cómputo infinita como la pesadilla de programarla. "La verdadera lección aquí es que las industrias del hardware y del software tienen que prestarse atención mutua", sentencia Kirsch. "Sus futuros están entrelazados de un modo tan estrecho como no lo han estado en mucho tiempo, y eso cambiará el modo en que ambos sectores industriales tendrán que actuar. Los fabricantes de chips Intel, IBM, AMD y Sun ya han comenzado a producir chips multinúcleo.

A pesar del magnífico potencial de la computación multinúcleo, ésta representa un problema para compañías e investigadores que dependen de software escrito previamente y que ha sido depurado y mejorado concienzudamente en una evolución de años o incluso varias décadas. Continuar aprovechando esta herencia de software, puede, por tanto, llegar a ser imposible. E incluso, la programación en paralelo para ordenadores multinúcleo puede llegar a requerir nuevos lenguajes de programación.

Algunos procuran prepararse con antelación para ese gran desafío, y así un grupo de investigadores de la Universidad Purdue, trabajando estrechamente con expertos de la industria, está desarrollando nuevos modelos de programación y herramientas que simplifiquen la tarea de escribir programas para una plataforma de este tipo.

Más información puedes obtenerla aquí.

Detección de Bordes: Algoritmo de Canny

En el área de procesamiento de imágenes, la detección de los bordes de una imagen es de suma importancia y utilidad, pues facilita muchas tareas, entre ellas, el reconocimiento de objetos, la segmentación de regiones, entre otras.

Es así como se han desarrollado gran variedad de algoritmos que ayudan a solucionar este inconveniente. El algoritmo de Canny es usado para detectar todos los bordes existentes en una imagen. Este algoritmo esta considerado como uno de los mejores métodos de detección de contoJustificar a ambos ladosrnos mediante el empleo de máscaras de convolución y basado en la primera derivada. Los puntos de contorno son como zonas de píxels en las que existe un cambio brusco de nivel de gris.

En el tratamiento de imágenes, se trabaja con píxels, y en un ambiente discreto, es así que en el algoritmo de Canny se utiliza máscaras, las cuales representan aproximaciones en diferencias finitas.

Para conocer más acerca de este algoritmo haga click :aquí




Lanzamiento del Primero Ordenador Cuántico Comercial

La pequeña empresa canadiense D-Wave Systems ha construido el primer prototipo de ordenador cuántico con posibilidades comerciales, según informa en un comunicado.

Geordie Rose, cofundador de la empresa, asegura que la técnica utilizada supone un enorme adelanto en el campo de los ordenadores cuánticos, si bien reconoce que se trata todavía de un complemento de los ordenadores actuales y no una alternativa.

Lo que ha anunciado D-Wave es la construcción de un prototipo de 16 qubit hecho artesanalmente a partir del elemento químico niobio, cuya principal característica es, precisamente, su superconductividad. “Lo que realmente hemos hecho es una prueba a escala de un concepto”,asegura Geordie Rose, cofundador de D-Wave, en un artículo aparecido en la revista Scientific American. Además según algunas publicaciones de Ben Ames, de IDG, habría sido la NASA, concretamente científicos del Jet Propulsion Laboratory (JPL), los que fabricaron los microchips cuánticos de la PC de D-Wave Systems, en pocas palabras, sería la NASA quien verdaderamente esta detrás del computador cuántico.

Para más información pueden entrar aquí .

La Nanotecnología: el comienzo de una nueva era


La nanotecnología es una de las nuevas disciplinas en investigación médica. Máquinas del tamaño de moléculas, Cristales que no se ensucian, ordenadores del tamaño de un grano se arena o pinturas que repelen los "graffiti" son otros ejemplos de lo que nos promete esta nueva rama de la ingeniería y de la ciencia de la que algunos autores vaticinan como una revolución tecnológica de la importancia de la industrial del siglo XIX. Pero, ¿qué es realmente nanotecnología?. La nanotecnología es mucho más que una simple miniaturización, se trata de controlar la materia a escala molecular y atómica con todas las posibles aplicaciones que ello conlleva.

La primera vez que se planteó esta idea fue realizada por el premio Nóbel Richard P. Feynman, quien afirmó que no hay impedimento de las leyes de la física para trabajar a escala atómica. Feynman abrió sin duda un horizonte nuevo en la ciencia y la tecnología. Desde entonces, se lograron numerosos hitos en la miniaturización, no sólo de la electrónica, sino otros como aquel desafío lanzado por el propio Feynman de escribir la enciclopedia británica en una superficie del tamaño de una cabeza de alfiler y que fue realizado dos décadas después.

A pesar de que las afirmaciones de Feynman no cayeron en el olvido, tuvieron que transcurrir veinte años hasta la aparición del microscopio de barrido por efecto túnel, con el que se pudo visualizar por primera vez un átomo. El paso siguiente sería poder manipularlos para crear estructuras determinadas. Esto ocurrió en 1.990, cuando científicos de IBM representaron el logo de su compañía creado con 35 átomos de xenón. Se había alcanzado la frontera del átomo. Vistas las enormes posibilidades, gobiernos, instituciones oficiales y privadas se pusieron en marcha destinando fondos y medios en la investigación de técnicas y nuevos avances. En EE.UU., se promovió la llamada Iniciativa Nacional de Nanotecnología, Invirtiendo inicialmente 460 millones de dólares.

Vistas las enormes posibilidades, gobiernos, instituciones oficiales y privadas se pusieron en marcha destinando fondos y medios en la investigación de técnicas y nuevos avances. En EE.UU., se promovió la llamada Iniciativa Nacional de Nanotecnología, Invirtiendo inicialmente 460 millones de dólares. Uno de los mayores defensores del desarrollo de nanorrobots es Eric K. Drexler, quien en su célebre "engines of creation" propone la fabricación molecular de máquinas capaces de autorreplicarse. Para ello plantea el concepto de un "ensamblador", capaz de colocar los átomos en el lugar adecuado fabricando así estructuras moleculares precisas. Sin embargo las entusiastas tesis de Drexler son vistas con escepticismo entre miembros de la comunidad científica, tales como el premio Nóbel de Química Richard E. Smalley, descubridor de los "fullerinos".

En la medicina y biología son tantas las posibilidades que se habla de la nanomedicina como una disciplina propiamente dicha. Y es que además del caso que hemos citado, las aplicaciones que se prevén son fascinantes: Una de ellas es la utilización de nanopartículas que apliquen los fármacos, como los de la quimioterapia, en las zonas enfermas del cuerpo, evitando de esta manera efectos secundarios. Científicos ya hablan también de sistemas con que liberan insulina en el torrente sanguíneo. Esta misma técnica podrá utilizarse para la liberación de dopamina en el cerebro con el fin de curar enfermedades como el Parkinson o el Alzheimer. Hasta se afirma que en el futuro será posible reproducir órganos humanos in Vitro o recuperar la visión mediante sistemas que regeneren el nervio óptico o con un "ojo artificial".

Dado que electrónica e informática son las disciplinas en las que la miniaturización está mas avanzada, no podrían ser menos en esta extensa relación de aplicaciones. Los trabajos van encaminados en técnicas de miniaturización "Top-Down", pasando por logros como la obtención de una molécula que trabaja como un transistor. Pero quizá el avance futuro más apasionante está en lo que también vaticinó el genial Feynman. Éste propuso los fundamentos de sistemas que pudiendo controlar el spin electrónico determinar estados de cero y uno. A este concepto ya se le ha bautizado con el nombre de "bit cuántico" o qubit.

Aparte de lo maravilloso de la idea, al poder construir ordenadores muy pequeños está el hecho de que por los principios de la física cuántica los estados físicos manejados en los qubits no tienen que ser cero o uno, sino los dos a la vez, es posible realizar trabajos en paralelo, procesando el doble de información a la vez. Gracias a esto la capacidad de cálculo de estos hipotéticos sistemas sería enorme. El principal problema consiste en la imposibilidad de interactuar con sistemas cuánticos sin que la información contenida en los qubits fuera alterada.

Actualmente existen cerca de tres mil productos generados con nanotecnología, la mayoría para usos industriales. Igualmente, las investigaciones son lideradas por la medicina y la biología. La unión Europea, dentro del mayor programa de financiación de investigación y desarrollo tecnológico de su la historia, el Séptimo Programa Marco (7PM)) ha destinado 3.500 millones de euros en investigaciones sobre nanotecnología.

El entretenimiento en dispositivos Móviles

Dentro del mundo de los negocios basados en tecnologías móviles uno de los campos que más expectativas está generando, y que según los analistas crecerá exponencialmente en los próximos años, es el entretenimiento a través del móvil. Según un estudio realizado sobre el mercado mundial de los videojuegos, se encontró que en el año 2001 dicho mercado movió alrededor de 28 billones de dólares, de los cuales únicamente 0,0007 billones fueron generados directamente por el mercado de los videojuegos para terminales móviles. Sin embargo en el año 2006 se espera que el mercado de los videojuegos mueva 30 billones de dólares de los cuales 3,6 billones serán generados a través del negocio de los videojuegos en los terminales móviles. Otro estudio de mercado refleja que de 7 millones de usuarios de los juegos móviles en 2002 se pasará a 71,2 millones de usuarios en el 2007.

Hoy en día existen varias tecnologías que nos permiten desarrollar aplicaciones que se ejecuten en terminales, entre estas aplicaciones podemos incluir los juegos y por lo tanto crear juegos propiamente dichos, que aprovechen todas las capacidades del terminal. Estas aplicaciones se ejecutan dentro del mismo terminal y se instalan en él mismo a través de una conexión directa o a través de un proceso de descarga. Para realizar las aplicaciones tenemos varías tecnologías disponibles, entre las que destacan: Symbian, SmartPhone, J2ME, BREW, entre otras.

Los sistemas Symbian y los SmartPhone, tienen la característica de que las aplicaciones se desarrollan como aplicaciones nativas del sistema por lo que tiene la capacidad de aprovechar totalmente todos los elementos del terminal y por lo tanto, se pueden realizar aplicaciones más completas. Otra tecnología disponible para el desarrollo de aplicaciones y que actualmente es una de las más extendidas en el mercado es J2ME (Java 2 Micro Edition), la cual nos brinda una gran ventaja, su portabilidad, es decir, cuando creamos un midlet (aplicación de J2ME desarrollada para entornos móviles), este puede instalarse y ejecutarse en terminales diferentes, de diferentes marcas, diferentes capacidades y con diferentes prestaciones, sin que se aminore el grado de eficiencia de la aplicación. Sin embargo, a pesar de las facilidades que nos brindan las tecnologías para el desarrollo de aplicaciones, se tiene que tener en cuenta también las características del terminal o terminales finales en los que se ejecutaron las aplicaciones.

Actualmente se están comenzando a desarrollar e implantar con éxito en el mercado juegos móviles con un uso amplio de conexiones de red. Dentro de este marco tenemos juegos que interactúan con servidores para intercambio de información como es la comunicación de puntuaciones desde el terminal al servidor, de tal forma que se puedan hacer competiciones y concursos, para descargar desde el servidor nuevas fases, pantallas y demás elementos, logrando la actualización del juego en todo momento.

Related Posts Plugin for WordPress, Blogger...