domingo, 24 de marzo de 2013

La Robotica.


La roboótica:
    La robótica es la rama de la tecnología que se dedica al diseño, construcción, operación, disposición estructural, manufactura y aplicación de los robots La robótica combina diversas disciplinas como son: la mecánica, la electrónica, la informática, la inteligencia artificial, la ingeniería de control y la física. Otras áreas importantes en robótica son elálgebra, los autómatas programables y las máquinas de estados.

El término robot se popularizó con el éxito de la obra RUR (Robots Universales Rossum), escrita por Karel Capek en 1920. En la traducción al inglés de dicha obra, la palabra checa robota, que significa trabajos forzados, fue traducida al inglés como robot.


Historia de la Robótica :


     La historia de la robótica va unida a la construcción de "artefactos", que trataban de materializar el deseo humano de crear seres a su semejanza y que lo descargasen del trabajo. El ingeniero español Leonardo Torres Quevedo (GAP) (que construyó el primer mando a distancia para su automóvil mediante telegrafía sin hilo,] el ajedrecista automático, el primer transbordador aéreo y otros muchos ingenios) acuñó el término "automática" en relación con la teoría de la automatización de tareas tradicionalmente asociadas.
Karel Čapek, un escritor checo, acuñó en 1921 el término "Robot" en su obra dramática Rossum's Universal Robots / R.U.R., a partir de la palabra checa robota, que significa servidumbre o trabajo forzado. El término robótica es acuñado por Isaac Asimov, definiendo a la ciencia que estudia a los robots. Asimov creó también las Tres Leyes de la Robótica. En la ciencia ficción el hombre ha imaginado a los robots visitando nuevos mundos, haciéndose con el poder, o simplemente aliviando de las labores caseras.

Tres leyes de la Robótica.
    En ciencia ficción las tres leyes de la robótica son un conjunto de normas escritas por Isaac Asimov, que la mayoría de los robots de sus novelas y cuentos están diseñados para cumplir. En ese universo, las leyes son "formulaciones matemáticas impresas en los senderos positrónicos del cerebro" de los robots (líneas de código del programa de funcionamiento del robot guardadas en la ROM del mismo). Aparecidas por primera vez en el relato Runaround (1942), establecen lo siguiente:
  1. Un robot no puede hacer daño a un ser humano o, por inacción, permitir que un ser humano sufra daño.
  2. Un robot debe obedecer las órdenes dadas por los seres humanos, excepto si estas órdenes entrasen en conflicto con la Primera Ley.
  3. Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la Primera o la Segunda Ley.
http://jjazdanethe16.blogspot.es/img/1.jpg

Concepto de la robótica:

     La robótica es la ciencia de ingeniería y la tecnología de los robots (entendiendo al robot como una máquina capaz de realizar tareas de manera autónoma o semi autónoma), relacionada con la electrónica, la mecánica y el software. Es una ciencia cada vez más popular por desarrollar verdaderas inteligencias capaces de realizar muchas labores humanas o simplemente facilitarlas. La robótica se encarga no sólo de diseñar robots, sino también de fabricarlos, aplicarlos y disponerlos estructuralmente.

Un robot puede funcionar con energía hidráulica, eléctrica o neumática. Los que utiliza la industria son casi todos de la primera generación de robots y su funcionamiento está totalmente limitado a la programación, sin poder realizar ningún tipo de decisión propia. Los movimientos que realizan están codificados en un programa elaborado matemáticamente o a partir de los movimientos de un instructor que se almacenan en la memoria de un ordenador. La siguiente generación de robots, salidos de laboratorios, poseen algún grado de inteligencia artificial, con la que pueden tomar decisiones lógicas. Por ejemplo, pueden encontrar el camino más corto para realizar sus tareas, luego de analizar la situación. Hoy, los robots con inteligencia artificial pueden sostener juegos de ajedrez reñidos con los grandes maestros, incluso retener más información que un médico y así ayudarle a establecer diagnósticos.
El robot, de manera práctica (llevado del concepto a la acción), nació en los años sesenta y desde entonces se ha desarrollado de manera increíble, sin presentar ningún indicio de estancamiento, lo que sugiere el increíble potencial de la robótica. Los primeros fueron desarrollados para aplicaciones industriales, espaciales y submarinas, pero de a poco fueron ganando terrenos hasta realizar tareas humanas en servicios y oficinas e incluso algunos que pueden realizar tareas del hogar. Los robots representan una opción más barata, precisa y confiable que los humanos en numerosos trabajos. Además, son ideales en las labores que representan un riesgo para una persona. Sus usos más frecuentes son en fabricación, ensamblaje, empaquetamiento, transporte, exploraciones espaciales y terrestres, cirugía, armamento, investigación de laboratorio, seguridad y producción masiva de productos industriales y de consumidor.

Evolución de la Robótica:


     La Robótica ha evolucionado hacia los sistemas móviles autónomos, que son aquellos que son capaces de desenvolverse por sí mismos en entornos desconocidos y parcialmente cambiantes sin necesidad de supervisión.
El primer robot móvil de la historia, pese a sus muy limitadas capacidades, fue ELSIE (Electro-Light-Sensitive Internal-External), construido en Inglaterra en 1953. ELSIE se limitaba a seguir una fuente de luz utilizando un sistema mecánico realimentado sin incorporar inteligencia adicional.

     En 1968, apareció SHACKEY del SRI (standford Research Institute), que estaba provisto de una diversidad de sensores así como una cámara de visión y sensores táctiles y podía desplazarse por el suelo. El proceso se llevaba en dos computadores conectados por radio, uno a bordo encargado de controlar los motores y otro remoto para el procesamiento de imágenes.
http://jjazdanethe16.blogspot.es/img/sh.jpg

     En los setenta, la NASA inicio un programa de cooperación con el Jet Propulsión Laboratory para desarrollar plataformas capaces de explorar terrenos hostiles. El primer fruto de esta alianza seria el MARS-ROVER, que estaba equipado con un brazo mecánico tipo STANFORD, un dispositivo telemétrico láser, cámaras estéreo y sensores de proximidad.

En los ochenta aparece el CART del SRI que trabaja con procesado de imagen estéreo, más una cámara adicional acoplada en su parte superior. También en la década de los ochenta, el CMU-ROVER dela Universidad Carnegie Mellon incorporaba por primera vez una rueda timón, lo que permite cualquier posición y orientación del plano
En la actualidad, la robótica se debate entre modelos sumamente ambiciosos, como es el caso del IT, diseñado para expresar emociones, el COG, también conocido como el robot de cuatro sentidos, el famoso SOUJOURNER o el LUNAR ROVER, vehículo de turismo con control remotos, y otros mucho mas específicos como el CYPHER, un helicóptero robot de uso militar, el guardia de trafico japonés ANZEN TARO o los robots mascotas de Sony.
http://jjazdanethe16.blogspot.es/img/and.jpg 
     En el campo de los robots antropomorfos (androides) se debe mencionar el P3 de Honda que mide 1.60m, pesa 130 Kg y es capaz de subir y bajar escaleras, abrir puertas, pulsar interruptores y empujar vehículos.

En general la historia de la robótica la podemos clasificar en cinco generaciones.

Las dos primeras, ya alcanzadas en los ochenta, incluían la gestión de tareas repetitivas con autonomía muy limitada. La tercera generación incluiría visión artificial, en lo cual se ha avanzado mucho en los ochenta y noventas. La cuarta incluye movilidad avanzada en exteriores e interiores y la quinta entraría en el dominio de la inteligencia artificial en lo cual se esta trabajando actualmente



viernes, 22 de marzo de 2013

Computación Cuántica

La computación cuántica :
     Es un paradigma de computación distinto al de la computación clásica. Se basa en el uso de qubits en lugar de bits, y da lugar a nuevas puertas lógicas que hacen posibles nuevos algoritmos.
Una misma tarea puede tener diferente complejidad en computación clásica y en computación cuántica, lo que ha dado lugar a una gran expectación, ya que algunos problemas intratables pasan a ser tratables. Mientras un computador clásico equivale a una máquina de Turing, un computador cuántico equivale a una máquina de Turing cuántica.

Origen de la computación cuántica
     A medida que evoluciona la tecnología, aumenta la escala de integración y caben más transistores en el mismo espacio; así se fabrican microchips cada vez más pequeños, y es que, cuanto más pequeño es, mayor velocidad de proceso alcanza el chip. Sin embargo, no podemos hacer los chips infinitamente pequeños. Hay un límite en el cual dejan de funcionar correctamente. Cuando se llega a la escala de nanómetros, los electrones se escapan de los canales por donde deben circular. A esto se le llama efecto túnel.
La idea de computación cuántica surge en 1981, cuando Paul Benioff expuso su teoría para aprovechar las leyes cuánticas en el entorno de la computación. En vez de trabajar a nivel de voltajes eléctricos, se trabaja a nivel de cuanto. En la computación digital, un bit sólo puede tomar dos valores: 0 ó 1. En cambio, en la computación cuántica, intervienen las leyes de la mecánica cuántica, y la partícula puede estar en superposición coherente: puede ser 0, 1 y puede ser 0 y 1 a la vez (dos estados ortogonales de una partícula subatómica). Eso permite que se puedan realizar varias operaciones a la vez, según el número de qubits.

Hardware para computación cuántica
     Aún no se ha resuelto el problema de qué hardware sería el ideal para la computación cuántica. Se ha definido una serie de condiciones que debe cumplir, conocida como la lista de Di Vincenzo, y hay varios candidatos actualmente.

 Condiciones a cumplir

  •      El sistema ha de poder inicializarse, esto es, llevarse a un estado de partida conocido y controlado.
  • Ha de ser posible hacer manipulaciones a los qubits de forma controlada, con un conjunto de operaciones que forme un conjunto universal de puertas lógicas (para poder reproducir cualquier otra puerta lógica posible).
  • El sistema ha de mantener su coherencia cuántica a lo largo del experimento.
  • Ha de poder leerse el estado final del sistema, tras el cálculo.
  • El sistema ha de ser escalable: tiene que haber una forma definida de aumentar el número de qubits, para tratar con problemas de mayor coste computacional.
Problemas de la computación cuántica:
     Uno de los obstáculos principales para la computación cuántica es el problema de la decoherencia cuántica, que causa la pérdida del carácter unitario (y, más específicamente, la reversibilidad) de los pasos del algoritmo cuántico. Los tiempos de decoherencia para los sistemas candidatos, en particular el tiempo de relajación transversal (en la terminología usada en la tecnología de resonancia magnética nuclear e imaginería por resonancia magnética) está típicamente entre nanosegundos y segundos, a temperaturas bajas. Las tasas de error son típicamente proporcionales a la razón entre tiempo de operación frente a tiempo de decoherencia, de forma que cualquier operación debe ser completada en un tiempo mucho más corto que el tiempo de decoherencia. Si la tasa de error es lo bastante baja, es posible usar eficazmente la corrección de errores cuántica, con lo cual sí serían posibles tiempos de cálculo más largos que el tiempo de decoherencia y, en principio, arbitrariamente largos. Se cita con frecuencia una tasa de error límite de 10-4, por debajo de la cual se supone que sería posible la aplicación eficaz de la corrección de errores cuánticos.
Otro de los problemas principales es la escalabilidad, especialmente teniendo en cuenta el considerable incremento en qubits necesarios para cualquier cálculo que implica la corrección de errores. Para ninguno de los sistemas actualmente propuestos es trivial un diseño capaz de manejar un número lo bastante alto de qubits para resolver problemas computacionalmente interesantes hoy en día.
 Procesadores: 
    En 2004, científicos del Instituto de Física aplicada de la Universidad de Bonn publicaron resultados sobre un registro cuántico experimental. Para ello utilizaron átomos neutros que almacenan información cuántica, por lo que son llamados qubits por analogía con los bits. Su objetivo actual es construir una puerta cuántica, con lo cual se tendrían los elementos básicos que constituyen los procesadores, que son el corazón de los computadores actuales. Cabe destacar que un chip de tecnología VLSI contiene actualmente más de 100.000 puertas, de manera que su uso práctico todavía se presenta en un horizonte lejano.

Transmisión de datos:

     Científicos de los laboratorios Max Planck y Niels Bohr publicaron, en noviembre de 2005, en la revista Nature, resultados sobre la transmisión de información cuántica, usando la luz como vehículo, a distancias de 100 km. Los resultados dan niveles de éxito en las transmisiones del 70%, lo que representa un nivel de calidad que permite utilizar protocolos de transmisión con autocorrección.
Actualmente se trabaja en el diseño de repetidores, que permitirían transmitir información a distancias mayores a las ya alcanzadas.
Modelos:
  • Computadora cuántica de Benioff
  • Computadora cuántica de Feynman
  • Computadora cuántica de Deutsch







Nanotecnologia.

-La palabra "nanotecnología" es usada extensivamente para definir las ciencias y técnicas que se aplican al un nivel de nanoescala, esto es unas medidas extremadamente pequeñas "nanos" que permiten trabajar y manipular las estructuras moleculares y sus átomos.
La mejor definición de Nanotecnología que hemos encontrado es esta: La nanotecnologia es el estudio, diseño, creación, síntesis, manipulación y aplicación de materiales, aparatos y sistemas funcionales a través del control de la materia a nano escala, y la explotación de fenómenos y propiedades de la materia a nano escala.

-La nanociencia está unida en gran medida desde la década de los 80 con Drexler y sus aportaciones a la"nanotecnología molecular", esto es, la construcción de nanomáquinas hechas de átomos y que son capaces de construir ellas mismas otros componentes moleculares. Desde entonces Eric Drexler (personal webpage), se le considera uno de los mayores visionarios sobre este tema. Ya en 1986, en su libro "Engines of creation" introdujo las promesas y peligros de la manipulación molecular. Actualmente preside el Foresight Institute.
Cuando se manipula la materia a la escala tan minúscula de átomos y moléculas, demuestra fenómenos y propiedades totalmente nuevas. Por lo tanto, científicos utilizan la nanotecnología para crear materiales, aparatos y sistemas novedosos y poco costosos con propiedades únicas
-Nos interesa, más que su concepto, lo que representa potencialmente dentro del conjunto de investigaciones y aplicaciones actuales cuyo propósito es crear nuevas estructuras y productos que tendrían un gran impacto en la industria, la medicina (nanomedicina), etc..