martes, 11 de junio de 2013

Redes Man.

Una red de área metropolitana (Metropolitan Area Network o MAN, en inglés) es una red de alta velocidad (banda ancha) que da cobertura en un área geográfica extensa, proporciona capacidad de integración de múltiples servicios mediante la transmisión de datos, voz y vídeo, sobre medios de transmisión tales como fibra óptica y par trenzado (MAN BUCLE), la tecnología de pares de cobre se posiciona como la red más grande del mundo una excelente alternativa para la creación de redes metropolitanas, por su baja latencia (entre 1 y 50 ms), gran estabilidad y la carencia de interferencias radioeléctricas, las redes MAN BUCLE, ofrecen velocidades de 10Mbps, 20Mbps, 45Mbps, 75Mbps, sobre pares de cobre y 100Mbps, 1Gbps y 10Gbps mediante Fibra Óptica.
Otra definición podría ser: Una MAN es una colección de LANs o CANs dispersas en una ciudad (decenas de kilómetros). Una MAN utiliza tecnologías tales como ATM, Frame Relay, xDSL (Digital Subscriber Line), WDM (Wavelenght Division Modulation), ISDN, E1/T1, PPP, etc. para conectividad a través de medios de comunicación tales como cobre, fibra óptica, y microondas.
Aplicaciones
Las Redes Metropolitanas, permiten la transmisión de tráficos de voz, datos y vídeo con garantías de baja latencia, razones por las cuales se hace necesaria la instalación de una red de área metropolitana a nivel corporativo, para corporaciones que cuentas con múltiples dependencias en la misma área metropolitana.
Nodos de red:
Las redes de área ciudadana permiten ejecutar y superar los 600 nodos de acceso a la red, por lo que se hace muy eficaz para entornos públicos y privados con un gran número de puestos de trabajo..
Extensión de red:
Las redes de área metropolitana permiten alcanzar un diámetro en torno a los 500 km, dependiendo el alcance entre nodos de red del tipo de cable utilizado, así como de la tecnología empleada. Este diámetro se considera suficiente para abarcar un área metropolitana. Abarcan una ciudad y se pueden conectar muchas entre sí, formando más redes
Distancia entre Nodos:
Las redes de área metropolitana permiten distancias entre nodos de acceso de varios kilómetros, dependiendo del tipo de cable. Estas distancias se consideran suficientes para conectar diferentes edificios en un área metropolitana o campus privado.
Trafico en tiempo Real:
Las redes de área metropolitana garantizan unos tiempos de acceso a la red mínimos, lo cual permite la inclusión de servicios síncronos necesarios para aplicaciones en tiempo real, donde es importante que ciertos mensajes atraviesen la red sin retraso incluso cuando la carga de red es elevada.
Entre nodo y nodo no se puede tener, por ejemplo más de 100 kilómetros de cable. Se puede tener en aproximación límite unos 20 km de cable, pero no se sabe en que momento se puede perder la información o los datos mandados.

Los servicios síncronos requieren una reserva de ancho de banda; tal es el caso del tráfico de voz y vídeo. Por este motivo las redes de área metropolitana son redes óptimas para entornos de tráfico multimedia, si bien no todas las redes metropolitanas soportan tráficos isócronos (transmisión de información a intervalos constantes).
Alta seguridad:
La fibra óptica ofrece un medio seguro porque no es posible leer o cambiar la señal óptica sin interrumpir físicamente el enlace.

Redes wan.

Red De área amplia:
File:LAN WAN scheme.svg
Una red de área amplia, o WAN, por las siglas de wide area network en inglés, es una red de computadoras que abarca varias ubicaciones físicas, proveyendo servicio a una zona, un país, incluso varios continentes. Es cualquier red que une varias redes locales, llamadas LAN, por lo que sus miembros no están todos en una misma ubicación física.
Muchas WAN son construidas por organizaciones o empresas para su uso privado, otras son instaladas por los proveedores de internet (ISP) para proveer conexión a sus clientes.
Características:
  • Posee máquinas dedicadas a la ejecución de programas de usuario (hosts).
  • Una subred, donde conectan varios hosts.
  • División entre líneas de transmisión y elementos de conmutación (enrutadores).
  • Es un sistema de interconexión de equipos informáticos geográficamente dispersos, que pueden estar incluso en cLOL distintos. El sistema de conexión para estas redes normalmente involucra a redes públicas de transmisión de datos.

Topología en los enrutadores:
Topologías de los enrutadores en una red de área amplia:
  • Estrella
  • Anillo
  • Árbol
  • Red en Bus
  • circulo
  • Malla Completa
  • Intersección de anillos
  • Malla Irregular

Redes Lan.

Red de área local:
  
  Una red de área localred local o LAN (del inglés local area network) es la interconexión de una o varias computadoras y periféricos. Antiguamente su extensión estaba limitada físicamente a un edificio o a un entorno de 200 metros, que con repetidores podía llegar a la distancia de un campo de 1 kilómetro, sin embargo, hoy en día y gracias a la mejora de la potencia de redes inalámbricas y el aumento de la privatización de satélites, es común observar complejos de edificios separados a más distancia que mantienen una red de área local estable. Su aplicación más extendida es la interconexión de computadoras personales y estaciones de trabajo en oficinas, fábricas, etc.
Ventajas:
En una empresa suelen existir muchas computadoras conectadas entre sí, las cuales necesitan de su propia impresora para imprimir informes (redundancia de hardware), los datos almacenados en uno de los equipos es muy probable que sean necesarios en otro de los equipos de la empresa, por lo que será necesario copiarlos en este, pudiéndose producir desfases entre los datos de dos usuarios, la ocupación de los recursos de almacenamiento en disco se multiplican (redundancia de datos), las computadoras que trabajen con los mismos datos deberán de tener los mismos programas para manejar dichos datos (redundancia de software), etc.
Tipos:
La oferta de redes de área local es muy amplia, existiendo soluciones casi para cualquier circunstancia. Podemos seleccionar el tipo de cable, la topología e incluso el tipo de transmisión que más se adapte a nuestras necesidades. Sin embargo, de toda esta oferta las soluciones más extendidas son tres: Ethernet, Token Ring y Arcnet.
Características:
  • Tecnología broadcast (difusión) con el medio de transmisión compartido.
  • Capacidad de transmisión comprendida entre 1 Mbps y 1 Gbps.
  • Uso de un medio de comunicación privado.
  • La simplicidad del medio de transmisión que utiliza (cable coaxial, cables telefónicos, fibra óptica y Wi-Fi)
  • La facilidad con que se pueden efectuar cambios en el hardware y el software.
  • Gran variedad y número de dispositivos conectados.
  • Posibilidad de conexión con otras redes.
  • Limitante de 100 m, puede llegar a más si se usan repetidores. Actualmente la repetición orbital abarca todo el planeta.

Memoria (informática)

  En informática, la memoria (también llamada almacenamiento) se refiere a parte de los componentes que integran una computadora. Son dispositivos que retienen datos informáticos durante algún intervalo de tiempo. Las memorias de computadora proporcionan una de las principales funciones de la computación moderna, la retención o almacenamiento de información. Es uno de los componentes fundamentales de todas las computadoras modernas que, acoplados a una unidad central de procesamiento (CPUpor su sigla en inglés, central processing unit), implementa lo fundamental del modelo de computadora de Arquitectura de von Neumann, usado desde los años 1940.
En la actualidad, memoria suele referirse a una forma de almacenamiento de estado sólido conocido como memoria RAM (memoria de acceso aleatorio, RAM por sus siglas en inglés random access memory) y otras veces se refiere a otras formas de almacenamiento rápido pero temporal. De forma similar, se refiere a formas de almacenamiento masivo como discos ópticos y tipos de almacenamiento magnético como discos duros y otros tipos de almacenamiento más lentos que las memorias RAM, pero de naturaleza más permanente. Estas distinciones contemporáneas son de ayuda porque son fundamentales para la arquitectura de computadores en general.
Memorias de un computador:
Memoria Ram:
La memoria de acceso aleatorio (en inglés: random-access memory) se utiliza como memoria de trabajo para el sistema operativo, los programas y la mayoría del software. Es allí donde se cargan todas las instrucciones que ejecutan el procesador y otras unidades de cómputo. Se denominan «de acceso aleatorio» porque se puede leer o escribir en una posición de memoria con un tiempo de espera igual para cualquier posición, no siendo necesario seguir un orden para acceder a la información de la manera más rápida posible. Durante el encendido del computador, la rutina POST verifica que los módulos de memoria RAM estén conectados de manera correcta. En el caso que no existan o no se detecten los módulos, la mayoría de tarjetas madres emiten una serie de pitidos que indican la ausencia de memoria principal. Terminado ese proceso, la memoria BIOS puede realizar un test básico sobre la memoria RAM indicando fallos mayores en la misma.File:Kingston KVR1333 IMGP5970 wp wp.jpg
Memoria Rom:
Los datos almacenados en la ROM no se pueden modificar, o al menos no de manera rápida o fácil. Se utiliza principalmente en su sentido más estricto, se refiere sólo a máscara ROM -en inglés, MROM- (el más antiguo tipo de estado sólido ROM), que se fabrica con los datos almacenados de forma permanente y, por lo tanto, su contenido no puede ser modificado de ninguna forma. Sin embargo, las ROM más modernas, como EPROM y Flash EEPROM, efectivamente se pueden borrar y volver a programar varias veces, aun siendo descritos como "memoria de sólo lectura" (ROM). La razón de que se las continúe llamando así es que el proceso de reprogramación en general es poco frecuente, relativamente lento y, a menudo, no se permite la escritura en lugares aleatorios de la memoria. A pesar de la simplicidad de la ROM, los dispositivos reprogramables son más flexibles y económicos, por lo cual las antiguas máscaras ROM no se suelen encontrar en hardware producido a partir de 2007.File:ROM BIOS.jpg
El acumulador (Informática):
En un CPU de computadora, el acumulador es un registro en el que son almacenados temporalmente los resultados aritméticos y lógicos intermedios que serán tratados por elcircuito operacional de la unidad aritmético-lógica (ALU).
Sin un registro como un acumulador, sería necesario escribir el resultado de cada cálculo, como adición, multiplicación, desplazamiento,etc.... en la memoria principal, quizás justo para ser leída inmediatamente otra vez para su uso en la siguiente operación. El acceso a la memoria principal es significativamente más lento que el acceso a un registro como el acumulador porque la tecnología usada para la memoria principal es más lenta y barata que la usada para un registro interno del CPU.
El ejemplo canónico para el uso del acumulador es cuando se suma una lista de números. El acumulador es puesto inicialmente a cero, entonces cada número es sumado al valor en el acumulador. Solamente cuando se han sumado todos los números, el resultado mantenido en el acumulador es escrito a la memoria principal o a otro, registro no-acumulador del CPU.
.

Disco duro.

 Disco duro:
File:Hard disk platters and head.jpg En informática, un disco duro o disco rígido (en inglés Hard Disk Drive, HDD) es un dispositivo de  almacenamiento de datos no volátilque emplea un sistema de grabación magnética para almacenar datos digitales. Se compone de uno o más platos o discos rígidos, unidos por un mismo eje que gira a gran velocidad dentro de una caja metálica sellada. Sobre cada plato, y en cada una de sus caras, se sitúa un cabezal de lectura/escritura que flota sobre una delgada lámina de aire generada por la rotación de los discos.
El primer disco duro fue inventado por IBM en 1956. A lo largo de los años, los discos duros han disminuido su precio al mismo tiempo que han multiplicado su capacidad, siendo la principal opción de almacenamiento secundario para PC desde su aparición en los años 1960. Los discos duros han mantenido su posición dominante gracias a los constantes incrementos en la densidad de grabación, que se ha mantenido a la par de las necesidades de almacenamiento secundario.
Historia:
File:IBM old hdd mod.jpgAl principio los discos duros eran extraíbles, sin embargo, hoy en día típicamente vienen todos sellados (a excepción de un hueco de ventilación para filtrar e igualar la presión del aire).
El primer disco duro, aparecido en 1956, fue el Ramac I, presentado con la computadora IBM 350: pesaba una tonelada y su capacidad era de 5 MB. Más grande que una nevera actual, este disco duro trabajaba todavía con válvulas de vacío y requería una consola separada para su manejo.
Su gran mérito consistía en el que el tiempo requerido para el acceso era relativamente constante entre algunas posiciones de memoria, a diferencia de las cintas magnéticas, donde para encontrar una información dada, era necesario enrollar y desenrollar los carretes hasta encontrar el dato buscado, teniendo muy diferentes tiempos de acceso para cada posición.
La tecnología inicial aplicada a los discos duros era relativamente simple. Consistía en recubrir con material magnético un disco de metal que era formateado en pistas concéntricas, que luego eran divididas en sectores. El cabezal magnético codificaba información al magnetizar diminutas secciones del disco duro, empleando un código binario de «ceros» y «unos». Los bits o dígitos binarios así grabados pueden permanecer intactos años. Originalmente, cada bit tenía una disposición horizontal en la superficie magnética del disco, pero luego se descubrió cómo registrar la información de una manera más compacta.
Características de un disco duro:
Las características que se deben tener en cuenta en un disco duro son:
  • Tiempo medio de acceso: Tiempo medio que tarda la aguja en situarse en la pista y el sector deseado; es la suma del Tiempo medio de búsqueda (situarse en la pista),Tiempo de lectura/escritura y la Latencia media (situarse en el sector).
  • Tiempo medio de búsqueda: Tiempo medio que tarda la aguja en situarse en la pista deseada; es la mitad del tiempo empleado por la aguja en ir desde la pista más periférica hasta la más central del disco.
  • Tiempo de lectura/escritura: Tiempo medio que tarda el disco en leer o escribir nueva información: Depende de la cantidad de información que se quiere leer o escribir, el tamaño de bloque, el número de cabezales, el tiempo por vuelta y la cantidad de sectores por pista.
  • Latencia media: Tiempo medio que tarda la aguja en situarse en el sector deseado; es la mitad del tiempo empleado en una rotación completa del disco.
  • Velocidad de rotación: Revoluciones por minuto de los platos. A mayor velocidad de rotación, menor latencia media.
  • Tasa de transferencia: Velocidad a la que puede transferir la información a la computadora una vez que la aguja está situada en la pista y sector correctos. Puede servelocidad sostenida o de pico.
Estructura física:
File:Festplatte.JPGDentro de un disco duro hay uno o varios discos (de aluminio o cristal) concéntricos llamados platos (normalmente entre 2 y 4, aunque pueden ser hasta 6 ó 7 según el modelo), y que giran todos a la vez sobre el mismo eje, al que están unidos. El cabezal(dispositivo de lectura y escritura) está formado por un conjunto de brazos paralelos a los platos, alineados verticalmente y que también se desplazan de forma simultánea, en cuya punta están las cabezas de lectura/escritura. Por norma general hay una cabeza de lectura/escritura para cada superficie de cada plato. Los cabezales pueden moverse hacia el interior o el exterior de los platos, lo cual combinado con la rotación de los mismos permite que los cabezales puedan alcanzar cualquier posición de la superficie de los platos..

Placa Base (Tarjeta madre).

File:Placa Base MicroATX.JPG
  La placa base, también conocida como placa madre o tarjeta madre (del inglés motherboard o mainboard) es una tarjeta de circuito impreso a la que se conectan los componentes que constituyen la computadora u ordenador. Es una parte fundamental a la hora de armar una PC de escritorio o portátil. Tiene instalados una serie de circuitos integrados, entre los que se encuentra el circuito integrado auxiliar, que sirve como centro de conexión entre el microprocesador, la memoria de acceso aleatorio (RAM), las ranuras de expansióny otros dispositivos.
Va instalada dentro de una caja o gabinete que por lo general está hecha de chapa y tiene un panel para conectar dispositivos externos y muchos conectores internos y zócalos para instalar componentes dentro de la caja.
La placa base, además, incluye un firmware llamado BIOS, que le permite realizar las funcionalidades básicas, como pruebas de los dispositivos, vídeo y manejo del teclado, reconocimiento de dispositivos y carga del sistema operativo.
Componentes de la placa base:
  Una placa base típica admite los siguientes componentes:
  • Uno o varios conectores de alimentación: por estos conectores, una alimentación eléctrica proporciona a la placa base los diferentes voltajes e intensidades necesarios para su funcionamiento.
  • El zócalo de CPU es un receptáculo que recibe el microprocesador y lo conecta con el resto de componentes a través de la placa base.
  • Las ranuras de memoria RAM, en número de 2 a 6 en las placas base comunes.
  • El chipset: una serie de circuitos electrónicos, que gestionan las transferencias de datos entre los diferentes componentes de la computadora (procesador, memoria, tarjeta gráfica, unidad de almacenamiento secundario, etc.).
Se divide en dos secciones, el puente norte (northbridge) y el puente sur (southbridge). El primero gestiona la interconexión entre el microprocesador, la memoria RAM y la unidad de procesamiento gráfico; y el segundo entre los periféricos y los dispositivos de almacenamiento, como los discos duros o las unidades de disco óptico. Las nuevas líneas de procesadores de escritorio tienden a integrar el propio controlador de memoria en el interior del procesador además de que estas tardan en degradarse aproximadamente de 100 a 200 años.
fabricantes:
  Varios fabricantes se reparten el mercado de placas base, tales como Abit, Albatron, Aopen, ASUS, ASRock, Biostar, Chaintech, Dell, DFI, ECS EliteGroup, Epox, Foxconn,Gigabyte Technology, Intel, MSI, QDI, Sapphire Technology, Soltek, Super Micro, Tyan, VIA, XFX, Pc Chips, Zotac.
Algunos diseñan y fabrican uno o más componentes de la placa base, mientras que otros ensamblan los componentes que terceros han diseñado y fabricado. 

Tipos de bus :                  

  Los buses son espacios físicos que permiten el transporte de información y energía entre dos puntos de la computadora.
Los buses generales son los siguientes:
  • Bus de datos: son las líneas de comunicación por donde circulan los datos externos e internos del microprocesador.
  • Bus de dirección: línea de comunicación por donde viaja la información específica sobre la localización de la dirección de memoria del dato o dispositivo al que se hace referencia.
  • Bus de control: línea de comunicación por donde se controla el intercambio de información con un módulo de la unidad central y los periféricos.
  • Bus de expansión: conjunto de líneas de comunicación encargado de llevar el bus de datos, el bus de dirección y el de control a la tarjeta de interfaz (entrada, salida) que se agrega a la tarjeta principal.
  • Bus del sistema: todos los componentes de la CPU se vinculan a través del bus de sistema, mediante distintos tipos de datos el microprocesador y la memoria principal, que también involucra a la memoria caché de nivel 2. La velocidad de transferencia del bus de sistema está determinada por la frecuencia del bus y el ancho del mínimo.

Normas para el ponchado de cable UTP.

 NORMAS DE PONCHADO UTP
Introducción
  El cable UPT o par trenzado es similar al cable telefónico, sin embargo consta de 8 hilos y utiliza unos conectores un poco más anchos. Dependiendo del número de trenzas por unidad de longitud, los cables de par trenzado se clasifican en categorías. A mayor número de trenzas, se obtiene una mayor velocidad de transferencia, por ejemplo:
 
  • Categoría 3, hasta 16 Mbps
  • Categoría 4, hasta 20 Mbps 
  • Categoría 5 y Categoría 5e, hasta 1 Gbps
  • Categoría 6, hasta 1 Gbps y más
Los cables par trenzado o UTP pueden ser a su vez de dos tipos:
  • UTP (Unshielded Twisted Pair, par trenzado no apantallado)
  • STP (Shielded Twisted Pair, par trenzado apantallado)

  Los cables UTP son los más utilizados debido a su bajo costo y facilidad de instalación. Los cables STP están embutidos en una malla metálica que reduce las interferencias y mejora las características de la transmisión. Sin embargo, tienen un coste elevado y al ser más gruesos son más complicados de instalar.
El cableado que se utiliza en la actualidad es UTP CAT5. El cableado CAT6 es demasiado nuevo y es difícil encontrarlo en el mercado. Los cables STP se utilizan únicamente para instalaciones muy puntuales que requieran una calidad de transmisión muy alta.
El cableado estructurado para redes de computadores nombran dos tipos de normas o configuraciones a seguir, estas son: La EIA/TIA-568A (T568A) y la EIA/TIA-568B (T568B). La diferencia entre ellas es el orden de los colores de los pares a seguir para el conector RJ45.

Norma T568A
Norma T568B

TIPOS DE CONEXIONES
  • Normal o Recto
  El cable recto es sencillo de construir, solo hay que tener la misma norma en ambos lados del cable. Este tipo de cables es utilizado para conectar PCs a equipos activos de red, como Hubs, Switchers, Routers.
Cruzado o Crossover
  El cable cruzado requiere un poco mas de destreza, ya que deben de invertirse los parámetros de red, es decir, si de un lado sacamos un par de transmisión, este debe llegar al par de recepción del otro extremo y así con el otro par. Afortunadamente, esto ya esta tableado. Un cable de red cruzado se construye basándose en las dos normas explicadas anteriormente. Solo deben de poner en un extremo la norma T568A y del otro lado la norma T568B
El cable cruzado es utilizado para conectar dos PCs directamente o equipos activos entre si, como hub con hub, con switch, router, etc.

Medios de Transmisión de datos.

  Un medio de transmisión es el canal que permite la transmisión de información entre dos terminales de un sistema de transmisión. La transmisión se realiza habitualmente empleando ondas electromagnéticas que se propagan a través del canal. A veces el canal es un medio físico y otras veces no, ya que las ondas electromagnéticas son susceptibles de ser transmitidas por el vacío.
Dependiendo de la forma de conducir la señal a través del medio, los medios de transmisión se pueden clasificar en dos grandes grupos: medios de transmisión guiados y medios de transmisión no guiados. Según el sentido de la transmisión podemos encontrarnos con tres tipos diferentes: simplex, half-duplex y full-duplex. También los medios de transmisión se caracterizan por utilizarse en rangos de frecuencia de trabajo diferentes.





Medios de transmisión Guiados:
  Los de transmisión guiados están constituidos por un cable que se encarga de la conducción (o guiado) de las señales desde un extremo al otro. Las principales características de los medios guiados son el tipo de conductor utilizado, la velocidad máxima de transmisión, las distancias máximas que puede ofrecer entre repetidores, la inmunidad frente a interferencias electromagnéticas, la facilidad de instalación y la capacidad de soportar diferentes tecnologías de nivel de enlace.
La velocidad de transmisión depende directamente de la distancia entre los terminales, y de si el medio se utiliza para realizar un enlace punto a punto o un enlace multipunto. Debido a esto los diferentes medios de transmisión tendrán diferentes velocidades de conexión que se adaptarán a utilizaciones dispares.
Dentro de los medios de transmisión guiados, los más utilizados en el campo de las comunicaciones y la interconexión de ordenadores son:
  • El par trenzado: consiste en un par de hilos de cobre conductores cruzados entre sí, con el objetivo de reducir el ruido de diafonía. A mayor número de cruces por unidad de longitud, mejor comportamiento ante el problema de diafonía. Existen dos tipos de par trenzado:
    • Protegido: Shielded Twisted Pair (STP)
    • No protegido: Unshielded Twisted Pair (UTP): es un cable de pares trenzado y sin recubrimiento metálico externo, de modo que es sensible a las interferencias. Es importante guardar la numeración de los pares, ya que de lo contrario el efecto del trenzado no será eficaz, disminuyendo sensiblemente o incluso impidiendo la capacidad de transmisión. Es un cable barato, flexible y sencillo de instalar. Las aplicaciones principales en las que se hace uso de cables de par trenzado son:
      • Bucle de abonado: es el último tramo de cable existente entre el teléfono de un abonado y la central a la que se encuentra conectado. Este cable suele ser UTP Cat.3 y en la actualidad es uno de los medios más utilizados para transporte de banda ancha, debido a que es una infraestructura que esta implantada en el 100% de las ciudades.
      • Redes LAN: en este caso se emplea UTP Cat.5 o Cat.6 para transmisión de datos, consiguiendo velocidades de varios centenares de Mbps. Un ejemplo de este uso lo constituyen las redes 10/100/1000BASE-T.
  • El cable coaxial: se compone de un hilo conductor, llamado núcleo, y un mallazo externo separados por un dieléctrico o aislante.
  • La fibra óptica.
Medio transmision 1.jpg 
Medios de transmisión no guiados:
En este tipo de medios tanto la transmisión como la recepción de información se lleva a cabo mediante antenas. A la hora de transmitir, la antena irradia energía electromagnética en el medio. Por el contrario, en la recepción la antena capta las ondas electromagnéticas del medio que la rodea.
La configuración para las transmisiones no guiadas puede ser direccional y omnidireccional. En la direccional, la antena transmisora emite la energía electromagnética concentrándola en un haz, por lo que las antenas emisora y receptora deben estar alineadas. En la omnidireccional, la radiación se hace de manera dispersa, emitiendo en todas direcciones, pudiendo la señal ser recibida por varias antenas. Generalmente, cuanto mayor es la frecuencia de la señal transmitida es más factible confinar la energía en un haz direccional.
La transmisión de datos a través de medios no guiados añade problemas adicionales, provocados por la reflexión que sufre la señal en los distintos obstáculos existentes en el medio. Resultando más importante el espectro de frecuencias de la señal transmitida que el propio medio de transmisión en sí mismo.
Según el rango de frecuencias de trabajo, las transmisiones no guiadas se pueden clasificar en tres tipos: radio, microondas y luz (infrarrojos/láser).
Medios transmision 2.jpg
 

Drone (Vehículo no tripulado)

  Un vehículo aéreo no tripulado, UAV por siglas en inglés (Unmanned Aerial Vehicle), o sistema aéreo no tripulado, UAS (Unmanned Aerial System),1 conocido en castellano por sus siglas como VANT o drone, es una aeronave que vuela sin tripulación humana a bordo.
Archivo:Pioneer Unmanned Aerial Vehicle.jpg
Son usados mayoritariamente en aplicaciones militares. Para distinguir los VANT de los misiles, un VANT se define como un vehículo sin tripulación reutilizable, capaz de mantener un nivel de vuelo controlado y sostenido, y propulsado por un motor de explosión o de reacción. Por tanto, los misiles de crucero no son considerados VANT porque, como la mayoría de los misiles, el propio vehículo es un arma que no se puede reutilizar, a pesar de que también es no tripulado y en algunos casos guiado remotamente.

Historia:
  El ejemplo más antiguo fue desarrollado después de la primera guerra mundial, y se emplearon durante la segunda guerra mundial para entrenar a los operarios de los cañones antiaéreos. Sin embargo, no es hasta poco más que a finales del siglo XX cuando operan los 'VANT mediante radio control con todas las características de autonomía.
Los VANT han demostrado sobradamente en diferentes escenarios y, especialmente en la Guerra del Golfo y en la Guerra de Bosnia, el gran potencial que tienen. En cuanto a la obtención, manejo y transmisión de la información, gracias a la aplicación de nuevas técnicas de protección de la misma (Guerra electrónica, criptografía) resulta posible conseguir comunicaciones más seguras, más difíciles de detectar e interferir.
 Ventajas:
  • Posibilidad de uso en áreas de alto riesgo o de difícil acceso.
  • No requiere la actuación de pilotos en la zona de combate.

 Desventajas:

Pueden clasificarse de la siguiente manera:
  • Técnicas
  • Éticas
  • Económicas

 Tecnicas:

  • El enlace vía satélite puede ser hackeado y de esta forma romperse el canal de comunicaciones entre el operador en tierra y el VANT e interceptar sus datos, como ocurrió en Irak y Afghanistán, cuando los insurgentes accedieron a los VANT mediante el SkyGrabber,4 un programa para uso doméstico cuyo coste era de 25 dólares o introducir un virus para inutilizarlos, igual que en octubre de 2011 cuando la flota de predators fue inmovilizada por el ataque de un virus informático.5
  • Un tiempo de retardo entre la emisión de instrucciones y su recepción para su proceso y ejecución; lo que en condiciones críticas puede ser fatal.
  • Influencia en su funcionamiento por los fenómenos físicos como la actividad solar la cual produce cambios en la ionosfera.
  • Capacidad de vuelo limitada por el tipo de combustible o fuente de energía y su sistema de navegación.

Éticas:

  • La posibilidad de que la inteligencia artificial del UAV pudiera determinar por sí misma los objetivos a atacar.
  • La insensibilidad sobre las consecuencias de la guerra, al mantenerse a distancia de los conflictos.
  • Su comercialización no controlada, pudiendo ser adquiridos por personas o grupos de dudosa ética, como en el caso de la oferta a Daniel Gárate, un peruano afincado en Los Ángeles cuyo negocio se centraba en usar un drone que sujeta una cámara con la que graba tomas aéreas de gran resolución a bajo precio, quien rechazó en 2011 filmar con uno de estos dispositivos la boda de Kim Kardashian.6


 


 

martes, 28 de mayo de 2013

Computación en la nube.

¿ Qué es la Computación en Nube ?

computacion-en-nube    La computación en nube es un sistema informático basado en Internet y centros de datos remotos para gestionar servicios de información y aplicaciones. La computación en nube permite que los consumidores y las empresas gestionen archivos y utilicen aplicaciones sin necesidad de instalarlas en cualquier computadora con acceso a Internet. Esta tecnología ofrece un uso mucho más eficiente de recursos, como almacenamiento, memoria, procesamiento y ancho de banda, al proveer solamente los recursos necesarios en cada momento.
El término “nube” se utiliza como una metáfora de Internet y se origina en la nube utilizada para representar Internet en los diagramas de red como una abstracción de la infraestructura que representa.
  Un ejemplo sencillo de computación en nube es el sistema de documentos y aplicaciones electrónicas Google Docs / Google Apps. Para su uso no es necesario instalar software o disponer de un servidor, basta con una conexión a Internet para poder utilizar cualquiera de sus servicios.
  El servidor y el software de gestión se encuentran en la nube (Internet) y son directamente gestionados por el proveedor de servicios. De esta manera, es mucho más simple para el consumidor disfrutar de los beneficios. En otras palabras: la tecnología de la información se convierte en una servicio, que se consume de la misma manera que consumimos la electricidad o el agua.
Beneficios:
  •      Integración probada de servicios Red. Por su naturaleza, la tecnología de cloud computing se puede integrar con mucha mayor facilidad y rapidez con el resto de las aplicaciones empresariales (tanto software tradicional como Cloud Computing basado en infraestructuras), ya sean desarrolladas de manera interna o externa.
  • Prestación de servicios a nivel mundial. Las infraestructuras de cloud computing proporcionan mayor capacidad de adaptación, recuperación completa de pérdida de datos (con copias de seguridad) y reducción al mínimo de los tiempos de inactividad.
  • Una infraestructura 100% de cloud computing permite al proveedor de contenidos o servicios en la nube prescindir de instalar cualquier tipo de hardware, ya que éste es provisto por el proveedor de la infraestructura o la plataforma en la nube. Un gran beneficio del cloud computing es la simplicidad y el hecho de que requiera mucha menor inversión para empezar a trabajar.
  • Implementación más rápida y con menos riesgos, ya que se comienza a trabajar más rápido y no es necesaria una gran inversión. Las aplicaciones del cloud computing suelen estar disponibles en cuestión de días u horas en lugar de semanas o meses, incluso con un nivel considerable de personalización o integración.
  • Actualizaciones automáticas que no afectan negativamente a los recursos de TI. Al actualizar a la última versión de las aplicaciones, el usuario se ve obligado a dedicar tiempo y recursos para volver a personalizar e integrar la aplicación. Con el cloud computing no hay que decidir entre actualizar y conservar el trabajo, dado que esas personalizaciones e integraciones se conservan automáticamente durante la actualización.
  • Contribuye al uso eficiente de la energía. En este caso, a la energía requerida para el funcionamiento de la infraestructura. En los datacenters tradicionales, los servidores consumen mucha más energía de la requerida realmente. En cambio, en las nubes, la energía consumida es sólo la necesaria, reduciendo notablemente el desperdicio.

desventajas:
  •     La centralización de las aplicaciones y el almacenamiento de los datos origina una interdependencia de los proveedores de servicios.
  •      La disponibilidad de las aplicaciones está ligada a la disponibilidad de acceso a Internet.
  •     Los datos "sensibles" del negocio no residen en las instalaciones de las empresas, lo que podría generar un contexto de alta vulnerabilidad para la sustracción o robo de información.
  •      La confiabilidad de los servicios depende de la "salud" tecnológica y financiera de los proveedores de servicios en nube. Empresas emergentes o alianzas entre empresas podrían crear un ambiente propicio para el monopolio y el crecimiento exagerado en los servicios.
  •     La disponibilidad de servicios altamente especializados podría tardar meses o incluso años para que sean factibles de ser desplegados en la red.
  •      La madurez funcional de las aplicaciones hace que continuamente estén modificando sus interfaces, por lo cual la curva de aprendizaje en empresas de orientación no tecnológica tenga unas pendientes significativas, así como su consumo automático por aplicaciones.
  •     Seguridad. La información de la empresa debe recorrer diferentes nodos para llegar a su destino, cada uno de ellos (y sus canales) son un foco de inseguridad. Si se utilizan protocolos seguros, HTTPS por ejemplo, la velocidad total disminuye debido a la sobrecarga que éstos requieren.
  •     Escalabilidad a largo plazo. A medida que más usuarios empiecen a compartir la infraestructura de la nube, la sobrecarga en los servidores de los proveedores aumentará, si la empresa no posee un esquema de crecimiento óptimo puede llevar a degradaciones en el servicio o altos niveles de jitter. 

Comienzos:

     El concepto de la computación en la nube empezó en proveedores de servicio de Internet a gran escala, como Google, Amazon AWS, Microsoft y otros que construyeron su propia infraestructura. De entre todos ellos emergió una arquitectura: un sistema de recursos distribuidos horizontalmente, introducidos como servicios virtuales de TI escalados masivamente y manejados como recursos configurados y mancomunados de manera continua. Este modelo de arquitectura fue inmortalizado por George Gilder en su artículo de octubre 2006 en la revista Wired titulado «Las fábricas de información». Las granjas de servidores, sobre las que escribió Gilder, eran similares en su arquitectura al procesamiento “grid” (red, parrilla), pero mientras que las redes se utilizan para aplicaciones de procesamiento técnico débilmente acoplados (loosely coupled), un sistema compuesto de subsistemas con cierta autonomía de acción, que mantienen una interrelación continua entre ellos, este nuevo modelo de nube se estaba aplicando a los servicios de Internet.

lunes, 1 de abril de 2013

Inteligencia Artificial



Él termino "inteligencia artificial"
     fue acuñado formalmente en 1956 durante la conferencia de Darthmounth, más para entonces ya se había estado trabajando en ello durante cinco años en los cuales se había propuesto muchas definiciones distintas que en ningún caso habían logrado ser aceptadas totalmente por la comunidad investigadora. La AI es una de las disciplinas más nuevas que junto con la genética moderna es el campo en que la mayoría de los científicos " más les gustaría trabajar".
Una de las grandes razones por la cuales se realiza el estudio de la IA es él poder aprender más acerca de nosotros mismos y a diferencia de la psicología y de la filosofía que también centran su estudio de la inteligencia, IA y sus esfuerzos por comprender este fenómeno están encaminados tanto a la construcción de entidades de inteligentes como su comprensión.
El estudio de la inteligencia es una de las disciplinas más antiguas, por más de 2000 años los filósofos no han escatimado esfuerzos por comprender como se ve, recuerda y razona junto con la forma en que estas actividades deberían realizarse. Según John Mc Carthy la inteligencia es la "capacidad que tiene el ser humano de adaptarse eficazmente al cambio de circunstancias mediante el uso de información sobre esos cambios", pero esta definición resulta muy amplia ya que de acuerdo con esta, el sistema inmunológico del cuerpo humanó resultaría inteligente ya que también mediante el uso de información este logra adaptarse al cambio. Otra interesante manera de ilustrar la inteligencia seria recurrir a la teoría societal de la mente de Marvin Minsky donde cada mente humana es el resultado del accionar de un comité de mentes de menor poder que conversan entre sí y combinan sus respectivas habilidades con el fin de resolver problemas.

se denomina inteligencia artificial (IA) a la capacidad de razonar de un agente no vivo.John McCarthy, acuñó el término en 1956, la definió: "Es la ciencia e ingeniería de hacer máquinas inteligentes, especialmente programas de cómputo inteligentes." .


Inteligencia artificial computacional
    La Inteligencia Computacional (también conocida como IA subsimbólica-inductiva) implica desarrollo o aprendizaje interactivo (por ejemplo, modificaciones interactivas de los parámetros en sistemas conexionistas). El aprendizaje se realiza basándose en datos empíricos
Inteligencia artificial convencional
Se conoce también como IA simbólico-deductiva. Está basada en el análisis formal y estadístico del comportamiento humano ante diferentes problemas:
  • Razonamiento basado en casos: Ayuda a tomar decisiones mientras se resuelven ciertos problemas concretos y aparte de que son muy importantes requieren de un buen funcionamiento.
  • Sistemas expertos: Infieren una solución a través del conocimiento previo del contexto en que se aplica y ocupa de ciertas reglas o relaciones.
  • Redes bayesianas: Propone soluciones mediante inferencia probabilística.
  • Inteligencia artificial basada en comportamientos: que tienen autonomía y pueden auto-regularse y controlarse para mejorar.
  • Smart process management: facilita la toma de decisiones complejas, proponiendo una solución a un determinado problema al igual que lo haría un especialista en la actividad.

Concepto, Características y Metodologías de La Inteligencia Artificial:


Concepto:
    La Inteligencia Artificial es una combinación de la ciencia del computador, fisiología y filosofía, tan general y amplio como eso, es que reune varios campos (robótica, sistemas expertos, por ejemplo), todos los cuales tienen en común la creación de máquinas que pueden pensar.

La de idea construir una máquina que pueda ejecutar tareas percibidas como requerimientos de inteligencia humana es un atractivo. Las tareas que han sido estudiadas desde este punto de vista incluyen juegos, traducción de idiomas, comprensión de idiomas, diagnóstico de fallas, robótica, suministro de asesoría 
experta en diversos temas.





Características de la Inteligencia Artificial:

  1.     Una característica fundamental que distingue a los métodos de Inteligencia Artificial de los métodos numéricos es el uso de símbolos no matemáticos, aunque no es suficiente para distinguirlo completamente. Otros tipos de programas como los compiladores y sistemas de bases de datos,también procesan símbolos y no se considera que usen técnicas de Inteligencia Artificial.
  2. El comportamiento de los programas no es descrito explícitamente por el algoritmo. La secuencia de pasos seguidos por el programa es influenciado por el problema particular presente. El programa especifica cómo encontrar la secuencia de pasos necesarios para resolver un problema dado (programa declarativo). En contraste con los programas que no son de Inteligencia Artificial, que siguen un algoritmo definido, que especifica, explícitamente, cómo encontrar las variables de salida para cualquier variable dada de entrada (programa de procedimiento).
  3. Las conclusiones de un programa declarativo no son fijas y son determinadas parcialmente por las conclusiones intermedias alcanzadas durante las consideraciones al problema específico. Los lenguajes orientados al objeto comparten esta propiedad y se han caracterizado por su afinidad con la Inteligencia Artificial.
  4. El razonamiento basado en el conocimiento, implica que estos programas incorporan factores y relaciones del mundo real y del ámbito del conocimiento en que ellos operan. Al contrario de los programas para propósito específico, como los de contabilidad y cálculos científicos; los programas de Inteligencia Artificial pueden distinguir entre el programa de razonamiento o motor de inferencia y base de conocimientos dándole la capacidad de explicar discrepancias entre ellas.
  5. Aplicabilidad a datos y problemas mal estructurados, sin las técnicas de Inteligencia Artificial los programas no pueden trabajar con este tipo de problemas. Un ejemplo es la resolución de conflictos en tareas orientadas a metas como en planificación, o el diagnóstico de tareas en un sistema del mundo real: con poca información, con una solución cercana y no necesariamente exacto             
Diferentes metodologías:

1.     La lógica difusa: permite tomar decisiones bajo condiciones de incerteza.

2.Redes neuronales: esta tecnología es poderosa en ciertas tareas como la clasificación y el reconocimiento de patrones. Está basada en el concepto de "aprender" por agregación de un gran número de muy simples elementos.

Este modelo considera que una neurona puede ser representada por una unidad binaria: a cada instante su estado puede ser activo o inactivo. La interacción entre las neuronas se lleva a cabo a través de sinapsis. Según el signo, la sinapsis es excitadora o inhibidora.
El perceptrón está constituido por las entradas provenientes de fuentes externas, las conexiones y la salida. En realidad un perceptrón es una Red Neuronal lo más simple posible, es aquella donde no existen capas ocultas.

Para cada configuración de los estados de las neuronas de entrada (estímulo) la respuesta del perceptrón obedece a la siguiente dinámica: se suman los potenciales sinápticos y se comparan con un umbral de activación. Esta suma ponderada es también llamada campo. Si el campo es mayor que un umbral, la respuesta de la neurona es activa, si no, es inactiva.
Con una arquitectura tan simple como la del perceptrón no se puede realizar más que una clase de funciones "booleanas" muy simples, llamadas linealmente separables. Son las funciones en las cuales los estados de entrada con salida positiva pueden ser separados de aquellos a salida negativa por un hiperplano. Unhiperplano es el conjunto de puntos en el espacio de estados de entrada, que satisfacen una ecuación lineal. En dos dimensiones, es una recta, en tres dimensiones un plano, etc..


Experiencia Habilidades y Conocimientos:

     Los tipos de experiencia que son de interés en los sistemas basados en
conocimiento, pueden ser clasificados en tres categorías: asociativa, motora y teórica.

Los sistemas basados en conocimiento son excelentes para representar conocimiento asociativo. Este tipo de experiencia refleja la habilidad heurística o el
conocimiento que es adquirido mayoritariamente, a través de la observación. Puede ser que no se comprenda exactamente lo que ocurre al interior de un sistema (caja negra), pero se pueden asociar entradas o estímulos con salidas o respuestas, para resolver problemas que han sido previamente conocidos.