martes, 27 de abril de 2010

Realidad virtual

Es un sitema tecnologico que se basa en el uso de ordenadores otros dispositivos que tiene como fin producir una apariencia de realidad que permita al usuario tener la sensacio de estar presente en ella

es una representacion de las cosas a traves de medios electronicos que nos da la sencasion de estar en una situacion real en la que podemos interactuar con lo que nos rodea.

Se consigue edinte la generacion por un ordenador de un conjunto de imagenes qu son conteplados por un usuario a traves de un casco provisto de visor especial.

Su aplicacion iniciada en videojuegos se ha extendido a campos com ola medicina simulaciones de vuelo, etc.

empezo a finales de los 60's para iuna clase de aviacion enEUA; en los 70's para efectos especiales en peliculas

Sin embargo la explosion fue en 1989 en el ATARI.

EQUIPO:
VISION.- cascos
PARA INERACTUAR: guants, vestidos,
AUDICION.- dos tipos de audifonos, los convenconale s los convolvotrón que tambien simulan la ubicacion dento del ambiente vrtual.
CABINAS DE SIMULACION

el equipo se divide en 3, entrada, factores de salida, otor de realidad.

jueves, 22 de abril de 2010

Las supercomputadoras son maquinas diseñadas especialmente para calculos que precisan billones de instrucciones por segundo.

Se introdujeron en los años 60's y fueron diseñadas por Seymour Cray que trabajaba en la compañia Control Data Corporation que era la mejor en el mercado durante esa epoca. Despues Cray forma su empresa Cray REsearch que se hizo ahora la lider en supercomputo. Para los años 80's entraron mas empresas dentr ode la competencia pero casi ninguna tuvo exito. En esta misma decada las maquinas tenian un estandar de entre 4 y 16 procesadores vectoriales que trabajaban en paralelo. PAra finales de la decada y principios de los 90's los procesadores vectoriales se cambiaron a sistemas de procesadores masivamente paralelos con miles de CPU ordinarios.

Por mucho años los unico clientes de laas supercomputadoras eran las agencias del gobierno que las usaban para la gran manipulación de datos como el pronostico del clima mundia, explotación petrolera y la investigacion sobre armas. Su uso es para problemas que involucran la fisica cuantica, investigacion del cambio climatico, modelado de moleculas, simulaciones fisicas e investigacion de armas y fusion nuclear.

CARACTERISTICAS.
Velocidad: millones de instrucciones de coma flotante por segundo.
Usuario: miles en entorno de redes muy amplias.
Tamaño: requieren de onstalaciones especiales y aire acondicionado adaptado industrialmente.
Uso: por dificultad solo para especialistas
Clientes: generalmetne centros de investigacion
Impacto social: el mas importante es en el campo de la investigacion porque arroja calculos a alta velocidad de procesamiento permitiendo calcular problemas con un margen de error muy bajo.
Costo: miles de millones de dolares.

TECNOLOGIAS USADAS:
Tecnologia de registros vectoriales.
Sistema Massively Parallel Processors
Computacion Distraida
Cuasi-Supercomputo

Ejemplos: Roadrunner, Virginia Tech, KanBalam(UNAM) y Jaguar(que es la mas rapida del momento segun la lista del TOP500, diseñada por Cray Inc.

NANOTECNOLOGIA

En la clase de nanotecnologia se hablo de todas las aplicaciones que se pueden tener gracias a la nanotecnologia.
grcaias a la nanotecnologia se pueden crear multiples cosas con microchips, que son extremadamente pequeños.
Con esto se dan grandes avances en la tecnologia porque miles de nanochips pueden crear y cambiar de forma y de color
con todo esto se van a ayudar grandes ramos de la ciencia como Química (Moleculares y computacional), Bioquímica,
Biología molecular, Física, Electrónica, Informática y Medicina.
Un ejemplo civil sera la creacion de celulares que se pueden mover y hacer distintas cosas casi con inteligencia artificial.
El ejemplo es el MORPH de Nokia

computo cuantico

Se basa en el uso de qubits en lugar d bits
maquina de turing indeterminista.

ORIGEN:
1981--> Paul Benioff.
en la computacion digital un bit puede tomar solo dos valores o ó 1
en la computacion cuantica, intervienen las leyes de a mecanica cuantica

PROBLEMAS:
Decorencia cuantica: perdida de caracter unitario de los pasos del algoritmo cuantico.
Escarabilidad: considerable incremento en qubits necesario para cualquier calculo que implica la correccion de errores.

HARDWARE: No hay un hardware ideal pero deben de cumplir arias condiciones conocidas como la lista Di Vizenzo.

CONDICIONES:
*Manener coherencia cuantica a lo largo del experimento
*se debe de leer el estado final del sistema tras el calculo
*tiene que haber una forma definida de aumentar elo numero de qubits poara tratar con problemas de mayor coste computacional.

SOFTWARE: algoritmos cuanticos que se basan en un margen de error conocido en las operaciones de base y tabajan reduciendo el margen de error a niveles exponencialmente pequeños, comparables al nivel de error de las maquinas actuales.

ALGORITMOS:

Algoritmo de Shor
Algoritmo de Grover
Algoritmo de Deutsch-Jozsa

Modelos:
computadora cuantica de Benioff
computadora cuantica de Feyman
computadora cuantica de Deutsch

CLUSTER

Grupo de computadoras que se conectan en forma de red a un nodo maestro que reparte las tareas que hay que realizar en ellas. Es un gupo de multiples ordenadotres unidos mediante una red de alta velocidad.

ORIGEN: se comenzo a utilizar a finales de los años 50 yu principios de los 60's. lo que le da fuerza son los procesadores baratos y redes de alta velocidad.

para que sirve? para realizar tareas costosas pero ue tardarias dias en una paquina persona. REDUCIR TIEMPOS!

Las aplicaciones paralelas escalables requieresn: buen rendimiendo, baja latencia, comunicaciones que dispongan de gran ancho de banda, redes escalables y acceso rapido de archivoss.

ALTO RENDIMIENTO: ejecutan tareas que requieren de gran capacidad computacional, grandes cantidades de memoria o ambas a la vez

ALTA DISPONIBILIDAD: provee disponibilidad y confiabilidad, tratan de brindar la maxima disponibilidad d elos servicios que ofrecen. a confiabilidad se provee mediante software que detecta fallos y premite recuperarse frente a ellos.

ALTA EFICIENCIA: ejecuntan la ayor cantidad de tareas en el menor tiempo posible. existe indepedencia de datos entre las tareas individuales.

COMPONENTES: nodos, sistemas operativo, conexiones de red, middleware, protocolos de comunicacion y servicios, aplicaciones, ambientes de programacion paralela