miércoles, 22 de julio de 2009

UNIVERSIDAD DE OCCIDENTE
Culiacán.Sin

Alumno:
Flores Montenegro Jesus Ricardo

Matricula:
0640605

Materia:
Arquitectura de Computadoras

Maestro:
Lic. Amado Castaño Ibarra


Grupo:
E-2



Tareas de Noveno Trimentre de
Arquitectura de Computadoras

Tarea 4

Indise...
<> SISTEMAS MULTIPROCESADORES:

-> Multitareas
-> MultiHebra.

<> Paralelismo y procesamiento de vector

<> Computadora con multiprocesador

->IBM DEEP BLUE

-> Super computadoras
cray

<>Clasificasion y caracteristicas multiprosesador.
_______________________________________________________

Sistemas Multiprocesadores

A inicios de 1981 los sistemas de multiprocesadores fueron introducidos en máquinas que jugaban al ajedrez. El objetivo inicial era lograr un aumento de la velocidad de proceso en un factor de 81#81 veces con 81#81 procesadores. El problema principal de este tipo de desarrollo fue el cómo dividir el árbol de búsqueda de variantes con tal de mantener a todos los procesadores ocupados en todo el tiempo de búsqueda evitando además búsqueda redundante.

Otro problema era la realización de debugging en este tipo de programas. Los procesadores funcionan en forma asíncrona y eventos que ocurren primero en un procesador y luego en otro pueden suceder en otro orden en otra simulación.

El programa OSTRICH fue el primero en participar en una competencia oficial de computadoras utilizando esta tecnología. Cinco computadoras serie Data General 16-bit Nova estaban conectadas mediante un paquete de comunicación de alta velocidad. En años subsiguientes 8 computadoras DG fueron utilizadas logrando un incremento de la velocidad de cálculo en un orden 5. Otros programas famosos que utilizaron multiproceso fueron CRAYBLITZ (1983 y 1984, procesador CRAY X-MP, 2 y 4 procesadores), CHESS CHALLENGER (1986, 20 microprocesadores 8086) y Deep Thought (1989, 3 procesadores de tecnología SUN y VLSI). DeepBlue para su match contra Kasparov utilizó un total de 2 frames RS6000 SP albergando 15 computadoras RS/6000 cada uno. Cada nodo contenía dos circuitos de ajedrez con 8 procesadores cada uno, lo que otorga en total 8x2x15x2 = 480 procesadores en el sistema completo.

Otra aplicación interesante de las máquinas multiprocesadores fue realizada por Thompson y Stiller a mediados de los 70, quienes desarrollaron mediante este tipo de hardware las bases de datos de finales para computadoras de ajedrez [71]. El procedimiento de sincronización y búsqueda con multiprocesadores se encuentra bastante detallado en [14]

Es una interconexión de dos o mas CPU con equipo de memoria y entrada-salida. El termino “procesador”, en multiprocesador, puede significar una unidad de procesamiento central (CPU) o un procesador de entrada-salida (IOP). Sin embardo, un sistema con una sola CPU y uno o mas IOP por lo general no se incluye en la definición de un sistema multiprocesador, a menos que los IOP tengan opciones computacionales comparables a una CPU como se define con mayor frecuencia, un sistema multiprocesador implica la existencia de múltiples CPU, aunque por lo general también habrá uno o mas IOP. Los multiprocesadores se clasifican como sistemas de flujo de instrucciones múltiple, flujo de datos múltiple (múltiple instruction stream, múltiple data stream, mimd).
Multiprocesadores se clasifican por la manera en que se organiza su memoria. Un sistema multiprocesador con memoria compartida común se clasifica como multiprocesador de memoria compartida. Esto no evita que cada procesador tenga su propia memoria local. De hecho, la mayoría de los procesadores de memoria compartida proporcionan una memoria cache con cada CPU. Además, hay una memoria común global que puede accesar todas las CPU. Por lo tanto, la información puede compartirse entre las CPU al colocarla en la memoria global común.

MULTIPROCESO:
Conocido como el uso de múltiples procesos concurrentes en un sistema en lugar de un único proceso en un instante determinado. Como la multitarea que permite a múltiples procesos compartir una única CPU, múltiples CPUs pueden ser utilizados para ejecutar múltiples hilos dentro de un único proceso.
El multiproceso para tareas generales es, a menudo, bastante difícil de conseguir debido a que puede haber varios programas manejando datos internos (conocido como estado o contexto) a la vez. Los programas típicamente se escriben asumiendo que sus datos son incorruptibles. Sin embargo, si otra copia del programa se ejecuta en otro procesador, las dos copias pueden interferir entre sí intentando ambas leer o escribir su estado al mismo tiempo. Para evitar este problema se usa una variedad de técnicas de programación incluyendo semáforos y otras comprobaciones y bloqueos que permiten a una sola copia del programa cambiar de forma exclusiva ciertos valores.














MULTITAREA:

(Software que se subdivide en distintas tareas que pueden ser ejecutadas de forma simultánea. En realidad trata de una simultaneidad aparente, puesto que el microprocesador dedica a cada trabajo una fracción de segundo; algo, por otra parte, inapreciable para el ser humano. Los recursos y el tiempo pueden ser asignados de forma igualitaria o estableciendo correcciones según un orden de prioridades. La multitarea es una característica típica de sistemas como OS/2 o Unix.

Tipos de multitarea
Cooperativa
Los procesos de usuario son quienes ceden la CPU al sistema operativo a intervalos regulares. Muy problemática, puesto que si el proceso de usuario se interrumpe y no cede la CPU al sistema operativo, todo el sistema estará trabado, es decir, sin poder hacer nada. Da lugar también a latencias muy irregulares, y la imposibilidad de tener en cuenta este esquema en sistemas operativos de tiempo real.

Preferente El sistema operativo es el encargado de administrar el/los procesador(es), repartiendo el tiempo de uso de este entre los procesos que estén esperando para utilizarlo. Cada proceso utiliza el procesador durante cortos períodos de tiempo, pero el resultado final es prácticamente igual que si estuviesen ejecutándose al mismo tiempo. Ejemplos de sistemas de este tipo serían Unix y sus derivados (FreeBSD, GNU/Linux), VMS y derivados, AmigaOS, Windows NT.

Real Sólo se da en sistemas multiprocesador. Es aquella en la que varios procesos se ejecutan realmente al mismo tiempo, en distintos microprocesadores. Suele ser también preferente. Ejemplos de sistemas operativos con esa capacidad: variantes Unix, GNU/Linux, Windows NT, Mac OS X, etc.
En otras palabras
Los sistemas operativos multitarea son capaces de dar servicio a más de un usuario a la vez, ya sea por medio de varias terminales conectadas a la computadora o por medio de sesiones remotas en una red de comunicaciones. No importa el número de procesadores en la máquina ni el número de procesos que cada usuario puede ejecutar simultáneamente. En esta categoría se encuentran todos los sistemas que cumplen simultáneamente las necesidades de dos o más usuarios, que comparten mismos recursos. Este tipo de sistemas se emplean especialmente en redes. En otras palabras consiste en el fraccionamiento del tiempo (timesharing).

MULTIHEBRA:
El concepto multihebra (”multithreading”) es de tipo lógico. Significa que un programa puede tener varias vías de ejecución que “pueden” ser independientes. Por ejemplo: Un procesador de texto puede tener una hebra que es utilizada por el usuario para escribir y otra, que a periodos de tiempo determinados, salva a disco el contenido de la memoria, obteniendo así una copia de seguridad. Según hemos visto, desde el punto de vista físico, lo que caracteriza a las diversas hebras de un proceso es que comparten ciertos recursos dentro del mismo; por ejemplo la memoria, los ficheros abiertos y las variables estáticas, mientras que mantienen independencia en los recursos que les permiten una ejecución independiente, por ejemplo su propia pila y el estado de los registros del procesador, que es salvado y restituido cada vez que la hebra es desactivada o activada.
Lo importante aquí es que desde un punto de vista lógico, las hebras corren de forma simultánea e independiente (lo que no impide que pueda existir cierta coordinación entre ellas, de forma que, por ejemplo, una puede esperar hasta que otra ha terminado cierto trabajo). Que esta “simultaneidad” sea o no real no es lo más importante. En cualquier caso, la percepción del usuario es que todas corren simultánea e independientemente.

PARALELISMO Y PROCESAMIENTO DE VECTOR
El paralelismo es una forma de computación en la cual varios calculos pueden realizarse simultaneamente, basado en el principio de dividir los problemas grandes para obtener varios problemas pequeños, que son posteriormente solucionados en paralelo. Hay varios tipos diferentes de paralelismo: nivel de bit, nivel de instrucción, de datos, and de tarea. El paralelismo ha sido empleado durante muchos años, sobretodo para la Computación de alto rendimiento.
Desde el punto de vista de un programa de ordenador, un array (matriz o vector) es una zona de almacenamiento contiguo, que contiene una serie de elementos del mismo tipo, los elementos de la matriz. Desde el punto de vista lógico un array se puede ver como un conjunto de elementos ordenados en fila (o filas y columnas si tuviera dos dimensiones). En principio, se puede considerar que todos los arrays son de una dimensión, la dimensión principal, pero los elementos de dicha fila pueden ser a su vez arrays (un proceso que puede ser recursivo), lo que nos permite hablar de la existencia de arrays multidimensionales, aunque los más fáciles de imaginar son los de una, dos y tres dimensiones.


El procesamiento paralelo puede considerarse de diversos niveles de complejidad. En el nivel mas bajo, distinguimos entre operaciones seriales y paralelas mediante el tipo de registros que utilizan. Los registros de corrimiento operan en forma serial un bit a la vez, mientras que los registros con carga paralela operan con todos los bits de la palabra en forma simultánea.

Procesadores vectoriales memoria a memoria
Otro tipo de procesadores vectoriales permite que las operaciones realizadas con vectores se alimenten directamente de datos procedentes de la memoria hasta los pipelines vectoriales y que los resultados se escriban directamente en la memoria. Este tipo de procesadores se conocen con el nombre de procesadores vectoriales memoria a memoria. Dado que los elementos del vector necesitan venir de la memoria en lugar de proceder de un registro, se requiere más tiempo para conseguir que la operación vectorial comience a realizarse. Esto es debido en parte al coste del acceso a la memoria. Un ejemplo de procesador vectorial memoria a memoria era el CDC Cyber 205.
Debido a la capacidad de superponer el acceso a la memoria y la posible reutilización de los vectores ya utilizados, los procesadores vectoriales de registro vectorial suelen ser más eficientes que los procesadores vectoriales memoria a memoria. Sin embargo, a medida que la longitud de los vectores utilizados para un cálculo se incrementa, esta diferencia en el rendimiento entre los dos tipos de arquitecturas tiende a desaparecer. De hecho, los procesadores vectoriales memoria a memoria pueden llegar a ser más eficientes si la longitud de los vectores es lo suficientemente grande. Sin embargo, la experiencia ha demostrado que la longitud de los vectores suele ser mucho más corta de la necesaria para que esta situación llegue a producirse.

COMPUTADORA CON MULTIPROCESADOR
Un sistema operativo multiproceso se refiere al numeró de procesadores del sistema, que es más de uno y este es capaz de usarlos todos para distribuir su carga de trabajo.

IBM xSeries 430
Maneja arquitectura Intel
Procesamiento SMP
Numero máximo de procesadores 64 y un minimo de 4
Memoria que puede manejar de 1 a 64 GB
SUN ENTERPRISE 10000
Solo funciona con UNIX
Numero maximo de procesadores 36
Memoria RAM de 500 GB
Procesameinto SMP


SUN FIRE 6800
Numero maximo de procesadores 24
Memoria RAM 192 GB


SUN ENTERPRISE ULTRA 10s

Numero maximo de procesadores 4
Memoria RAM 18.2 GB
Procesamiento SMP
Funciona con varios sistemas operativos

IBM DEEP BLUE
Deep Blue fue una computadora de IBM que jugaba al ajedrez. Su nombre se podría traducir al español como “Azul Oscuro” o “Azul Profundo”.
La segunda de las traducciones es más acertada, ya que se emplea un algoritmo de inteligencia artificial de la familia Minimax. La fuerza de juego de estos programas de juego automático es mayor cuanto mayor sea la profundidad (número de movimientos futuros) hasta la que llega la exploración, y por tanto mayor el número de nodos. De este modo, el nombre Deep Blue es un juego de palabras que relaciona el azul (color corporativo de IBM) con la gran profundidad de exploración gracias a la potencia de su hardware.
Deep Blue fue mejorando y jugó de nuevo contra Kasparov en mayo de 1997, ganando el encuentro a 6 partidas por 3′5-2′5, lo que lo convirtió en la primera computadora en derrotar a un campeón del mundo vigente, en un encuentro con ritmo de juego de torneo estándar. El encuentro concluyó el 11 de mayo. El sistema saca su fuerza de juego principalmente en la fuerza bruta que calcula el sistema central. Era una potencia paralela, de 30 nodos, RS/6000, SP-based el sistema informático realzado(mejorado) con 480 VLSI con el objetivo especial de jugar al ajedrez. Su programa de juego de ajedrez fue escrito en C y corrió bajo el sistema operativo AIX. Era capaz de calcular 200 millones de posiciones por segundo, dos veces más rápido que la versión de 1996. En junio de 1997, Deep Blue era el 259 superordenador más poderoso, capaz de calcular 11.38 gigaflops, aunque toda esta potencia no estaba pensada en realidad para jugar al ajedrez.

SUPERCOMPUTADORA CRAY
Cuenta con sus 216 procesadores AMD Opteron Dual Core 2.2Ghz, tiene un poder de procesamiento de 0.95 TFlops, capaz de realizar 950,000,000,000 operaciones en aritmética de punto flotante (sumas o multiplicaciones con números reales) en un segundo.
Este equipo también posee una capacidad de almacenamiento central de 4 Tbytes. Almacenamiento equivalente a 4,000,000,000,000 de caracteres.
La supercomputadora Cray XD1 combina sistemas avanzados de interconexión, administración y tecnología computacional reconfigurable que satisface de manera confiable las demandas de procesamiento de alto rendimiento. Diseñada para cumplir con los requerimientos de cómputo de alto rendimiento (HPC) en áreas que van del diseño de productos, a predicción del clima, e investigaciones científicas. La Cray XD1 es una poderosa herramienta para científicos e ingenieros que les permite simular y analizar problemas de mayor complejidad de forma rápida.
La Cray XD1 esta basada en la arquitectura de “Conexión Directa entre Procesadores (DCP)” lo que permite interconectar muchos procesadores como uno solo, optimizando las aplicaciones que hacen uso del envío de mensajes, enlazando un bloque de procesadores al siguiente a través de interconexiones (propietarias) de alto desempeño, eliminando la contención de la memoria compartida y de los cuellos de botella en los dispositivos PCI.
La Cray XD1 es un sistema modular cuya unidad base es el chasis. En un gabinete se pueden instalar hasta 12 chasis, integrando múltiples gabinetes es posible integrar cientos de procesadores en un único sistema.

CLASIFICACION Y CARACTERISTICAS DE MULTIPROCESADOR

Multiprocesador: es un unico computador que incluye multiples procesadoes.
Los procesadores se pueden comunicar y cooperar a diferentes niveles para resoslver un problema dado: esta comunicación se puede realizar:
* Enviando mensajes de un procesador a otro
* Compartiendo una memoria comun

Clasificación en función de la organizaciónde la memoria– Uniform Memory Access (UMA)– NonUuniform Memory Access (NUMA)– Message Passing Machines (MPM)• Emulación de Multiprocesadores• Mercado actual
La memoria es determinante en un sistemacon tanto ancho de banda de memoria(ABmem)– El ABmem de 1 sólo procesador es muy grande– La memoria puede servir para comunicarseentre los procesadores• UMA (Uniform Memory Access)– Espacio de direcciones de memoria compartido– Tiempo de acceso uniforme para toda dirección– Hardware bastante simple.– El cuello de botella es el acceso a memoriaprincipal, lo cual implica:• Grandes cachés en cada procesador• El número de procesadores no puede ser muyalto. Hoy en día N≤32
Las características del equipo son las siguientes:
HARDWARE

216 Procesadores AMD Opteron 275, x8664, 2.2 GHzz
216 Gbytes DDR 400 registered ECC de memoria RAM Total
4 Tbytes de almacenamiento principal
1 Tbyte de registros de memoria accesibles por procesador
Interconexion tipo Rapid Array Interconnect
1.7 µs Latencia MPI entre procesadores
Rendimiento Teórico Pico 0.95TFlops

Bibliografia:
http://es.wikipedia.org/wiki/Multiprocesos

Tarea 3

Diferencias CISC y RISC

Veamos primero cual es el significado de los términos CISC y RISC:

  • CISC (complex instruction set computer) Computadoras con un conjunto de instrucciones complejo.
  • RISC (reduced instruction set computer) Computadoras con un conjunto de instrucciones reducido.
Los atributos complejo y reducido describen las diferencias entre los dos modelos de arquitectura para microprocesadores solo de forma superficial. Se requiere de muchas otras características esenciales para definir los RISC y los CISC típicos. Aun más, existen diversos procesadores que no se pueden asignar con facilidad a ninguna categoría determinada.

Así, los términos complejo y reducido, expresan muy bien una importante característica definitiva, siempre que no se tomen solo como referencia las instrucciones, sino que se considere también la complejidad del hardware del procesador.

Con tecnologías de semiconductores comparables e igual frecuencia de reloj, un procesador RISC típico tiene una capacidad de procesamiento de dos a cuatro veces mayor que la de un CISC, pero su estructura de hardware es tan simple, que se puede realizar en una fracción de la superficie ocupada por el circuito integrado de un procesador CISC.


ARQUITECTURAS CISC

La microprogramación es una característica importante y esencial de casi todas las arquítecturas CISC.

Como por ejemplo:

Intel 8086, 8088, 80286, 80386, 80486.
Motorola 68000, 68010, 68020, 68030, 6840.

La microprogramación significa que cada instrucción de máquina es interpretada por un microprograma localizado en una memoria en el circuito integrado del procesador.

En la década de los sesentas la micropramación, por sus características, era la técnica más apropiada para las tecnologías de memorias existentes en esa época y permitía desarrollar también procesadores con compatibilidad ascendente. En consecuencia, los procesadores se dotaron de poderosos conjuntos de instrucciones.

Las instrucciones compuestas son decodificadas internamente y ejecutadas con una serie de microinstrucciones almacenadas en una ROM interna. Para esto se requieren de varios ciclos de reloj (al menos uno por microinstrucción).


ARQUITECTURAS RISC

Buscando aumentar la velocidad del procesamiento se descubrió en base a experimentos que, con una determinada arquitectura de base, la ejecución de programas compilados directamente con microinstrucciones y residentes en memoria externa al circuito integrado resultaban ser mas eficientes, gracias a que el tiempo de acceso de las memorias se fue decrementando conforme se mejoraba su tecnología de encapsulado.

Debido a que se tiene un conjunto de instrucciones simplificado, éstas se pueden implantar por hardware directamente en la CPU, lo cual elimina el microcódigo y la necesidad de decodificar instrucciones complejas.

En investigaciones hechas a mediados de la década de los setentas, con respecto a la frecuencia de utilización de una instrucción en un CISC y al tiempo para su ejecución, se observó lo siguiente:

- Alrededor del 20% de las instrucciones ocupa el 80% del tiempo total de ejecución de un programa.

- Existen secuencias de instrucciones simples que obtienen el mismo resultado que secuencias complejas predeterminadas, pero requieren tiempos de ejecución más cortos.

Las características esenciales de una arquitectura RISC pueden resumirse como sigue:

  • Estos microprocesadores siguen tomando como base el esquema moderno de Von Neumann.
  • Las instrucciones, aunque con otras características, siguen divididas en tres grupos:

    a) Transferencia.
    b) Operaciones.
    c) Control de flujo.

  • Reducción del conjunto de instrucciones a instrucciones básicas simples, con la que pueden implantarse todas las operaciones complejas.
  • Arquitectura del tipo load-store (carga y almacena). Las únicas instrucciones que tienen acceso a la memoria son 'load' y 'store'; registro a registro, con un menor número de acceso a memoria.
  • Casi todas las instrucciones pueden ejecutarse dentro de un ciclo de reloj. Con un control implantado por hardware (con un diseño del tipo load-store), casi todas las instrucciones se pueden ejecutar cada ciclo de reloj, base importante para la reorganización de la ejecución de instrucciones por medio de un compilador.
  • Pipeline (ejecución simultánea de varias instrucciones). Posibilidad de reducir el número de ciclos de máquina necesarios para la ejecución de la instrucción, ya que esta técnica permite que una instrucción puede empezar a ejecutarse antes de que haya terminado la anterior.
El hecho de que la estructura simple de un procesador RISC conduzca a una notable reducción de la superficie del circuito integrado, se aprovecha con frecuencia para ubicar en el mismo, funciones adicionales:
  • Unidad para el procesamiento aritmético de punto flotante.
  • Unidad de administración de memoria.
  • Funciones de control de memoria cache.
  • Implantación de un conjunto de registros múltiples.
La relativa sencillez de la arquitectura de los procesadores RISC conduce a ciclos de diseño más cortos cuando se desarrollan nuevas versiones, lo que posibilita siempre la aplicación de las más recientes tecnologías de semiconductores. Por ello, los procesadores RISC no solo tienden a ofrecer una capacidad de procesamiento del sistema de 2 a 4 veces mayor, sino que los saltos de capacidad que se producen de generación en generación son mucho mayores que en los CISC.

Por otra parte, es necesario considerar también que:

  • La disponibilidad de memorias grandes, baratas y con tiempos de acceso menores de 60 ns en tecnologías CMOS.
  • Módulos SRAM (Memoria de acceso aleatorio estática) para memorias cache con tiempos de acceso menores a los 15 ns.
  • Tecnologías de encapsulado que permiten realizar más de 120 terminales.
Esto ha hecho cambiar, en la segunda mitad de la década de los ochentas, esencialmente las condiciones técnicas para arquítecturas RISC.

La siguiente tabla esquematiza algunas de las principales características de las arquítecturas RISC Y CISC.

Bibliografia

http://www.azc.uam.mx/publicaciones/enlinea2/num1/1-2.htm


Tarea 2

TIPOS DE COMPUTADORAS

Dentro de la evolución de las computadoras, han surgido diferentes equipos con diferentes tamaños y características según su tipo de labor. Los computadores son utilizados desde las plantas nucleares como controladores de labores de alto riesgo hasta la simple tarea de calentar la comida con el microondas.



SUPERCOMPUTADORA

Supercomputadoras ("paralelas")
Diseñadas para aplicaciones científicas, procesos complejos. Son los sistemas más grandes, rápidos y costosos del mundo de las computadoras.

Una supercomputadora es la computadora más potente disponible en un momento dado. Estas máquinas están construidas para procesar enormes cantidades de información en forma muy rápida. Las supercomputadoras pueden costar desde 10 millones hasta 30 millones de dólares, y consumen energía eléctrica suficiente para alimentar 100 hogares.
Historia de la Supercomputadoras
Las supercomputadoras tal como las hemos descrito haces su aparición a principios de la década de los ochenta. De manos de las norteamericanas Cray e IBM y de las japonesas Fujitsu, Hitachi y NEC, en 1985 ya funcionaban más de 150 unidades de esta clase, cada una de con un valor superior a los 10 millones de dólares. Hoy funcionan alrededor del mundo miles de estos equipos con valores levemente menores a 5 millones de dólares y que pueden superar los 40 millones de dólares según las características (cantidad de procesadores, memoria, equipos de entrada salida, unidades de almacenamiento externo, etc.)


MACROCOMPUTADORA

Macrocomputadoras “Mainframe”
Son sistemas que ofrecen mayor velocidad en el procesamiento y mayor capacidad de almacenaje que una mini computadora típica.
La computadora de mayor tamaño en uso común es el macrocomputadora. Las Macrocomputadoras (mainframe) están diseñadas para manejar grandes cantidades de entrada, salida y almacenamiento.



MINICOMPUTADORA

Al igual que las micros son de propósitos generales, pero mayormente son más poderosas y más costosas que las micros. En tamaño varían de un modelo de escritorio a una unidad del grande de un archivo.
La mejor manera de explicar las capacidades de una Minicomputadora es diciendo que están en alguna parte entre las de una macrocomputadora o mainframe y las de las computadoras personales. Al igual que las Macrocomputadoras, las Minicomputadoras pueden manejar una cantidad mucho mayor de entradas y salidas que una computadora personal. Aunque algunas minis están diseñadas para un solo usuario, muchas pueden manejar docenas o inclusive cientos de terminales.
En 1960 surgió la Minicomputadora, una versión más pequeña de la Macrocomputadora. Al ser orientada a tareas específicas, no necesitaba de todos los periféricos que necesita un MainFrames, y esto ayudó a reducir el precio y costo de mantenimiento. Las Minicomputadora, en tamaño y poder de procesamiento, se encuentran entre los MainFrames y las estaciones de trabajos.
En general, una Minicomputadora, es un sistema multiproceso (varios procesos en paralelo) capaz de soportar de 10 hasta 200 usuarios simultáneamente. Actualmente se usan para almacenar grandes bases de datos, automatización industrial y aplicaciones multiusuario.


MICROCOMPUTADORA

Son sistemas pequeños de propósitos generales. Pero pueden ejecutar las mismas operaciones y usar las mismas instrucciones de muchos sistemas grandes.
Estas pequeñas computadoras se encuentran comúnmente en oficinas, salones de clase y hogares. Las computadoras personales vienen en todas formas y tamaños. Modelos de escritorio El estilo de computadora personal más común es también el que se introdujo primero: el modelo de escritorio. Computadoras notebook Las computadoras notebook, como su nombre lo indica, se aproximan a la forma de una agenda. Las Laptop son las predecesoras de las computadoras notebook y son ligeramente más grandes que éstas. Asistentes personales digitales Los asistentes personales digitales (PDA) son las computadoras portátiles más pequeñas.
Las PDA también llamadas a veces palmtops, son mucho menos poderosas que los modelos notebook y de escritorio. Se usan generalmente para aplicaciones especiales, como crear pequeñas hojas de cálculo, desplegar números telefónicos y direcciones importantes, o para llevar el registro de fechas y agenda. Muchas pueden conectarse a computadoras más grandes para intercambiar datos.

BIBLIOGRAFÍA

--> http://html.rincondelvago.com/tipos-de-computadoras.html
http://www.monografias.com/trabajos/computacion/computacion.shtml
http://coqui.metro.inter.edu/cedu6320/ssegarra/tipocomp.html
http://www30.brinkster.com/arnaizweb/supercomp/super.htmlefinición
http://pcweb.4t.com/historia_de_los_distintos_tipos_.htm
http://www.unicrom.com/Cmp_tipos_computadoras.asp
http://lenguajes-de-programacion.com/tipos-de-computadoras.shtml
http://www.ipcitec.freeservers.com/microcomp.html
http://www.geocities.com/cecati144/opermicropcs.htm
http://informatica.terra.com.br/
http://sistemasop.galeon.com/compu.html
http://www.conocimientosweb.net/dcmt/ficha3345.html

viernes, 8 de mayo de 2009

Tarea 1

Arquitectura Harvard
El término Arquitectura Harvard originalmente se refería a las arquitecturas de computadoras que utilizaban dispositivos de almacenamiento físicamente separados para las instrucciones y para los datos (en oposición a la Arquitectura de von Neumann). El término proviene de la computadora Harvard Mark I, que almacenaba las instrucciones en cintas perforadas y los datos en interruptores.
Todas las computadoras constan principalmente de dos partes, la CPU que procesa los datos, y la memoria que guarda los datos. Cuando hablamos de memoria manejamos dos parámetros, los datos en sí, y el lugar donde se encuentran almacenados (o dirección). Los dos son importantes para la CPU, pues muchas instrucciones frecuentes se traducen a algo así como "coge los datos de ésta dirección y añádelos a los datos de ésta otra dirección", sin saber en realidad qué es lo que contienen los datos.
En los últimos años la velocidad de las CPUs ha aumentado mucho en comparación a la de las memorias con las que trabaja, así que se debe poner mucha atención en reducir el número de veces que se accede a ella para mantener el rendimiento. Si, por ejemplo, cada instrucción ejecutada en la CPU requiere un acceso a la memoria, no se gana nada incrementando la velocidad de la CPU - este problema es conocido como 'limitación de memoria'.
Se puede fabricar memoria mucho más rápida, pero a costa de un precio muy alto. La solución, por tanto, es proporcionar una pequeña cantidad de memoria muy rápida conocida con el nombre de caché. Mientras los datos que necesita el procesador estén en la caché, el rendimiento será mucho mayor que si la caché tiene que obtener primero los datos de la memoria principal. La optimización de la caché es un tema muy importante de cara al diseño de computadoras.
La arquitectura Harvard ofrece una solución particular a este problema. Las instrucciones y los datos se almacenan en cachés separadas para mejorar el rendimiento. Por otro lado, tiene el inconveniente de tener que dividir la cantidad de caché entre los dos, por lo que funciona mejor sólo cuando la frecuencia de lectura de instrucciones y de datos es aproximadamente la misma. Esta arquitectura suele utilizarse en DSPs, o procesador de señal digital, usados habitualmente en productos para procesamiento de audio y video.



Bibliografias
http://es.wikipedia.org/wiki/Arquitectura_Harvard
http://www.terra.es/personal/fremiro/arquitectura.htm