UNLP
Planilla de Actividades Curriculares
Código: E0309
Arquitecturas Avanzadas de Procesadores
Última Actualización de la Asignatura: 05/06/2014

« Volver a asignaturas Carrera:     cursada el año:  , en el  Semestre  
Ver en cátedras »


CARRERAS PARA LAS QUE SE DICTA

Carrera Plan Carácter Cantidad de Semanas Año Semestre
03032 - Ingeniería en Computación 2011 Optativa
Totales: 0
Clases:
Evaluaciones:
4to Desde el 8º  info
-

CORRELATIVIDADES
Ingeniería en Computación - Plan 2011
PARA CURSAR PARA PROMOCIONAR
(I0109) Taller de Arquitectura
(I0109) Taller de Arquitectura

INFORMACIÓN GENERAL 

Área:
Departamento: 0

Ingeniería en Computación - 2011 plegar-desplegar

Tipificación: Tecnologicas Aplicadas

CARGA HORARIA

HORAS CLASE
TOTALES: 0hs SEMANALES: 0 hs
TEORÍA
-
PRÁCTICA
-
TEORÍA
0 hs
PRÁCTICA
0 hs

FORMACIÓN PRÁCTICA
Formación Experimental
0 hs
Resol. de Problemas abiertos
0 hs
Proyecto y Diseño
0 hs
PPS
0 hs

TOTALES CON FORMACIÓN PRÁCTICA: 0 hs

HORAS DE ESTUDIO ADICIONALES A LAS DE CLASE (NO ESCOLARIZADAS)
TEORÍA

-

PRÁCTICA

-


PLANTEL DOCENTE

No se ha actualizado el plantel docente aún.

OBJETIVOS

PROGRAMA SINTÉTICO

PROGRAMA ANALÍTICO 

Año: 2017, semestre: 1

Vigencia: 01/01/2011 - Actualidad

CONTENIDOS ANALÍTICOS:

1.- Conceptos generales sobre rendimiento del computador: Definicion basada en tiempo de ejecución y productividad. Ciclos de reloj por instrucción, y demás componentes del rendimiento. Discusión y ejemplos comparativos. Aceleración del tiempo de ejecución y formas de obtenerla: mejoras tecnológicas, mejoras en arquitectura y en organización; y empleo de la computación en paralelo. La jerarquía de las memorias y su importancia.



2.- El procesamiento en “pipeline” (segmentación): conceptos básicos, cálculo de la mejora que introduce; aceleración, rendimiento y productividad. Clasificación de sistemas en “pipeline”. Ejemplos de “pipelines” operativos y “pipelines” de instrucciones. Análisis de las limitaciones del “pipeline” real: riesgos y sus distintos tipos: por dependencia de datos, por dependencia de control, por colisiones. Análisis de casos en procesadores típicos.



3.- Computadores de Conjunto de Instrucciones Reducido (“RISC”). Consideraciones preliminares: características de ejecución de las instrucciones, uso de gran número de registros y ventanas de registros; optimización del uso de registros por medio del compilador. Arquitectura RISC y sus características. Ejemplos. “Pipelines” en arquitecturas RISC, saltos “retardados” y otros modos de mejorar el comportamiento de las transferencias de control. La controversia RISC-CISC.



4.- Otros avances en arquitectura y organización: Procesadores en Super “Pipeline” y Procesadores “Superescalares”. Recursos para mejorar las prestaciones. Ventajas y limitaciones. Consideraciones de diseño: ordenamiento de instrucciones; predicción de ramificaciones. Ejemplos típicos.



5.- Introducción a la Computación en Paralelo. Conceptos generales sobre las diversas formas de paralelismo. Niveles de procesamiento paralelo: entre tareas o programas; entre procedimientos de un mismo programa; entre instrucciones, y entre actividades elementales de una misma instrucción. Paralelismo y granularidad. Clasificación de FLYNN para sistemas computadores: análisis comparativo de los diferentes tipos.



6.- Computadores vectoriales y matriciales. Principio general, arquitectura y organización de super computadores vectoriales basados en “pipelines”. Análisis de ejemplos típicos y de su influencia sobre la evolución de las arquitecturas. Computadores matriciales del tipo SIMD: diferencias con los computadores “vectoriales”. Estructuras básicas. Formas de distribuir datos en memoria para mejor uso del paralelismo. Algoritmos típicos. Consideraciones sobre rendimiento y ley de Amdahl.



7.- Arquitecturas paralelas MIMD. Multiprocesadores y Multicomputadores. Problemas que afectan esos sistemas: otros aspectos de la ley de Amdahl. Redes de interconexión y sus parámetros característicos. Problemas de sincronización. Sistemas de multiprocesadores con memoria compartida: características, tipos y ejemplos: SMP y NUMA. Multicomputadores: comunicación por pasaje de mensajes: primitivas de emisión y recepción. Procesadores especialmente diseñados para procesamiento paralelo por pasaje de mensajes: el “transputer” y el lenguaje OCCAM.



8.- Paralelismo en redes de computadores. Bibliotecas de funciones de pasaje de mensajes: “PVM” (Parallel Virtual Machine) y “MPI” (Message Passing Interface); funciones de comunicación punto a punto y colectivas: principios del uso de esos recursos. Bases del diseño de algoritmos paralelos: partición, comunicación, aglomeración, y “mapping”. Creación de programas simples en ambientes MPI o PVM: ejemplos y práctica en una red disponible.

BIBLIOGRAFÍA

No hay información disponible

ACTIVIDADES PRÁCTICAS

METODOLOGÍA DE ENSEÑANZA

SISTEMA DE EVALUACIÓN

MATERIAL DIDÁCTICO

ACTIVIDAD LABORATORIO-CAMPO


Calle 1 y 47 - La Plata (B1900TAG) - Pcia. de Buenos Aires - Argentina - Tel: (54) (221) 425-8911     -     Contacto: sistemas@ing.unlp.edu.ar