SISD, SIMD, MISD, MIMD

En 1972 Michael Flynn, profesor de ingeniería eléctrica en la de la Universidad de Stanford, publicó un documento en donde escogió dos características de las computadoras y probó con las 4 combinaciones posibles. Dos estaban en la mente de todos, y las otras no.

Esta taxonomía es ampliamente conocida y aceptada. Describe las computadoras por como los flujos de instrucciones interactúan con los flujos de información.

Esta clasificación es:

 

Número de Flujos de Información

Número de Flujos de Instrucciones.

 

Uno solo

Múltiples

Uno solo

SISD

SIMD

Múltiples

MISD

MIMD


[notación]¬ S=single, M=multiple, I=instruction, D=data.

SISD (Single Instruction, Single Data)

Se refiere a las computadoras convencionales de Von Neuman. Ejemplo: PC’s.

En la categoría SISD están la gran mayoría de las computadoras existentes. Son equipos con un solo procesador que trabaja sobre un solo dato a la vez. A estos equipos se les llama también computadoras secuenciales.

SIMD (Single Instruction, Multiple Data)

Arreglo de procesadores. Cada procesador sigue el mismo conjunto de instrucciones; diferentes elementos de información son asignados a cada procesador. Utilizan memoria distribuida. Típicamente tienen miles procesadores simples. Son utilizadas en redes neuronales.

Las computadoras SIMD tienen una sola unidad de control y múltiples unidades funcionales. La unidad de control se encarga de enviar la misma instrucción a todas las unidades funcionales. Cada unidad funcional trabaja sobre datos diferentes. Estos equipos son de propósito específico, es decir, son apropiados para ciertas aplicaciones particulares, como por ejemplo el procesamiento de imágenes.

Existe controversia acerca de si realmente existen equipos de tipo MISD. Hay quienes argumentan que estos equipos no existen. Otras personas consideran que un grupo de equipos que trabaja sobre un solo dato se puede considerar como un sistema de tipo MISD.

Un ejemplo sería un conjunto de equipos que trata de factorizar un número primo muy grande utilizando diferentes algoritmos.

Ejemplos:

o Thinking Machines CM-2

o MassPar computers

o Procesador MMX

MIMD (Multiple Instruction, Multiple Data)

Múltiples computadoras y multiprocesadores. Las piezas de código distribuidas entre los procesadores. Los procesadores pueden ejecutar la misma o instrucción o diferentes instrucciones. Se puede decir que MIMD es un super conjunto de SIMD.

Diferentes elementos de información se asignan a diferentes procesadores. Pueden tener memoria distribuida o compartida.

Cada procesador MIMD corre casi independientemente de los otros.

Las computadoras MIMD pueden ser utilizadas en aplicaciones con información en paralelo o con tareas en paralelo.

En la categoría MIMD están los equipos con varios procesadores completos. Cada procesador tiene su propia unidad de control y su propia unidad funcional. Esta categoría incluye varios subgrupos: Equipos de memoria compartida, equipos de memoria distribuida y redes de computadores. Los equipos MIMD son de propósito general.

Ejemplos:

o SGI/Cray Power Challenge Array

o SGI/Cray Origin-2000

o HP/Convex SPP-2000

MISD (Multiple Instruction, Single Data)

No son usadas, y no son significativas.

Pipeline

Una pipeline es una serie de módulos que son capaces de ejecutar fases de instrucciones, si un procesador tiene dos pipelines puede ejecutar dos instrucciones en una sola fase en un momento dado, duplicando (otra vez en teoría) el rendimiento. En cada una de estas pipelines, se lanzan cada uno de los dos flujos resultados de efectuar o no el salto. Al cabo de un momento, cuando ya se sabe el resultado, se anula el pipeline erróneo y el otro continúa como si nada.

Tightly coupled

El Multiprocesamiento simétrico (symmetric multiprocessing / SMP) tiene un diseño simple pero aún así efectivo. En SMP, multiples procesadores comparten la memoria RAM y el bus del sistema. Este diseño es también conocido como estrechamente acoplado (tightly coupled), o todo compartido (shared everything).

D E F I N I C I O N.- El multiprocesamiento simétrico (SMP) es una arquitectura computacional paralela en la cual los procesadores múltiples hacen funcionar una sola copia del sistema operativo y comparten la memoria con otros recursos de una computadora. Todos los procesadores tienen el mismo acceso a la memoria, entradas y salidas e interrupciones externas.

El multiprocesamiento simétrico, es un tipo de computación que utiliza más de un solo procesador, que descansa en uno solo al final de un funcionamiento continuo desde una lengüeta giratoria de Arquitectura de Memoria Inmediata Coherente no Uniforme (ccNUMA) hacia unos sistemas de procesamiento paralelo menos ajustados y masivamente conectados que se dirigen a sistemas distribuidos tales como Beowulfs, los cuales son grupos de acomodamiento de PCs off-the-shelf los cuales están interconectados con una tecnología como Ethernet y que corren programas escritos para procesamientos paralelos.

Irónicamente tanto la fuerza (velocidad) y la debilidad (carecen de escalabilidad) del multiprocesamiento simétrico llegan de la característica más relevante: memoria compartida. En más de un lado, no hay necesidad de pasar mensajes, y pocas veces existen apariciones de memoria desigual, permitiendo a los sistemas de multiprocesamiento simétrico comunicarse y sincronizarse más rápidamente que otros sistemas de procesamiento paralelo. Note que es poco frecuente que en el cualificador haya recursos que no sean compartidos. En la mayoría de los sistemas de multiprocesamiento, cada procesador tiene su propia memoria inmediata Este es un estática RAM más cara que es requerida porque el principal acceso RAM dinámico es demasiado lento para mantenerse con la velocidad de los procesadores.

Esto, aún cuando, conlleva a un problema de coherencia inmediata cuando un procesador de multiprocesamiento simétrico (SMP) necesita para tener acceso a una dirección que puede estar almacenado en otra memoria inmediata del procesador. El problema es resuelto en el hardware. El direccionamiento deseado viene desde otra memoria inmediata del procesador, más que desde la memoria principal y el valor en la memoria inmediata original es invalidado.

Aunque esta solución es rápida, todavía se genera más gastos generales que en un sistema de procesador único, el cual es una razón que los sistemas de multiprocesamiento simétrico (SMP) puestos directamente no es proporcionalmente más grandes que los sistemas de procesador único. Esto es, la postura directa de dos procesadores es menos que dos veces la puesta directa de un procesador único y la puesta de cuatro procesadores es menos de dos veces que la de dos procesadores.

Para un número limitado de procesadores, el multiprocesamiento simétrico (SMP) todavía golpea los gastos generales requeridos por otras arquitecturas paralelas, haciendo que se requiera un alto grado de cooperación para las aplicaciones front-runner.

La memoria compartida también tiene un impacto en la codificación. Mientras que no haya la necesidad de pasar datos entre procesadores, es necesario evitar condiciones contrarias, las cuales el procesador resiste para tener acceso y transcribe los valores de datos que sobrescriben el trabajo de otros procesadores. Existe un limite de cómo varios procesadores de multiprocesamiento simétrico (SMP) pueden compartir el sistema operativo y los recursos de una computadora antes que la memoria y que la contienda del conductor imponga una ley de retornos decrecientes: Los límites superiores de sistemas de multiprocesamiento simétrico (SMP) para computadoras de mesa de uso normal que parecen ser cerca de ocho procesadores. Los sistemas de multiprocesamiento simétrico High-end y los sistemas de multiprocesamiento simétrico como los ccNUMA son más escalables.

Esencialmente, los sistemas ccNUMA son sistemas de multiprocesamiento simétrico SMP que son rotos dentro de los dominios de la memoria, con alguna memoria menos local que la de un multiprocesamiento simétrico puro. Para aplicaciones que no están conectadas estrechamente y caen en forma natural dentro de los dominios, puede que sea lo perfecto. Los sistemas ccNUMA Higher-end han sido hechos para escalar tanto como 64 nodos, con 128 procesadores. Sin embargo los sistemas de multiprocesamiento simétrico (SMP) no resisten los defectos. Si la operación de un procesador disminuye la coherencia de la memoria inmediata no está garantizada por mucho tiempo para el sistema operativo y la aplicación para el usuario. Es probable que los sistemas y las variables del usuario sean dejados en un estado sin resolver. Puede ser que haya apuntadores con valores que no tengan significado. En definitiva, uno de los nodos restantes es probable que tenga acceso a algo que causará una interrupción.

Una combinación de un sistema operativo, una tarjeta madre y procesadores debe estar configurada para funcionar los multiprocesamientos simétricos. En cuanto a software, el multiprocesamiento simétrico es soportado por las diversas variedades de Unix, Linux2.0 hacia delante, Sistema Operativo 9 de Mac, Sistema Operativo 2 Servidor Warp , Windows NT y Windows 2000 . No tiene soporte para MS-DOS, Windows 95 ó Windows 98. Las aplicaciones enlazadas pueden tomar ventaja de los multiprocesamiento simétricos que se incluyen en BackOffice Suites, de Microsoft Corp., Lotus Notes y los administradores de bases de datos SQL de Oracle, Sybase Inc. e Informix Corp.

Del lado del hardware, el multiprocesamiento simétrico puede ser implementado en arquitecturas Ultra SPARC, SPARCserver y PowerPC, y también por todo los circuitos integrados Intel, incluyendo desde los procesadores 486s hacia arriba.

Porque Intel es propietario de los estándares del Controlador de Interrupción Programables (APIC) éstos pueden ser utilizados para los multiprocesamiento simétricos (SMP), en cambio otros distribuidores de unidades centrales de procesamiento (CPU) que no pueden usarlo incluyen a la empresa Via Technologies la cual está ubicada en Taipei Taiwán, y la empresa Advanced Micro Devices Inc. la cual esta ubicada en Sunnyvale, California. En vez de esto, ellos se prestan soporte con el estándar sin patente OpenPIC para los procesadores Cyrix 6x86 de la empresa Via Technologies y los procesadores k6 de la empresa AMD.

Lightly coupled ( Procesamiento masivamente paralelo “MPP”)

Los sistemas MPP no comparten recursos, éstos están constituidos por un conjunto de nodos interconectados en modo "loosely coupled" (interconexión débil). Cada nodo posee la potencia computacional de un computador completo: procesador, memoria, entradas/salidas de disco y red (Figura 3). Los diferentes nodos se interconectan mediante un mecanismo de intercambio de mensajes. Sobre cada nodo se ejecuta un micro-sistema operacional o micro-Kernel. Puesto que cada nodo es "autónomo", el número de mensajes es muy limitado (lo contrario de los SMP) y por ende los buses de interconexión no constituyen, en este esquema, cuellos de botella.

De esta manera el número de nodos interconectados es en teoría ilimitado, en la práctica, se habla de centenas de nodos (de procesadores).

Esta nueva modalidad de multiprocesamiento es la piedra angular de los sistemas de ayuda a la decisión. La máquina OPUS (Open Parallel Unisys System) de Unisys, sin igual en el mercado, es un claro ejemplo de este nuevo tipo de computación paralela.

Su arquitectura permite incrementar el número de procesadores configurando así máquinas a la medida del problema que se desea resolver, sin que por ello se tengan cuellos de botella entre memoria y procesador o entre procesador y dispositivos de I/O, como suele ocurrir en los sistemas SMP. Los nodos trabajan conjuntamente para resolver queries complejos usuales de los DatawareHousings o de los contextos DSS. Todos los nodos son de propósito general. Un sistema así dimensionado tiene capacidad para soportar miles de usuarios y Terabytes de almacenamiento magnético. El sistema puede ser afinado según las necesidades de la Empresa, por ejemplo, algunos nodos puede ser dedicados a operaciones de bases de datos, mientras que otros son asignados a otras tareas específicas.

Programación vectorial

Para mostrar los conceptos que se encuentran detrás de un procesador vectorial, vamos a presentar en primer lugar una breve muestra de cómo programar operaciones vectoriales sobre códigos FORTRAN.

Un vector v, es una lista de elementos de la forma:

v = (v1, v2, v3,..., vn)T

La longitud del vector se define como el número de elementos en el vector, de forma que la longitud del vector v que acabamos de presentar es n. Cuando queremos representar un vector en un programa, se declara el vector como una matriz de una única dimensión. En FORTRAN, declararíamos el vector v mediante la expresión:

DIMENSION V (N)

En donde N es una variable entera que almacena el valor de la longitud del vector.

Dos vectores se pueden sumar simplemente sumando cada una de sus componentes, es decir:

s = x + y = (x1+ y1, x2+ y2, . . . , xn+yn)

En FORTRAN, la suma de vectores se puede realizar utilizando el siguiente código:

DO I=1, N

S (I) = X(I) + Y (I)

ENDDO

Donde s es el vector en el que se almacena la suma final, y S, X, e Y han sido declarados como matrices de dimensión N.

Elementos de la arquitectura vectorial

Una computadora vectorial contiene un conjunto de unidades aritméticas especiales denominadas pipelines. Estas pipelines superponen la ejecución de las diferentes partes de una operación aritmética sobre los elementos del vector, produciendo una ejecución más eficiente de la operación aritmética que se está realizando. En muchos aspectos, una pipeline es similar a una cadena de montaje de una fábrica de coches, en la que los distintos pasos de la fase de montaje de un automóvil, por ejemplo, se realizan en distintas etapas de la cadena.

Consideremos, por ejemplo, los pasos o etapas necesarias para realizar una suma en punto flotante en una máquina con hardware que emplee aritmética IEEE. Los pasos para realizar la operación s = x + y son:

1. Se comparan los exponentes de los dos números en punto flotante que se quieren sumar para encontrar cuál es el número de menor magnitud.

2. El punto decimal del número con menor magnitud se desplaza de forma que los exponentes de los dos números coincidan.

3. Se suman los dos números.

4. Se normaliza el resultado de la suma.

5. Se realizan los chequeos necesarios para comprobar si se ha producido algún tipo de excepción en punto flotante durante la suma, como un overflow.

6. Se realiza el redondeo.

Registros vectoriales

Algunas computadoras vectoriales, como el Cray Y-MP, contienen registros vectoriales. Un registro de propósito general o un registro de punto flotante contiene un único valor. Sin embargo, los registros vectoriales contienen en su interior muchos elementos de un vector al mismo tiempo. Por ejemplo, los registros vectoriales del Cray Y-MP contienen 64 elementos, mientras que los del Cray C90 contienen 128 elementos. Los contenidos de estos registros pueden ser enviados a (o recibidos por) una pipeline vectorial a razón de un elemento por paso temporal..

Registros escalares

Los registros escalares se comportan de la misma forma que los registros de punto flotante, conteniendo un único valor. Sin embargo, estos registros se configuran de tal forma que pueden ser utilizados por una pipeline vectorial. En este caso, el valor del registro se lee una vez cada t unidades de tiempo y se introduce en el pipeline, de la misma forma que cada elemento de un vector se introduce en cada paso en la pipeline vectorial. Esto permite que los elementos de un vector puedan realizar operaciones con elementos escalares. Por ejemplo, para calcular el resultado de la operación y = 2.5x, el valor 2.5 se almacena en un registro escalar y se introduce en la pipeline de multiplicación cada t unidades de tiempo para ser multiplicado por cada uno de los elementos de x y así obtener el resultado en el vector y.

Operaciones de dispersión y agrupamiento

Algunas veces sólo son necesarios algunos de los elementos de un vector para realizar un cálculo. La mayoría de los procesadores vectoriales están equipados para poder recoger los elementos necesarios de un vector (una operación de recogida) y colocarlos juntos en un vector o en un registro vectorial. Si los elementos que se utilizan presentan un patrón de espaciado regular, el espaciado entre los elementos que se van a recoger se denomina desplazamiento o stride. Por ejemplo, si se quieren extraer los elementos:

x1,x5,x9,x13 ,..., x4(n-1)+1

del vector

(x1, x2, x3, x4, x5, x6,...,xn)

para realizar algún tipo de operación vectorial, se dice entonces que el desplazamiento es igual a 4. Una operación de dispersión reformatea el vector resultante para que los elementos se encuentren espaciados correctamente. Las operaciones de dispersión y recogida también se pueden utilizar con datos que no se encuentran regularmente espaciados.

Procesadores vectoriales de registro vectorial

Si un procesador vectorial posee registros vectoriales, los elementos del vector que se van a procesar se cargan desde la memoria directamente en el registro vectorial utilizando una operación de carga vectorial. El vector que se obtiene a partir de una operación vectorial se introduce en un registro vectorial antes de que se pueda almacenar de nuevo en la memoria mediante una operación de almacenamiento vectorial. Esto permite que se pueda utilizar en otra operación sin necesidad de volver a leer el vector, y también permite que el almacenamiento se pueda solapar con otro tipo de operaciones. En este tipo de computadoras, todas las operaciones aritméticas ó lógicas vectoriales son operaciones registro a registro, es decir, sólo se realizan operaciones vectoriales sobre vectores que ya se encuentran almacenados en los registros vectoriales. Por este motivo, a estas computadoras se les conoce como procesadores vectoriales de registro vectorial. La figura 3 muestra la arquitectura de registros y pipelines de una computadora vectorial de registro vectorial. El número de etapas de cada pipeline se muestra entre paréntesis dentro de cada pipeline.

Procesadores vectoriales memoria a memoria

Otro tipo de procesadores vectoriales permite que las operaciones realizadas con vectores se alimenten directamente de datos procedentes de la memoria hasta los pipelines vectoriales y que los resultados se escriban directamente en la memoria. Este tipo de procesadores se conocen con el nombre de procesadores vectoriales memoria a memoria. Dado que los elementos del vector necesitan venir de la memoria en lugar de proceder de un registro, se requiere más tiempo para conseguir que la operación vectorial comience a realizarse. Esto es debido en parte al coste del acceso a la memoria. Un ejemplo de procesador vectorial memoria a memoria era el CDC Cyber 205.

Debido a la capacidad de superponer el acceso a la memoria y la posible reutilización de los vectores ya utilizados, los procesadores vectoriales de registro vectorial suelen ser más eficientes que los procesadores vectoriales memoria a memoria. Sin embargo, a medida que la longitud de los vectores utilizados para un cálculo se incrementa, esta diferencia en el rendimiento entre los dos tipos de arquitecturas tiende a desaparecer. De hecho, los procesadores vectoriales memoria a memoria pueden llegar a ser más eficientes si la longitud de los vectores es lo suficientemente grande. Sin embargo, la experiencia ha demostrado que la longitud de los vectores suele ser mucho más corta de la necesaria para que esta situación llegue a producirse.

Bancos de memoria entrelazados

Para permitir un acceso más rápido a los elementos vectoriales que se encuentran almacenados en la memoria, las memorias de los procesadores vectoriales se suelen dividir en bancos de memoria. Los bancos de memoria entrelazados asocian de forma sucesiva las direcciones de memoria con bancos sucesivos de forma cíclica. De esta forma, la palabra 0 se almacena en el banco 0, la palabra 1 se almacena en el banco 1, ..., la palabra n-1 se almacena en el banco n-1, la palabra n en el banco 0, la palabra n+1 en el banco 1,..., etc., en donde n es el número de bancos de memoria. Como sucede con muchas otras características de arquitectura de computadoras, n es normalmente una potencia de 2: n= 2k, donde k = 1, 2, 3 ó 4.

Un acceso a memoria (carga o almacenamiento) de un valor de datos en un banco necesita varios ciclos de reloj para llegar a completarse. Cada banco de memoria permite sólo que se lea o almacene un valor de los datos por cada acceso a memoria, mientras que se puede acceder a varios bancos de memoria de forma simultánea. Cuando los elementos de un vector que se almacena en una memoria entrelazada se trasladan al registro vectorial, las lecturas se reparten entre los bancos de memoria, de forma que un elemento vectorial es leído en cada banco por cada ciclo de reloj. Si un acceso a memoria precisa de n ciclos de reloj, entonces n elementos de un vector pueden ser leídos con el mismo coste del que sería necesario para un único acceso a memoria. Este procedimientos es n veces más rápido que el necesario para realizar el mismo número de accesos a memoria sobre un único banco.

Proceso masivo en paralelo ¬(Neurocomputación )

Proceso masivo en paralelo mediante redes neuronales artificiales. Permiten resolver problemas de forma adaptativa y no algorítmica. Adecuado para la resolución de problemas no estructurados: reconocimiento de voz, de patrones, corrección de errores, etc. Comienzan a aparecer neurocomputadores con coprocesadores asociados a ordenadores personales y estaciones de trabajo. También comienzan a estar disponibles lenguajes de alto nivel para la reconfiguración y redefinición de las redes neuronales.

Clustering

Clustering es el proceso de agrupar datos en clases o clusters de tal forma que los objetos de un cluster tengan una similaridad alta entre ellos, y baja (sean muy diferentes) con objetos de otros clusters.

La medida de similaridad está basada en los atributos que describen a los objetos.

Los grupos pueden ser exclusivos, con traslapes, probabilísticos, jerárquicos.

Clustering puede ser aplicado, por ejemplo, para caracterizar clientes, formar taxonomías, clasificar documentos, etc.

Retos:

-Escalabilidad: normalmente corren con pocos datos.

-Capacidad de manejar diferentes tipos de atributos: numéricos (lo más común), binarios, nominales, ordinales, etc.

-Clusters de formas arbitrarias: lo basados en distancias numéricas tienden a encontrar cluster esféricos.

-Requerimientos mínimos para especificar parámetros, como el número de clusters.

-Manejo de ruido: muchos son sensibles a datos erroneos.

-Independiendentes del orden de los datos.

-Poder funcionar eficientemente con alta dimensionalidad.

-Capacidad de añadir restricciones.

-Que los clusters interpretables y utilizables.

-La medida de similaridad se define usualmente por proximidad en un espacio multidimensional.

-Para datos numéricos, usualmente se pasa primero por un proceso de estandarización.

Ethernet

Arquitectura Ethernet
A finales de 1960, la universidad de hawai desarrolló una red de área amplia(WAN, Red que se extiende a través de un área geográfica mayor a una LAN). La universidad necesitaba conectar varias computadora que estaban esparcidas a través de su campus. La pieza principal en el diseño de la red fue llamado Carrier-Sense Multiple Access with Collision Detection (CSMA/CD). Carrier-Sense significa que la computadora escucha el cable de la red y espera hasta un periodo de silencio para poder mandar su mensaje. Multiple Access se refiere a que múltiples computadoras pueden estar conectadas en el mismo cable de red. Collision Detection es una protección contra mensajes chocando en el transito.

Este temprano diseño de red fue la fundación de lo que hoy es Ethernet. En 1972, Xerox Corporation creó el experimental Ethernet, y en 1975 introdujo el primer producto Ethernet. La versión original de este producto de red fue diseñado como un sistema de 2.94mbps(Megabits por segundos) conectando hasta 100 computadoras en un cable de un kilometro.

El Ethernet de Xerox fue tan existoso que Xerox, Intel y Digital crearon un standard para Ethernet de 10mbps. Este diseño fue la base de la especificación IEEE 802.3. El producto Ethernet se apega en la mayoria de las partes del standard 802.3.

El CSMA/CD funciona de la siguiente manera: cuando una computadora desea mandar información primero escucha el cable de la red para revisar que no se este usando en ese precioso momento (Carrier-Sense). Esto se oye muy sencillo, pero el problema reside en que dos o mas computadoras al escuchar que no se esta usando el cable pueden mandar el exacto mismo momento su información (Multiple Access), y como solamente puede haber uno y sólo un mensaje en tránsito en el cable se produce una colisión. Entonces las computadoras detectan la colisión y deciden reenviar su información a un intervalo al azar, es importante que sea al azar ya que si ambas computadoras tuvieran el mismo intervalo fijo se produciría un ciclo vicioso de colisiones y reenvíos (Collision Detection). Asi por ejemplo al detectar la colisión una computadora se espera tres milisegundos y la otra cinco milisegundos, siendo obvio que una computadora reenviara en primer lugar y la otra esperará a que el cable este de nuevo sin tránsito.

Evidentemente que en una misma red Ethernet al haber muchas computadoras tratando de enviar datos al mismo tiempo y/o al haber una transferencia masiva de datos se crea un gran porcentaje de colisiones y utilización. Si se pasa del 1% de colisiones y/o 15% de utilización de cable ya se dice que la red está saturada. Además, las señales de este tipo de red tienden a degradarse con la distancia debido a la resistencia, la capacidad u otros factores. Inclusive la señal todavia se puede distorsionar por las interferencias eléctricas exteriores generadas por los motores, las luces fluorecentes y otros dispositivos eléctricos. Cuanto más se aumenta la velocidad de transmisión de los datos. Más susceptible es la señal a degradarse. Por esta razón las normas de Ethernet especifican los tipos de cables, los protectores y las distancias del mismo, la velocidad de transmisión y otros detalles para trabajar y proporcionar un servicio relativamente libre de errores en la mayoría de los entornos.

Las redes Ethernet pueden utilizar diferentes tipos de cableado, cada uno con sus beneficios y problemas. Los tres cableados más comunes son Thinnet, Thicknet, y Twisted Pair (Par trenzado).

Thinnet ó 10Base2 puede transmitir datos a 10mbps por Banda Base(señales digitales), pudiendo llegar el cableado hasta 185 metros. Se utiliza cable coaxial RG-58 el cual es bastante barato por lo que a esta red también se le conoce como CheapNet. Un mismo segmento de cable puede soportar hasta 30 computadoras. Es el más utilizado y recomendado para redes pequeñas. Utiliza la topologia local bus, donde un mismo cable recorre todas y cada una de las computadoras.

Thicknet ó 10Base5 transmite datos a 10mbps por Banda Base en un cableado que puede alcanzar 500 metros. El cableado es grueso y es utilizado principalmente para largas oficinas o hasta todas las computadoras de un edificio. Del cable principal (backbone) salen cables usualmente Par Trenzado que se conectan a directamente a cada una de las computadoras. Se pueden conectar hasta 100 computadoras con este cableado en un mismo segmento.

Twisted Pair ó 10BaseT transmite datos a 10mbps por Banda Base y utiliza un Hub (concentrador)desde el cual con cable Par Trenzado se conecta cada una de las computadoras quedando en forma similar a estrella. El Hub queda en el centro de la estrella y funciona como "repetidor". El cable desde el Hub hasta la computadora no debe de medir más de 100 metros.

Topologías
Se diseñan redes Ethernet típicamente en dos configuraciones generales o topologías: "bus" y "estrella". Estas dos topologías definen cómo se conectan entre sí los "nodos". Un nodo es un dispositivo activo conectado a la red, como una computadora o una impresora. Un nodo también puede ser dispositivo o equipo de la red como un concentrador, conmutador o un router. Una topología de bus consiste en que los nodos se unen en serie con cada nodo conectado a un cable largo o bus. Muchos nodos pueden conectarse en el bus y pueden empezar la comunicación con el resto de los nodos en ese segmento del cable. Una rotura en cualquier parte del cable causará, normalmente, que el segmento entero pase a ser inoperable hasta que la rotura sea reparada.

REGRESAR A MENU PRINCIPAL