martes, 31 de mayo de 2011

La Raid



¿QUE ES LA RAID?
En informática, el acrónimo RAID (del inglés Redundant Array of Independent Disks, conjunto redundante de discos independientes, anteriormente conocido como Redundant Array of Inexpensive Disks, conjunto redundante de discos baratos) hace referencia a un sistema de almacenamiento que usa múltiples discos duros o SSD entre los que distribuyen o replican los datos. Dependiendo de su configuración (a la que suele llamarse «nivel»), los beneficios de un RAID respecto a un único disco son uno o varios de los siguientes: mayor integridad, mayor tolerancia a fallos, mayor throughout (rendimiento) y mayor capacidad. En sus implementaciones originales, su ventaja clave era la habilidad de combinar varios dispositivos de bajo coste y tecnología más antigua en un conjunto que ofrecía mayor capacidad, fiabilidad, velocidad o una combinación de éstas que un solo dispositivo de última generación y coste más alto.
En el nivel más simple, un RAID combina varios discos duros en una sola unidad lógica. Así, en lugar de ver varios discos duros diferentes, el sistema operativo ve uno solo. Los RAID suelen usarse en servidores y normalmente (aunque no es necesario) se implementan con unidades de disco de la misma capacidad. Debido al decremento en el precio de los discos duros y la mayor disponibilidad de las opciones RAID incluidas en los chipsets de las placas base, los RAID se encuentran también como opción en las computadoras personales más avanzadas. Esto es especialmente frecuente en las computadoras dedicadas a tareas intensivas y que requiera asegurar la integridad de los datos en caso de fallo del sistema. Esta característica no está obviamente disponible en los sistemas RAID por software, que suelen presentar por tanto el problema de reconstruir el conjunto de discos cuando el sistema es reiniciado tras un fallo para asegurar la integridad de los datos. Por el contrario, los sistemas basados en software son mucho más flexibles (permitiendo, por ejemplo, construir RAID de particiones en lugar de discos completos y agrupar en un mismo RAID discos conectados en varias controladoras) y los basados en hardware añaden un punto de fallo más al sistema (la controladora RAID).


NIVELES DE LA RAID

Raid 0
Un RAID 0 (también llamado conjunto dividido o volumen dividido) distribuye los datos equitativamente entre dos o más discos sin información de paridad que proporcione redundancia. Es importante señalar que el RAID 0 no era uno de los niveles RAID originales y que no es redundante. El RAID 0 se usa normalmente para incrementar el rendimiento, aunque también puede utilizarse como forma de crear un pequeño número de grandes discos virtuales a partir de un gran número de pequeños discos físicos. Un RAID 0 puede ser creado con discos de diferentes tamaños, pero el espacio de almacenamiento añadido al conjunto estará limitado por el tamaño del disco más pequeño (por ejemplo, si un disco de 300 GB se divide con uno de 100 GB, el tamaño del conjunto resultante será sólo de 200 GB, ya que cada disco aporta 100GB).

Raid 1

Un RAID 1 crea una copia exacta (o espejo) de un conjunto de datos en dos o más discos. Esto resulta útil cuando el rendimiento en lectura es más importante que la capacidad. Un conjunto RAID 1 sólo puede ser tan grande como el más pequeño de sus discos. Un RAID 1 clásico consiste en dos discos en espejo, lo que incrementa exponencialmente la fiabilidad respecto a un solo disco; es decir, la probabilidad de fallo del conjunto es igual al producto de las probabilidades de fallo de cada uno de los discos (pues para que el conjunto falle es necesario que lo hagan todos sus discos).


Raid 2

divide los datos a de bits en lugar de a nivel de bloques y usa un código de Hamming para la corrección de errores. Los discos son sincronizados por la controladora para funcionar al unísono. Éste es el único nivel RAID original que actualmente no se usa. Permite tasas de trasferencias extremadamente altas.
Teóricamente, un RAID 2 necesitaría 39 discos en un sistema informático moderno: 32 se usarían para almacenar los bits individuales que forman cada palabra y 7 se usarían para la corrección de errores.

 

Raid 3
Usa división a nivel de bytes con un disco de paridad dedicado. El RAID 3 se usa rara vez en la práctica. Uno de sus efectos secundarios es que normalmente no puede atender varias peticiones simultáneas, debido a que por definición cualquier simple bloque de datos se dividirá por todos los miembros del conjunto, residiendo la misma dirección dentro de cada uno de ellos. Así, cualquier operación de lectura o escritura exige activar todos los discos del conjunto, suele ser un poco lento porque se producen cuellos de botella. Son discos paralelos pero no son independientes (no se puede leer y escribir al mismo tiempo).

Raid 4
También conocido como IDA (acceso independiente con discos dedicados a la paridad) usa división a nivel de bloques con un disco de paridad dedicado. Necesita un mínimo de 3 discos físicos. El RAID 4 es parecido al RAID 3 excepto porque divide a nivel de bloques en lugar de a nivel de bytes. Esto permite que cada miembro del conjunto funcione independientemente cuando se solicita un único bloque. Si la controladora de disco lo permite, un conjunto RAID 4 puede servir varias peticiones de lectura simultáneamente. En principio también sería posible servir varias peticiones de escritura simultáneamente, pero al estar toda la información de paridad en un solo disco, éste se convertiría en el cuello de botella del conjunto.
En el gráfico de ejemplo anterior, una petición del bloque «A1» sería servida por el disco 0. Una petición simultánea del bloque «B1» tendría que esperar, pero una petición de «B2» podría atenderse concurrentemente.

Raid 5
Usa división de datos a nivel de bloques distribuyendo la información de paridad entre todos los discos miembros del conjunto. El RAID 5 ha logrado popularidad gracias a su bajo coste de redundancia. Generalmente, el RAID 5 se implementa con soporte hardware para el cálculo de la paridad. RAID 5 necesitará un minimo de 3 discos para ser implementado.

Raid 1+0
Aveces llamado raid 10, es parecido a un RAID 0+1 con la excepción de que los niveles RAID que lo forman se invierte: el RAID 10 es una división de espejos.
En cada división RAID 1 pueden fallar todos los discos salvo uno sin que se pierdan datos. Sin embargo, si los discos que han fallado no se reemplazan, el restante pasa a ser un punto único de fallo para todo el conjunto. Si ese disco falla entonces, se perderán todos los datos del conjunto completo. Como en el caso del RAID 0+1, si un disco que ha fallado no se reemplaza, entonces un solo error de medio irrecuperable que ocurra en el disco espejado resultaría en pérdida de datos.


domingo, 29 de mayo de 2011

Técnicas de codificación de caracteres

ASCII
ASCII (acrónimo inglés de American Standard Code for Information Interchange — Código Estadounidense Estándar para el Intercambio de Información), es un código de caracteres basado en el alfabeto latino, tal como se usa en inglés moderno y en otras lenguas occidentales. 

El código ascii reserva los primeros 32 códigos (numerados del 0 al 31 en decimal) para caracteres de control que son códigos no pensados originalmente para representar información imprimible, sino para controlar dispositivos (como impresoras) que usan ascii. por ejemplo el carácter 10 representa la función "nueva linea", que hace que una impresora avance el papel, y el carácter 27 representa la tecla "escape" que a menudo se encuentra en la esquina superior de los teclados comunes.

Muchos de los caracteres de control ASCII servían para marcar paquetes de datos, o para controlar protocolos de transmisión de datos.

UNICODE

El Estándar Unicode es un estándar de codificación de caracteres diseñado para facilitar el tratamiento informático, transmisión y visualización de textos de múltiples lenguajes y disciplinas técnicas además de textos clásicos de lenguas muertas. El término Unicode proviene de los tres objetivos perseguidos: universalidad, uniformidad y unicidad.

Unicode proporciona un método estándar para representar y manipular caracteres en soportes informáticos. La versión actual codifica 100.000 caracteres. UTFS es una parte del estándar unicode compatible con ASCII. Cada carácter esta representado por una secuencia de 1 a 4 octetos, de manera que incluye el alfabeto latino, griego, arábico, hebero.

FACTORIAL
Es una técnica de reducción de datos que sirve para encontrar grupos homogéneos de variables a partir de un conjunto numeroso de variables. Estos grupos homogéneos se forman con las variables que correlacionan mucho entre sí y procurando, inicialmente, que unos grupos sean independientes de otros.


jueves, 26 de mayo de 2011

Concepto de Dimm, Simm, Y Rimm.

DIMM

(Abreviatura para Dual in-line Memory Module o módulo de memoria lineal doble).
Tipo de memorias reemplazantes de las SIMM. Son utilizadas en computadoras personales. Son módulos de memoria Ram que se conectan directamente a la placa madre. Pueden reconocerse porque sus contactos para conectarse están separados en ambos lados (diferente de las SIMM que poseen los contactos de modo que los de un lado están unidos a los del otro). Son la evolución de los anteriores (SIMM) y cuentan con 168 contactos. El tiempo de respuesta en notablemente inferior, por debajo de los 10 nanosegundos.

Es el mas cómodo de todos de todos, dado que puede instalarse de manera individual, no siendo necesario hacer coincidir marcas y modelos sobre la misma placa. Para insertarlos sobre el banco de memoria, tan solo habrá que hacer coincidir las pestañas que encontraremos en el centro y laterales del módulo y presionar en los extremos del módulo para que este quede insertado.

SIMM
Simm (siglas de Single In-line Memory Module),Es un tipo de modulo de memoria usado para Rams en computadoras personales y que se insertan en zócalos SIMM de las placas madres compatibles para incrementar la memoria del sistema.es de circuitos a lo largo de un lado. Muchos transistores vienen en forma SIP. 


Primer tipo de modulo, actualmente no se utiliza. Modulo sumple de pauetes en linea. Un componente o módulo que tiene una fila de pquet
Características
1. ay 2 versiones de memoria SIMM, con 30 y con 72 terminales, siendo el segundo el sucesor.
2. Cuentan con una forma física especial,  para que al insertarlas, no haya riesgo de colocarla de manera incorrecta. Adicionalmente el SIMM de 72 terminales cuenta con una muesca en un lugar estratégico del conector.
3. La memoria SIMM de 30 terminales permite el manejo de 8 bits y la de 72 terminales 32 bits.
4. La medida del SIMM de 30 terminales es de 8.96 cm. de largo X 1.92 cm. de alto.
5. La medida del SIMM de 72 terminales es de 10.88 cm. de largo X 2.54 cm. de alto.
6. Pueden convivir en la misma tarjeta principal ("Motherboard") ambos tipos si esta tiene las ranuras necesarias para ello.

 RIMM
Proviene de ("Rambus In line Memory Module"), son un tipo de memorias RAM del tipo RDRAM ("Rambus Dynamic Random Access Memory"): es decir, también  están basadas en almacenamiento por medio de capacitores), que integran circuitos integrados y en uno de sus lados tienen las terminaciones, que sirven para ser insertadas dentro de las ranuras especiales para memoria de la tarjeta principal (Motherboard) .También se les denomina DIMM tipo RIMM, debido a que cuentan con conectores físicamente independientes por ambas caras como el primer estándar DIMM.

Se utilizan para montar memoria de tipo Rambus. Este tipo de memoria, apoyado por intel y crado por la empresa Rambus, exige a los fabricantes el pago de royalties en concepto de uso, razon por la cual, salvo intel, el resto de empresas del sector se decantan por la utilización de otras memorias.
Características
1. Este tipo de memorias siempre deben ir por pares, no funcionan si se coloca solamente un módulo de memoria.
2. Todos las memorias RIMM cuentan con 184 terminales.
3. Cuentan con 2 muescas centrales en el conector, para que al insertarlas, no haya riesgo de colocarlas de manera incorrecta.
4. La memoria RIMM permite el manejo de 16 bits.
5. Tiene una placa metálica sobre los chips de memoria, debido a que estos tienden a calentarse mucho y esta placa actúa como disipador de calor.
6. Como requisito para el uso del RIMM es que todas las ranuras asignadas para ellas estén ocupadas.







Memoria Ram

¿ Qué es una memoria Ram?

Son las siglas de random access memory, un tipo de memoria de ordenador a la que se puede acceder aleatoriamente; es decir, se puede acceder a cualquier byte de memoria sin acceder a los bytes precedentes. La memoria RAM es el tipo de memoria más común en ordenadores y otros dispositivos como impresoras.

Es donde el ordenador guarda los cambios, los datos que esta utilizando en el momento presente. Se llama de accedo aleatorio porque el procesador accede a la información que esta en la memoria en cualquier punto sin tener que acceder a la información anterior y posterior.

Es la memoria que se actualiza constantemente mientras el ordenador esta en uso y que pierde sus datos cuando el ordenador se apaga.

¿ En qué consiste la segmentación de la Ram?

Divide la memoria por segmentos, cada uno de los cuales tiene una longitud variable que esta definida  intrínsecamente por el tamaño de ese segmento del programa. Los elementos dentro de un segmento están identificados por su desplazamiento con respecto al inicio del segmento: la primera instrucción del programa, la séptima entrada de la pila, la quinta instrucción de la función Sqrt(), etc.

¿ Cómo se fabrican las Memorias Ram?

Son fabricadas en obleas, en instalaciones 100 veces mas limpias que un hospital, tarda mas de un mes para hacer un chip de memoria, cada oblea se mueve a través de más de 800 procesos diferentes. Las tarjetas son ensambladas con hilos de oro sólido que no es mucho mayor que el diámetro de un cabello humano.


Tecnología de los Buses


BUS VESA


El Bus Vesa (video electronics standars association) es un tipo de bus de datos para ordenadores personales, utilizado sobre todo en equipos diseñados para el procesador intel 80486. Permite conectar directamente la tarjeta gráfica al procesador.

comunica a través de los chips correspondientes ( como por ejemplo un controlador de memoria) al procesador con la DRAM y la memoria caché. En sistemas con procesadores 80386 o superiores dicho bus debe ser de 32 bits y trabajar con la frecuencia externa del procesador. Por esta razón muchos fabricantes incluían una conexión especial en la placa base prevista fundamentalmente para insertar tarjetas gráficas, precisamente para que esos dispositivos pudieran aprovechar esa tasa de transferencia de datos más alta y así poder componer la imagen con más rapidez


BUS ISA

(Industry Standard Architecture). Bus de 8 bits instalado en los primeros PC fabricados por IBM, que se amplió posteriormente a 16 bits en los PCs AT. El bus permite la conexión de diferentes dispositivos al sistema a través de ranuras de expansión.

Por el caudal de datos que generan muchos dispositivos, no necesitan de una especificación superior por muy rápido que funciones el procesador.


BUS PCI


(Peripheral Component Interconnect). Estándar que especifica un tipo de bus de una computadora para adjuntar dispositivos periféricos a la placa madre. Esos dispositivos pueden ser:

1. Un circuito integrado incorporado dentro de la placa madre.
2. Una tarjeta de expansión que encaja en un socket (ranura) de la placa madre.

los sistemas de bus OCI poseen funciones de configuración automática lo que permite mitrigar los conocidos problemas de ISA en torno a conflictos de recursos. Los dispositivos PCI no necesitan software de configuración adicional o archivos adaptadores especiales, la BIOS del ordenador PCI toma a su cargo estas tareas.


BUS PCI EXPRESS

PCI Express (anteriormente conocido por las siglas 3GIO, en el caso de las “Entradas/Salidas de Tercera Generación”, en inglés: 3rd  Generation I/O) es un nuevo desarrollo del bus PCI que usa los conceptos de programación y los estándares de comunicación existentes, pero se basa en un sistema de comunicación serie mucho más rápido. Este sistema es apoyado principalmente por Intel, que empezó a desarrollar el estándar con nombre de proyecto Arapahoe después de retirarse del sistema Infiniband.

PCI Express es abreviado como PCI-E o PCIe, aunque erróneamente se le suele abreviar como PCI-X o PCIx. Sin embargo, PCI Express no tiene nada que ver con PCI -X que es una evolución de PCI, en la que se consigue aumentar el ancho de banda mediante el incremento de la frecuencia, llegando a ser 32 veces más rápido que el PCI 2.1. Su velocidad es mayor que PCI-Express, pero presenta el inconveniente de que al instalar más de un dispositivo la frecuencia base se reduce y pierde velocidad de transmisión.

BUS AGP

El bus AGP (la sigla corresponde a Accelerated Graphics). Forma parte de las placas base desde mediados de 1997, en las que se monta en forma e ranura para instalar exclusivamente gráficas AGP.


Una tarjeta AGP debe ofrecer mayores presentaciones que una tarjeta gráfica PCI, detalle muy importante, principalmente, en la ejecución de juegos 3D. AGP ofrece algo más que memoria (genralmente de un mínimo de 16 MB) y alcanza frecuencias más rápidas (generalmente 250 Mhz), por lo que se soportan también unas resoluciones de 1280x1024 puntos de pantalla con una profundidad de color de 16 bits y una frecuencia de refresco de 85 hz. Hasta hace muy poco estos valores de rendimiento eran exclusivos de tarjetas gráficas muy caras, y la memoria del mismo PC no superaba muchas veces a la memoria de las tarjetas gráficas actuales.

BUS EISA

El principal rival del bus MCA fue el bus EISA, también basado en la idea de controlar el bus desde el microprocesador y ensanchar la ruta de datos hasta 32 bits. Sin embargo EISA mantuvo compatibilidad con las tarjetas de expansión ISA ya existentes lo cual le obligo a funcionar a una velocidad de 8 Mhz (exactamente 8.33). Con la llegada de los microprocesadores de 32 bits, la empresa compaq lideró el desarrollo de una versión de 32 bits siempre compatible con las anteriores y de libre utilización por los fabricantes. Así nació en 1988 EISA, aunque tuvo la desgracia de encontrarse pronto con el bus PCI de 32 bits, momento a partir del cual languideció, superviviendo tan sólo la versión de 16 bits que es la que ha llegado hasta nuestros días.


Su mayor ventaja con respecto al bus MCA es que EISA era un sistema abierto, ya que fue desarrollado por la mayoría de fabricantes de ordenadores compatibles PC que no aceptaron el monopolio que intentó ejercer IBM. Estos fabricantes fueron: AST, Compaq, Epson, Hewlett Packard, NEC, Olivetti, Tandy, Wyse y Zenith.

BUS MCA

(Micro Channerl arquitecture). Permite una ruta de datos de 32 bits, mas ancha y una velocidad de reloj de 10 Mhz, con una transferencia maxima de 20 Mbps.

Con el surgimiento de los procesadores 386, que trabajan usando palabras binarias de 32 bits, se hizo necesario la creación de un bus más rápido que el ISa para el uso de periféricos más rápidos, como las tarjetas gráficas. Entonces la casa de IBM creño el bus MCA, qye funcionaba con palabras de 32 bits y a una frecuencia de 10 Mhz, siendo 2.5 veces más rápido que el bus ISA de 16 bits.

Sin embargo, el bus MCA tenía un pequeño inconveniente al ser presentado por la casa IBM, y era que solamente ella podía usarlo en sus ordenadores.

Concepto de las diferentes arquitecturas computacionales

ARQUITECTURA DE VON NEUMANN

Es una familia de arquitectura de computadoras que utilizan el mismo dispositivo de almacenamiento tanto para las instrucciones como para los datos (a diferencia de la arquitectura Harvard).

La mayoria de computadores modernos se basan en dicha arquitectura aunque pueden incluir otros dispositivos adicionales.

Surge a raiz de una colaboracion en el proyecto ENIAC del matemático de origen Húngaro John Von Neumann. Von Neumann se interesó por el problema de la necesidad de recablear la máquina para cada nueva tarea.


ARQUITECTURA DE HARVARD

El término Arquitectura Harvard originalmente hacía referencia a las arquitecturas de computadoras que utilizaban dispositivos de almacenamiento que estaban físicamente separados para los datos y las instrucciones. Este término nace de la computadora Harvard Mark I, que almacenaba las instrucciones en cintas perforadas y los datos en interruptores.


La velocidad de los computadores últimamente ha aumentado demasiado en comparación a la de las memorias con las que trabaja, así que se debe poner mucha atención en reducir el número de veces que se accede a ella para mantener el rendimiento. existe algo que se conoce como limitación de memoria, esta consiste en que cada tarea ejecutada en la cpu requiere un acceso en la memoria y no se gana nada con aumentar la velocidad de la cpu.

Hoy en dia ya se pueden fabricar memoria con mucho mas velocidad, pero a un precio muy alto. La solución, seria proporcionar una pequeña cantidad de memoria muy rápida conocida con el nombre de memoria caché. Mientras los datos que necesita el procesador estén en la caché, el rendimiento será mucho mayor que si la caché tiene que obtener primero los datos de la memoria principal. La optimización de la caché es un tema muy importante de cara al diseño de computadoras.


La arquitectura Harvard ofrece una solución particular a este problema. Las instrucciones y los datos se almacenan en cachés separadas para mejorar el rendimiento. Por otro lado, tiene el inconveniente de tener que dividir la cantidad de caché entre los dos, por lo que funciona mejor sólo cuando la frecuencia de lectura de instrucciones y de datos es aproximadamente la misma. Esta arquitectura suele utilizarse en DSPs, o procesador de señal digital, usados habitualmente en productos para procesamiento de audio y video.

¡Bienvenidos!


En este Blog se mostrara un poco de la arquitectura y estructura que conforman un computador. Los invito a que revisen y hagan sus comentarios u opiniones constructivos respecto al contenido.