martes, 18 de octubre de 2011

Unidad de Medida Informatica


EL LENGUAJE DE LAS MAQUINAS
Comenzaremos pordecir que la palabra medir significa comparar por lo quue cuando hablamos de medidad de informática, estamor comparando la cantidad de “bits” unidad fundamental, que podemos almacenar, procesar y transmitir, en unidad de numero, frecuencia y tiempo.

Sabemos que las computadoras son mauinas capaces de transformar la energía eléctrica en datos, esto lo realiza por que el procesador identifica los pulsos eléctricos que le envían los diferenres dispositivos  y lo transforman en nformacion mediante un código llamado binario.

Para obtener de un numero decimal, el binario, utilizamos un método parecido a la factorización de números primos. Es relativamente fácil dividir cualquier numero entre 2, este método consiste en divisiones sucesivas dependiendo de si el numero es par o impar. Colocaremos un cero o un uno en la columna de la derecha, según sea el caso y le restaremos uno, para seguir dividiendo entre dos, hasta llegar a 1. _Despues solo bnos quea tomar el ultimo resultado de la columna izquiera ( que siempre será 1 ) y todos los de la columna de laderecha y ordenas los digitos  de abajo hacia arriba.

CONVERSON DE LENGUAJE BINARIO A DECIMAL
El proceso para converir un numero del sistema binario al decimal es aun mas sencillo; basta con desarrollar el numero, teniendo en cuenta el valor de cada digito en  su posición, que es el de una potencia de 2, cuyo exponente es 0 en el bit situado mas a la derecha, y se incrementa en una unidad según vamos avanzando posiciones hacia la izquierda.

Normalmente las cifras binariasse componen de un numero de ceros y unos que es potencia de 2, como 8. 16, o 32. A cada uno de estosunos y ceros se les llama bit y a un conjunto de 8 bits se le llama byte. Si un numero en fomato binario tiene menos de 8 byte como 11001, se suele completa hasta alcanzar 1 byte como minimo con ceros a la derecha del numero: 11001000.
En 1 byte, el primer bit tiene un valor de 1, el segundo vale 2, el tercero 4, el cuarto 8 y asi sucesivamente. El numero decimal correspondient a 11001000 es el de cada bit multiplicado por su valor.


Dispositivos de Almacenamiento de un Computador.
Los sistemas informáticos pueden almacenar los datos tanto interna (en la memoria) como externamente (en los dispositivos de almacenamiento). Internamente, las instrucciones o datos pueden almacenarse por un tiempo en los chips de silicio de la RAM (memoria de acceso aleatorio) montados directamente en la placa de circuitos principal de la computadora, o bien en chips montados en tarjetas periféricas conectadas a la placa de circuitos principal del ordenador. Estos chips de RAM constan de conmutadores sensibles a los cambios de la corriente eléctrica, esto quiere decir que los datos son almacenados por tiempo limitado (hasta que dejamos de suministrar energía eléctrica) por esta razón aparecen los dispositivos de almacenamiento secundarios o auxiliares, los cuales son capaces de conservar la información de manera permanente, mientras su estado físico sea óptimo. Los dispositivos de almacenamiento externo pueden residir dentro del CPU y están fuera de la placa de circuito principal



BYTE
La unidad byte no tiene símbolo establecido internacionalmente, aunque en países anglosajones es frecuente la "B" mayúscula, mientras que en los francófonos es la "o" minúscula (de octet); la ISO y la IEC en la norma 80000-13:2008 recomiendan restringir el empleo de esta unidad a los octetos (bytes de 8 bits).
Byte es una palabra inglesa (pronunciada [bait] o ['bi.te]), que si bien la Real Academia Española ha aceptado como equivalente a octeto (es decir a ocho bits), para fines correctos, un byte debe ser considerado como una secuencia de bits contiguos, cuyo tamaño depende del código de información o código de caracteres en que sea definido.
Se usa comúnmente como unidad básica de almacenamiento de datos en combinación con los prefijos de cantidad. Originalmente el byte fue elegido para ser un submúltiplo del tamaño de palabra de un ordenador, desde cinco a doce bits. La popularidad de la arquitectura IBM S/360 que empezó en los años 1960 y la explosión de las microcomputadoras basadas en microprocesadores de 8 bits en los años 1980 ha hecho obsoleta la utilización de otra cantidad que no sean 8 bits. El término "octeto" se utiliza ampliamente como un sinónimo preciso donde la ambigüedad es indeseable (por ejemplo, en definiciones de protocolos).

NombreAbrev.Factor binarioTamaño en el SI
bytesB20 = 1100 = 1
kilok210 = 1024103 = 1000
megaM220 = 1 048 576106 = 1 000 000
gigaG230 = 1 073 741 824109 = 1 000 000 000
teraT240 = 1 099 511 627 7761012 = 1 000 000 000 000
petaP250 = 1 125 899 906 842 6241015 = 1 000 000 000 000 000
exaE260 = 1 152 921 504 606 846 9761018 = 1 000 000 000 000 000 000
zettaZ270 = 1 180 591 620 717 411 303 4241021 = 1 000 000 000 000 000 000 000
yottaY280 = 1 208 925 819 614 629 174 706 1761024 = 1 000 000 000 000 000 000 000 000
Unidades básicas de información (en bytes)
Prefijos del Sistema InternacionalPrefijo binario
Múltiplo - (Símbolo)Estándar SIBinarioMúltiplo - (Símbolo)Valor
kilobyte (kB)103210kibibyte (KiB)210
megabyte (MB)106220mebibyte (MiB)220
gigabyte (GB)109230gibibyte (GiB)230
terabyte (TB)1012240tebibyte (TiB)240
petabyte (PB)1015250pebibyte (PiB)250
exabyte (EB)1018260exbibyte (EiB)260
zettabyte (ZB)1021270zebibyte (ZiB)270
yottabyte (YB)1024280yobibyte (YiB)280



UNIDADES DE TRANSMISION DE DATOS
La velocidad de transmisión de datos mide el tiempo que tarda un host o un servidor en poner en la línea de transmisión el paquete de datos a enviar. El tiempo de transmisión se mide desde el instante en que se pone el primer bit del paquete a transmitir.La unidad de medida que usamos se maneja en el sistema internacional, por lo que utilizamos múltiplos de 10, por unidad de tiempo. Lo cual nos lleva a expresarlo en bits-segundo.


UNIDAD
SIGNIFICADO
KBPS
1000BITS POR SEGUNDO
MBPS
1000KILO BITS POR SEGUNDO
GBPS
1000MEGA BITS POR SEGUNDO


UNIDADES DE PROCESAMIENTO
La unidad central de procesamiento, UCP o CPU (por el acrónimo en inglés de central processing unit), o simplemente el procesador o microprocesador, es el componente del computador y otros dispositivos programables, que interpreta las instrucciones contenidas en los programas y procesa los datos. Los CPU proporcionan la característica fundamental de la computadora digital (la programabilidad) y son uno de los componentes necesarios encontrados en las computadoras de cualquier tiempo, junto con el almacenamiento primario y los dispositivos de entrada/salida. Se conoce como microprocesador el CPU que es manufacturado con circuitos integrados. Desde mediados de los años 1970, los microprocesadores de un solo chip han reemplazado casi totalmente todos los tipos de CPU, y hoy en día, el término "CPU" es aplicado usualmente a todos los microprocesadores.


NombreAbrev.Factor binarioTamaño en el SI
bytesB20 = 1100 = 1
kilok210 = 1024103 = 1000
megaM220 = 1 048 576106 = 1 000 000
gigaG230 = 1 073 741 824109 = 1 000 000 000
teraT240 = 1 099 511 627 7761012 = 1 000 000 000 000
petaP250 = 1 125 899 906 842 6241015 = 1 000 000 000 000 000
exaE260 = 1 152 921 504 606 846 9761018 = 1 000 000 000 000 000 000
zettaZ270 = 1 180 591 620 717 411 303 4241021 = 1 000 000 000 000 000 000 000
yottaY280 = 1 208 925 819 614 629 174 706 1761024 = 1 000 000 000 000 000 000 000 000

2 comentarios:

  1. Wow esta muy padre tu trabajo me gusto mucho y tiene mucha informacion!!!

    ResponderEliminar
  2. amm super padre el diseño y pues que t digo del contenido muy bueno !!!

    ResponderEliminar