miércoles, 1 de octubre de 2008

Warriors of the net definiones y resumen

Warriors of the net
Definiciones

TCP Packet: Muchos programas dentro de una red de datos compuesta por computadoras pueden usar TCP para crear conexiones entre ellos a través de las cuales puede enviarse un flujo de datos.

ICMP Ping Packet: Se usa para enviar mensajes de error, indicando por ejemplo que un servicio determinado no está disponible o que un router o host no puede ser localizado

UDP Packet: Permite el envío de datagramas a través de la red sin que se haya establecido previamente una conexión, ya que el propio datagrama incorpora suficiente información de direccionamiento en su cabecera.

The router: Este dispositivo permite asegurar el enrutamiento de paquetes entre redes o determinar la ruta que debe tomar el paquete de datos

Ping of death: Un ping de la muerte es un tipo de ataque enviado a una computadora que consiste en mandar numerosos paquetes ICMP muy pesados (mayores a 65.535 bytes) con el fin de colapsar el sistema atacado.

The router switch: Es un dispositivo electrónico de interconexión de redes de computadoras. Un switch interconecta dos o más segmentos de red, funcionando de manera similar a los puentes (bridges), pasando datos de un segmento a otro, de acuerdo con la dirección MAC de destino de los datagramas en la red.

Hub: Es un equipo de redes que permite conectar entre sí otros equipos y retransmite los paquetes que recibe desde cualquiera de ellos a todos los demás. Los hubs han dejado de ser utilizados, debido al gran nivel de colisiones y tráfico de red que propician.

IP: es un número que identifica de manera lógica y jerárquica a una interfaz de una computadora
Firewall: Es un elemento de hardware o software utilizado en una red de computadoras para controlar las comunicaciones, permitiéndolas o prohibiéndolas según las políticas de red que haya definido la organización responsable de la red

Lan: Es la interconexión de varios ordenadores y periféricos. Su extensión esta limitada físicamente a un edificio o a un entorno de hasta 100 metros. En definitiva, permite que dos o más máquinas se comuniquen.

Wan: es un tipo de red de computadoras capaz de cubrir distancias desde unos 100 hasta unos 1000 Km., dando el servicio a un país o un continente. Muchas WAN son construidas por y para una organización o empresa particular y son de uso privado, otras son construidas por los proveedores de Internet (ISP) para proveer de conexión a sus clientes.


Resumen

Este video trata del proceso que realiza un link al seleccionarlo, el proceso tarda unos pocos segundos pero es muy largo

Proceso: al seleccionar un link se inicia un flujo de información en nuestra computadora esta información viaja hacia a nuestro local propio en mensajeria personal donde un protocolo de comunicaciones, el IP, lo empaqueta, lo etiqueta y lo pone en camino. Cada paquete es ilimitado en tamaño, el local de mensajeria debe decidir como dividir la información y como empaquetarla. Cada paquete necesita una etiqueta de información tales como la dirección del remitente, del destinatario y el tipo de paquete que es. También cada paquete tiene una etiqueta para el servidor Proxy. Los datos abandonan las maquinas y van a la red cableada de nuestra corporación y es lanzado al la red área local. Esta red se utiliza para conectar a todas las computadoras de áreas locales. El router lee las direcciones y si es necesario pone los paquetes en otra red. Luego de pasar el router los paquetes se dirigen al swich, este suelta los paquetes enlutándolos en su camino. Cuando los paquetes llegan a su destino son recolectados por la internas de red para ser enviados al Proxy. Este abre el paquete y busca la dirección Web dependiendo si la dirección es admisible el paquete se enviara a Internet. Algunas direcciones no cuentan con la aprobación del Proxy y son directamente ejecutadas. El paquete vuelve a la ruta dentro de nuestra Lan. El próximo paso es el firewall, cuando lo paso un router recoge cada paquete y lo coloca en un camino mas estrecho y como no es amplio para llevar todos los paquetes. La dirección IP no obtiene un recibo simplemente obtiene un paquete de reemplazo. De esta forma entramos al mundo de Internet. Acá, en esta ruta, podemos encontrar el ping de la muerte. Las rutas que toman los paquetes pueden ser satélites, líneas telefónicas o cables transoceánicos. Cerca del final del proceso podemos encontrar el servidor donde esta la pagina solicitada encontramos otro firewall que actúa como un protector del servidor y solo deja pasar a los puertos 80 y 25 y todo intento en los demás puertos será cancelado. Dentro del firewall los paquetes son filtrados mas concienzudamente algunos pasan fácilmente por la aduana. El oficial del firewall no es fácilmente engañado. Los paquetes que llegan sanos hasta acá entran en el fin del camino, están dirigidos hacia la interfaz para ser llevados hacia el servidor Web. Uno por uno los paquetes son recibidos, abiertos y desempacados. La información que contienen es enviada hacia la aplicación del servidor Web. El paquete en si es reciclado listo para ser usado otra vez y llenado con la información solicitada, empaquetado y enviado de regreso hacia nosotros regresa por el firewall, por el servidor Web, router y a través de Internet. Devuelta a nuestro firewall corporativo y a nuestra interfaz de nuestra computadora. Aquí es suministrado el navegador de Internet con la información solicitada.

domingo, 21 de septiembre de 2008

miércoles, 17 de septiembre de 2008

Cuestionario

Cuestionario winzip


1- ¿Para que se utiliza winrar o winzip?

0 Para guardar archivos
0 Para enviar archivos mas rápido por mail
0 Para abrir archivos
x Para comprimir y descomprimir archivos

2- ¿Cuál de estos no es un compresor de archivos?

0 Winrar
0 Winzip
0 WinAce
x Windows

3-¿Qué es Winrar?

0 Un reproductor
0 Un juego
0 Una pagina de Internet
x Un compresor


4-¿Cuál de estas no es una característica de Winzip?

0 Comprime y descomprime archivos
0 Extraer archivos BZ2 y RAR
0 Divide archivos en varios volúmenes
x Reproduce películas archivos DIVX o DVD
5-¿En que año se creo Winrar?

0 1987
x 1990
0 1992
0 1984

6-¿Qué es Zip?

0 Un procesador de texto
0 Un formato de música
0 Un programa
x Formato de almacenamiento muy utilizado para la compresión de datos
7-¿Qué extensión de archivos se utiliza en los archivos Winzip?

x .zip
0 .mp3
0 .jpg
0 .rar
8-¿Qué es RAR?

0 Un programa
0 Una pagina de Internet
0 Un descompresor de archivos
x Un formato de archivo con un algoritmo de compresión sin perdida utilizado para la compresión de datos y archivación
9-¿Cuál de estos sistemas operativos no es compatible con Winzip?


0 Windows XP
0 Windows vista
0 Linux
x MAC

10-Compresor:

x Winrar
0 Photoshop
0 Virtual tenis
0 Daemon tools

miércoles, 10 de septiembre de 2008

Compresores de archivos

Compresores de archivos
Winrar y Winzip



1-¿Para que se utiliza los compresores de archivos?

2- Nombrar 2 compresores más

3- Detallar los pasos para comprimir y descomprimir

4- Nombre 3 ejemplos donde se pueda utilizar winrar y winzip

5- De un ejemplo cotidiano donde utilizo la descompresión de archivo

6- ¿Qué tengo que tener para poder descomprimir un archivo que me mandan por mail?

7- Agregar todas las imágenes (logos de los programas y las pantallas explicativas de la descompresión y la compresión de archivos)


1- La compresión consiste en reducir o compacta el volumen de la información a tratar como imágenes, música, archivos y documentos

2- Tugzip y CAM UnZip

3- Pasos para comprimir un archivo:
1) Descargar e instalar WinRAR, una aplicación que permite la compresión y descompresión de todo tipo de archivos.
2) Luego de ello seleccionamos la carpeta o archivo que deseamos comprimir, hacemos click derecho en él y luego en la opción que dice Añadir al archivo.

3) Ahora nos debe mostrar un cuadro. Allí debemos seleccionar el nombre del archivo, pero siempre dejando el .RAR al final. En Métodos de compresión, podemos seleccionar La mejor, así WinRAR comprimirá los archivos más lento, pero con menor peso. Para terminar click en Aceptar. Ahora podemos revisar en la carpeta donde se encontraba el archivo a comprimir, que se encuentra el archivo compreso con el nombre indicado.


4- Ejemplos:
Cuando descargo una película, aparecerá un archivo winrar, debo hacer click derecho sobre el y poner en el menú extrat here. Lo mismo sucede con los subtítulos, los juegos, etc.

5- Ejemplos:
Cuando descargo una película, aparecerá un archivo winrar, debo hacer click derecho sobre el y poner en el menú extrat here. Lo mismo sucede con los subtítulos, los juegos, etc.

6- Imaginemos que hemos recibido por mail o de alguna página Web, un archivo comprimido en una de las carpetas de nuestra compu. Podemos ejecutar el programa WinZip y realizar la operación desde el mismo programa, o podemos hacerlo aún más fácil.

Localizamos el archivo comprimido en nuestro Explorador de Windows. Imaginemos que se trata del fichero archivo.ZIP que está ubicado en la carpeta Mis Documentos.

Procederemos de la siguiente manera: clic derecho del ratón sobre el archivo y aparecerá el menú contextual. Elije la opción que consideres adecuada, y clic sobre ella:

• Extract to... (Extraer en...) extrae los archivos comprimidos en la carpeta que nosotros elijamos.

• Extract to folder (Extraer en la carpeta) C:\Mis documentos\archivo creará una nueva carpeta llamada archivo y descomprimirá allí los archivos.

Otro método es hacer un doble click sobre el archivo. A continuación se abrirá el WinZip mostrando el contenido del archivo comprimido. Luego hacemos clic en el botón Extract (Extraer) que aparece en la parte de arriba y aparecerá una pantalla desde donde podemos elegir la ubicación de la carpeta para los archivos: por ejemplo "C:\Mis documentos\archivo".

Bueno, todavía mas: la verdad, extraer el contenido de un archivo comprimido en formato ZIP es mucho mas sencillo a partir de Windows XP, puesto que el sistema operativo los maneja como si fueran "carpetas comprimidas", y con solo hacer doble clic en ellos, inmediatamente nos muestra su contenido y podemos copiar y arrastrar los archivos a donde queramos, como si no estuviese comprimido. Pero esto último sólo sucederá si no está instalado el WinZip o cualquier otro programa para comprimir/descomprimir. Es mejor tener el WinZip instalado, pues eso te permitirá también comprimir tus archivos para enviarlos con mas facilidad por correo o para que ocupen menos espacio en tu memory stick (memoria usb).

miércoles, 27 de agosto de 2008

miércoles, 11 de junio de 2008

Pautas para la realizacion del cuento

Formato:
Hoja A4, Margenes superior e inferior 2,5, Margen derecho 2 y margen izquierdo 3.Titulo con bordes y sombreados, fuente tamaño 14, sangria primera linea 1,5. Interlineado 1,5, espacios entre parrafos 6 puntos, letra capital y aliniacion justificada.Insertar minimo 2 imagenes con formato estrecho

lunes, 19 de mayo de 2008

Preguntas para la prueba

1. ¿Por quién fue creada ARPANET?
La red de computadoras ARPANET (Advanced Research Projects Agency Network) fue creada por encargo del Departamento de Defensa de los Estados Unidos como medio de comunicación para los diferentes organismos del país.

15. ¿Quién inventò el correo electrónico? ¿qué cambios provoco?

En 1972, Ray Tomlinson de la BBN inventó el correo electrónico. En 1973, el protocolo FTP ya estaba definido e implementado, facilitando el movimiento de ficheros en ARPANET.

3. - ¿Qué se describía en los resultados publicados de 1960?

•El uso de una red descentralizada con múltiples caminos entre dos puntos.
•La división de mensajes completos en fragmentos que seguirían caminos distintos. La red estaría capacitada para responder ante sus propios fallos.


_ ¿ Que fue muy importante para las comunidades y disciplinas?

La utilidad de las redes de ordenadores (especialmente el correo electrónico utilizado por los contratistas de DARPA y el Departamento de Defensa en ARPANET) siguió siendo evidente para otras comunidades y disciplinas de forma que a mediados de los años 70 las redes de ordenadores comenzaron a difundirse allá donde se podía encontrar financiación para las mismas.

7.- ¿Cuáles fueron las 4 reglas fundamentales de Kant?

1 Cada red distinta debería mantenerse por sí misma y no deberían requerirse cambios internos a ninguna de ellas para conectarse a Internet.

2 Las comunicaciones deberían ser establecidas en base a la filosofía del "best-effort" (lo mejor posible). Si un paquete no llegara a su destino debería ser en breve retransmitido desde el emisor.

3 Para interconectar redes se usarían cajas negras, las cuales más tarde serían denominadas gateways (pasarelas) y routers (enrutadores). Los gateways no deberían almacenar información alguna sobre los flujos individuales de paquetes que circulasen a través de ellos, manteniendo de esta manera su simplicidad y evitando la complicada adaptación y recuperación a partir de las diversas modalidades de fallo.

4 No habría ningún control global a nivel de operaciones


¿Cuál fue el concepto de Roberts?

El concepto original de Roberts consistía en utilizar la técnica de multiplexación en el tiempo, uniendo máquinas directamente con cables telefónicos.

¿Cuándo se estableció el primer enlace de arpanet?

El primer enlace de ARPANET se estableció el 21 de noviembre de 1969 entre UCLA y Stanford. el 5 de diciembre del mismo año, toda la red inicial estaba lista.



¿Cómo funcionaban los primeros ordenadores?

Los pequeños ordenadores se denominaron Procesadores del interfaz de mensajes (IMPs). Éstos
implementaban la técnica de almacenar y reenviar y utilizaban un MODEM telefónico para conectarse a otros equipos (a una velocidad de 50 kbits por segundo).

1) ¿Cuáles fueron las ideas claves de los resultados de Paul Brand en 1960?

Sus resultados se publicaron a partir de 1960, y en ellos se describían dos ideas clave:
El uso de una red descentralizada con múltiples caminos entre dos puntos.
La división de mensajes completos en fragmentos que seguirían caminos distintos. La red estaría capacitada para responder ante sus propios fallos.

¿Qué llevaba acarrada la comercialización de Internet?

La comercialización de Internet llevaba acarreada no sólo el desarrollo de servicios de red privados y competitivos sino también el de productos comerciales que implementen la tecnología Internet.


¿Qué es Internet?

Internet es tanto un conjunto de comunidades como un conjunto de tecnologías y su éxito se puede atribuir tanto a la satisfacción de las necesidades básicas de la comunidad como a la utilización de esta comunidad de un modo efectivo para impulsar la infraestructura


7) ¿Qué invento Ray Tomlinson?

En 1972, Ray Tomlinson de la BBN inventó el correo electrónico.


5) ¿Qué eran los IMPs?

Los IMPs (Procesadores del interfaz de mensajes) eran pequeños ordenadores. Éstos implementaban la técnica de almacenar y reenviar y utilizaban un modem telefónico para conectarse a otros equipos (a una velocidad de 50 kbits por segundo).

¿Cuáles son los cuatro aspectos distintos en que gira la historia de Internet?

Evolución tecnológica desde la primitiva investigación en conmutación de paquetes, ARPANET hasta tecnologías de la cuales la investigación actual continúa tratando de expandir los horizontes de la infraestructura en dimensiones tales como escala, rendimiento y funcionalidades de alto nivel.Aspectos de operación y gestión de una infraestructura operacional global y compleja.Aspectos sociales, que tuvieron como consecuencia el nacimiento de una amplia comunidad de internautas trabajando juntos para crear y hacer evolucionar la tecnología.Aspecto de comercialización que desemboca en una transición enormemente efectiva desde los resultados de la investigación hacia una infraestructura informática ampliamente desarrollada y disponible.

¿Se puede decir que Internet ha acabado su proceso de cambio?
0
o. Ahora está cambiando para proveer nuevos servicios como el transporte en tiempo real con vistas a soportar, por ejemplo, audio y vídeo. La disponibilidad de redes penetrantes y omnipresentes, como Internet, junto con la disponibilidad de potencia de cálculo y comunicaciones asequibles en máquinas como los ordenadores portátiles, los PDA y los teléfonos celulares, está posibilitando un nuevo paradigma de informática y comunicaciones "nómadas".Esta evolución nos traerá una nueva aplicación: telefonía Internet y, puede que poco después, televisión por Internet. Está cambiando para acomodar una nueva generación de tecnologías de red con distintas características y requisitos: desde ancho de banda doméstico a satélites. Y nuevos modos de acceso y nuevas formas de servicio que darán lugar a nuevas aplicaciones, que, a su vez, harán evolucionar a la propia red.


1. ¿Qué crecimiento empresarial hubo y que trajo como consecuencia?

El crecimiento en el mundo empresarial trajo como consecuencia un incremento de la preocupación por el propio proceso de estándares. Desde primeros de los años 80 hasta hoy, Internet creció y está creciendo más allá de sus raíces originales de investigación para incluir a una amplia comunidad de usuarios y una actividad comercial creciente. Se puso un mayor énfasis en hacer el proceso abierto y justo. Esto, junto a una necesidad reconocida de dar soporte a la comunidad de Internet, condujo a la formación de la Internet Society en 1991, bajo los auspicios de la CNRI (Corporation for National Research Initiatives, Corporación para las Iniciativas de Investigación Nacionales) de Kahn y el liderazgo de Cerf, junto al de la CNRI.

2. ¿Qué cambios están viviendo debido a la tecnología y su evolución?

Esta evolución nos traerá una nueva aplicación: telefonía Internet y, puede que poco después, televisión por Internet. Está permitiendo formas más sofisticadas de valoración y recuperación de costes, un requisito fundamental en la aplicación comercial. Está cambiando para acomodar una nueva generación de tecnologías de red con distintas características y requisitos: desde ancho de banda doméstico a satélites. Y nuevos modos de acceso y nuevas formas de servicio que darán lugar a nuevas aplicaciones, que, a su vez, harán evolucionar a la propia red.
16. ¿Que desarrollo permitió que la naciente Internet floreciera?
Respuesta: El desarrollo de LAN, PC y Estaciones de trabajo.

18. a. ¿ En que año fue diseñado el Bitnet? b.¿Por quien fue diseñado? c. ¿Y para que sirve?

18. (A y b). Fue diseñado en el año 1981por Greydon Freeman e Ira Fuchs.
Respuesta: (C). Sirve para unir las ordenadores centrales del mundo académico siguiendo el paradigma de correo electrónico como postales.


¿Qué es Ergonomia?

La Ergonomía es una ciencia que estudia las características, necesidades, capacidades y habilidades de los seres humanos, analizando aquellos aspectos que afectan al entorno artificial construido por el hombre relacionado directamente con los actos y gestos involucrados en toda actividad de éste.
En todas las aplicaciones su objetivo es común: se trata de adaptar los productos, las tareas, las herramientas, los espacios y el entorno en general a la capacidad y necesidades de las personas, de manera que mejore la eficiencia, seguridad y bienestar de los consumidores, usuarios o trabajadores (Tortosa et al, 1999).

—¿Qué aspectos definen a una organización como un buen lugar para trabajar?

—Es aquel donde uno confía en la gente con la que trabaja, se siente orgulloso de lo que hace y disfruta con sus compañeros de trabajo. Esta definición surge de entrevistas que hice en docenas de lugares de trabajo en todo el mundo. Descubrí que los empleados invariablemente tenían un alto nivel de confianza en la gerencia de la firma, decían sentirse orgullosos de sus trabajos y de la empresa, y compartían una sensación de camaradería. —Ud. señala que la confianza implica credibilidad, respeto y trato justo. —Para consolidar su credibilidad, la gerencia debe ser transparente en la información, de manera que los empleados puedan preguntar y determinar si se les está diciendo la verdad o no. En la mayoría de los mejores lugares de trabajo, los altos ejecutivos realizan sesiones de preguntas y respuestas con sus empleados, o las propician a través del correo electrónico o la intranet.El respeto supone mostrar aprecio a los empleados por hacer bien su trabajo. También, hacer todo lo posible para proporcionarles herramientas y oportunidades de entrenamiento para crecer. Es importante que los empleados sientan que la gerencia escucha genuinamente sus ideas y sugerencias y que se los tiene en cuenta, en la medida de lo posible, al tomar decisiones respecto de sus trabajos. Por último está la cuestión de la justicia, que es incluso más importante que el salario. Implica la necesidad de que la gente sienta que es tratada con justicia a la hora de ser elegidos para ascensos o realizar tareas que implican desafíos.
—¿Qué podrían hacer las empresas para convertirse en buenos lugares de trabajo?—

En todos los casos que estudié, esta transformación comenzó con una gerencia que mejoró su comunicación con los empleados, para aumentar su credibilidad. En segundo lugar, las empresas deben asegurarse de que los empleados se sientan apreciados. Siempre me sorprende ser testigo de la importancia de decir "gracias". —¿Cualquier empresa puede lograrlo en el corto plazo? —Con certeza es posible hacer esos cambios en un período que no excede los tres años. Uno de los mejores ejemplos es Continental Airlines, que no sólo era un espantoso lugar de trabajo, sino que además estaba al borde de la quiebra cuando un nuevo equipo de administración se hizo cargo, en 1994. En tres años, la empresa logró recuperarse financieramente. Y también se convirtió en uno de los mejores lugares de trabajo y figuró en la lista de Fortune entre las "Cien mejores empresas donde trabajar". Lo logró concentrándose en las comunicaciones internas y en el reconocimiento hacia los empleados.—
¿Qué relación hay entre un buen ambiente de trabajo y la rentabilidad empresaria?

—Muchos estudios demostraron una alta correlación entre las prácticas para mejorar el lugar de trabajo y el éxito financiero. Por ejemplo, una firma de servicio de inversiones de Wall Street recientemente realizó un estudio en el que se comparaban los resultados financieros de una cartera de acciones de empresas que habían figurado en la lista de las "Cien mejores empresas donde trabajar" de Fortune, con otra del Standard & Poor 500. Los resultados fueron notables. El rendimiento del dinero invertido en la cartera de las "Cien mejores..." fue superior por casi cinco a uno. Estudios en Gran Bretaña y Brasil han dado resultados similares. Cuando los empleados se sienten bien tratados ofrecen mejores servicios a los clientes, lo que significa más ganancias. —
¿Qué pueden hacer las empresas latinoamericanas para mejorar sus ambientes?

—Nuestro Instituto determinó que las empresas latinoamericanas son extremadamente receptivas. El año pasado, más de 30.000 empleados de la región participaron de la encuesta. Vimos que, en general, los resultados de América Latina eran comparables a los de América del Norte y Europa, lo que demuestra que las mejores empresas latinoamericanas son realmente de clase internacional, a pesar de la amplia incidencia del desempleo y la pobreza en la región. Tal vez a causa de las dificultades económicas, también hallamos que muchas empresas latinoamericanas se preocupan por su responsabilidad social en tanto corporaciones.

miércoles, 14 de mayo de 2008

Arpanet

Cuestionario

Escribir 20 preguntas con sus respuestas.


1-¿Quién creo el ARPANET y para que ?

La red de computadoras ARPANET fue creada por encargo del Departamento de Defensa de los Estados Unidos como medio de comunicación para los diferentes organismos del país.

2-¿Dónde estaban instalados los primeros 4 IMps de Arpanet ?
Estaban instalados en:
UCLA, donde Kleinrock creó el Centro de medición de red. Un ordenador SDS Sigma 7 fue el primero en conectarse.
El Augmentation Research Center en el Instituto de investigación de Stanford, donde Doug Engelbart creó el novedoso sistema NLS, un incipiente sistema de hipertexto. Un ordenador SDS 940 fue el primero en conectarse.
La Universidad de California, con un IBM 360.
El Departamento Gráfico de la Universidad de Utah, donde Ivan Sutherland se trasladó. Con un PDP-10 inicialmente conectado.

3-¿En que año se estableció el primer enlance de Arpanet y de donde a donde?
El primer enlace de ARPANET se estableció el 21 de noviembre de 1969 entre UCLA y Stanford. El 5 de diciembre del mismo año, toda la red inicial estaba lista.

4-¿Cuando y quien publico el primer documento sobre la teoría de conmutación de paquetes?
En Julio de 1961 Leonard Kleinrock publicó desde el MIT el primer documento sobre la teoría de conmutación de paquetes.

5-¿Cuando fue la demostración pública de la nueva tecnología de red (ARPANET)?
La primera demostración pública de ARPANET fue en Octubre de 1972.

6-¿Cuales fueron las primeras ideas fundamentales Kahn?
Las cuatro ideas principales fueron:

Cada red distinta debería mantenerse por sí misma y no deberían requerirse cambios internos a ninguna de ellas para conectarse a Internet.
Las comunicaciones deberían ser establecidas en base a la filosofía del "best-effort" (lo mejor posible). Si un paquete no llegara a su destino debería ser en breve retransmitido desde el emisor.
Para interconectar redes se usarían cajas negras, las cuales más tarde serían denominadas gateways (pasarelas) y routers (enrutadores). Los gateways no deberían almacenar información alguna sobre los flujos individuales de paquetes que circulasen a través de ellos, manteniendo de esta manera su simplicidad y evitando la complicada adaptación y recuperación a partir de las diversas modalidades de fallo.
No habría ningún control global a nivel de operaciones.

7- ¿A quien le pidió kahn que trabajara con el en el diseño del protocolo?
Le pidió a Vinton Cerf.

8- ¿Cuáles son las directrices básicas que surgieron de la colaboración entre Kahn y Cerf?
Las directrices básicas son:

Las comunicaciones entre dos procesos consistirían lógicamente en un larga corriente de bytes; ellos los llamaban "octetos". La posición de un octeto dentro de esta corriente de datos sería usada para identificarlo.
El control del flujo se realizaría usando ventanas deslizantes y acks (N. del T.: abreviatura de acknowledgement, acuse de recibo). El destinatario podría decidir cuando enviar acuse de recibo y cada ack devuelto correspondería a todos los paquetes recibidos hasta el momento.
Se dejó abierto el modo exacto en que emisor y destinatario acordarían los parámetros sobre los tamaños de las ventanas a usar. Se usaron inicialmente valores por defecto.
Aunque en aquellos momentos Ethernet estaba en desarrollo en el PARC de Xerox, la proliferación de LANs no había sido prevista entonces y mucho menos la de PCs y estaciones de trabajo. El modelo original fue concebido como un conjunto, que se esperaba reducido, de redes de ámbito nacional tipo ARPANET. De este modo, se usó una dirección IP de 32 bits, de la cual los primeros 8 identificaban la red y los restantes 24 designaban el host dentro de dicha red. La decisión de que 256 redes sería suficiente para el futuro previsible debió empezar a reconsiderarse en cuanto las LANs empezaron a aparecer a finales de los setenta.


9-¿De que se encargaba El documento original de Cerf y kahn?


El documento original de Cerf y Kahn sobre Internet describía un protocolo, llamado TCP, que se encargaba de proveer todos los servicios de transporte y reenvío en Internet.

10-¿Cuál fue una de las motivaciones iniciales de ARPANET e Internet?

Una de las motivaciones iniciales de ARPANET e Internet fue compartir recursos, por ejemplo, permitiendo que usuarios de redes de paquetes sobre radio pudieran acceder a sistemas de tiempo compartido conectados a ARPANET.

11-¿Qué mostraban los "programas-gusano"?
Mostraban el concepto de agente (y, por supuesto, de virus).

12-¿Con quien y para que DARPA formalizó tres contratos?
DARPA formalizó tres contratos con Stanford (Cerf), BBN (Ray Tomlinson) y UCLA (Peter Kirstein) para implementar TCP/IP (en el documento original de Cerf y Kahn se llamaba simplemente TCP pero contenía ambos componentes).

13-¿Cómo estaba INTERNET en 1985?
En 1985, Internet estaba firmemente establecida como una tecnología que ayudaba a una amplia comunidad de investigadores y desarrolladores, y empezaba a ser empleada por otros grupos en sus comunicaciones diarias entre ordenadores.

14-¿Cuáles fueron otras decisiones que pusieron en práctica las agencias federales norteamericanas?
Las agencias federales compartían el coste de la infraestructura común, como los circuitos transoceánicos. También mantenían la gestión de puntos de interconexión para el tráfico entre agencias: los "Federal Internet Exchanges" (FIX-E y FIX-W) que se desarrollaron con este propósito sirvieron de modelo para los puntos de acceso a red y los sistemas *IX que son unas de las funcionalidades más destacadas de la arquitectura de la Internet actual.
Para coordinar estas actividades se formó el FNC (Federal Networking Council, Consejo Federal de Redes) (9). El FNC cooperaba también con otras organizaciones internacionales, como RARE en Europa, a través del CCIRN (Coordinating Committee on Intercontinental Research Networking, Comité de Coordinación Intercontinental de Investigación sobre Redes) para coordinar el apoyo a Internet de la comunidad investigadora mundial.
Esta cooperación entre agencias en temas relacionados con Internet tiene una larga historia. En 1981, un acuerdo sin precedentes entre Farber, actuando en nombre de CSNET y NSF, y Kahn por DARPA, permitió que el tráfico de CSNET compartiera la infraestructura de ARPANET de acuerdo según parámetros estadísticos.
En consecuencia, y de forma similar, la NFS promocionó sus redes regionales de NSFNET, inicialmente académicas, para buscar clientes comerciales, expandiendo sus servicios y explotando las economías de escala resultantes para reducir los costes de suscripción para todos.
En el backbone NFSNET (el segmento que cruza los EE.UU.) NSF estableció una política aceptable de uso (AUP, Acceptable Use Policy) que prohibía el uso del backbone para fines "que no fueran de apoyo a la Investigación y la Educación". El predecible e intencionado resultado de promocionar el tráfico comercial en la red a niveles locales y regionales era estimular la aparición y/o crecimiento de grandes redes privadas y competitivas como PSI, UUNET, ANS CO+RE, y, posteriormente, otras. Este proceso de aumento de la financiación privada para el uso comercial se resolvió tras largas discusiones que empezaron en 1988 con una serie de conferencias patrocinadas por NSF en la Kennedy School of Government de la Universidad de Harvard, bajo el lema "La comercialización y privatización de Internet", complementadas por la lista "com-priv" de la propia red.
En 1988 un comité del National Research Council (Consejo Nacional de Investigación), presidido por Kleinrock y entre cuyos miembros estaban Clark y Kahn, elaboró un informe dirigido a la NSF y titulado "Towards a National Research Network". El informe llamó la atención del entonces senador Al Gore (N. del T.: Vicepresidente de los EE.UU. desde 1992) le introdujo en las redes de alta velocidad que pusieron los cimientos de la futura «Autopista de la Información».
La política de privatización de la NSF culminó en Abril de 1995 con la eliminación de la financiación del backbone NSFNET. Los fondos así recuperados fueron redistribuidos competitivamente entre redes regionales para comprar conectividad de ámbito nacional a Internet a las ahora numerosas redes privadas de larga distancia.

15-¿Cual fue la financiación del programa NSFNET entre 1986 y 1995?

La financiación fue de 200 millones de dólares.


16-¿Cuál era el efecto de la RFC?

El efecto de las RFC era crear un bucle positivo de realimentación, con ideas o propuestas presentadas a base de que una RFC impulsara otra RFC con ideas adicionales y así sucesivamente.


17-¿Cómo son vistas las RFC ahora?

Las RFC son vistas ahora como los documentos de registro dentro de la comunidad de estándares y de ingeniería en Internet.

18- ¿Cuáles fueron los grupos formaos por Vinton Cerf a fines de los 70?
El ICB (International Cooperation Board, Consejo de Cooperación Internacional) presidido por Peter Kirstein, para coordinar las actividades con los países cooperantes europeos y dedicado a la investigación en Paquetería por Satélite; el Internet Research Group (Grupo de Investigación en Internet), que fue un grupo inclusivo para proporcionar un entorno para el intercambio general de información; y el ICCB (Internet Configuration Control Board , Consejo de Control de la Configuración de Internet), presidido por Clark. El ICCB fue un grupo al que se pertenecía por invitación para asistir a Cerf en la dirección de la actividad incipiente de Internet.

19-¿Qué observaron, en 1983, Barry Leiner y Clark?

Ellos observaron que el continuo crecimiento de la comunidad de Internet demandaba la reestructuración de los mecanismos de coordinación. El ICCB fue disuelto y sustituido por una estructura de equipos de trabajo, cada uno de ellos enfocado a un área específica de la tecnología, tal como los routers (encaminadores) o los protocolos extremo a extremo. Se creó el IAB (Internet Architecture Board, Consejo de la Arquitectura de Internet) incluyendo a los presidentes de los equipos de trabajo. Era, desde luego, solamente una coincidencia que los presidentes de los equipos de trabajo fueran las mismas personas que constituían el antiguo ICCB, y Clark continuó actuando como presidente.

20-¿Qué significa WWW?
Significa World Wide Web.

lunes, 31 de marzo de 2008

Historia


















Generaciones de la computadora





En este artículo estudiaremos como se han ido sucediendo la generaciones de computadoras. Partiendo de 1946 hasta nuestros días.





La Primera Generación





.P. Eckert y John Mauchly, de la Universidad de Pensilvania, inauguraron el nuevo ordenador el 14 de febrero de 1946. El ENIAC era mil veces más rápido que cualquier máquina anterior, resolviendo 5 mil adiciones y sustracciones, 350 multiplicaciones o 50 divisiones por segundo. Y tenía el doble del tamaño del Mark I: llenó 40 gabinetes con 100 mil componentes, incluyendo cerca de 17 mil válvulas electrónicas. Pesaba 27 toneladas y medía 5,50 x 24,40 m y consumía 150 KW. A pesar de sus incontables ventiladores, la temperatura ambiente llegaba a los 67 grados centígrados. Ejecutaba 300 multiplicaciones por segundo, pero, como fue proyectado para resolver un conjunto particular de problemas, su reprogramación era muy lenta. Tenía cerca de 19.000 válvulas sustituidas por año. En 1943, antes de la entrada en operación del ENIAC Inglaterra ya poseía el Colossus, máquina creada por Turing para descifrar los códigos secretos alemanes.





ENIAC





En 1945 Von Neumann sugirió que el sistema binario fuera adoptado en todos los ordenadores, y que las instrucciones y datos fueran compilados y almacenados internamente en el ordenador, en la secuencia correcta de utilización. Estas sugerencias sirvieron de base filosófica para los proyectos de ordenadores. (Actualmente se investigan ordenadores "no Von Neumann", que funcionan con fuzzy logic, lógica confusa) A partir de esas ideas, y de la lógica matemática o álgebra de Boole, introducida por Boole en el inicio del siglo XIX, es que Mauchly y Eckert proyectaron y construyeron el EDVAC, Electronic Discrete Variable Automatic Computer, completado en 1952, que fue la primera máquina comercial electrónica de procesamiento de datos del mundo. Ellos habían intentado eso con El BINAC, ordenador automático binario, de 1949, que era compacto (1,40 x 1,60 x 0,30 m) lo suficiente para ser llevado a bordo de un avión, pero que nunca funcionó. El EDVAC utilizaba memorias basadas en líneas de retardo de mercurio, muy caras y más lentas que los CRTs, pero con mayor capacidad de almacenamiento. Wilkes construyó el EDSAC, Electronic Delay Storage Automatic Calculator en 1949, que funcionaba según la técnica de programas almacenados.





El primer ordenador comercial de gran escala fue el UNIVAC, Universal Automatic Computer, americano, de 1951, que era programado tocando cerca de 6.000 llaves y conectando cables a un panel. La entrada y salida de informacion era realizada por una cinta metálica de 1/2 pulgada de ancho y 400 m de largo. En total, se vendieron 46 unidades del UNIVAC Modelo I, que eran normalmente acompañados de un dispositivo impresor llamado UNIPRINTER, que, solo, consumía 14.000 W. Otro fue el IBM 701, de 1952, que utilizaba cinta plástica, más rápida que la metálica del UNIVAC, y el IBM 704, con la capacidad fenomenal de almacenar 8.192 palabras de 36 bits, ambos de IBM. En Inglaterra surgen el MADAM, Manchester Automatic Digital Machine, el SEC, Simple Electronic Computer, y el APEC, All-Purpose Electronic Computer.





Entre 1945 y 1951, el WHIRLWIND, del MIT, fue el primer ordenador que procesaba informacion en tiempo real, con entrada de datos a partir de cintas perforadas y salida en CRT (monitor de vídeo), o en la Flexowriter, una especie de máquina de escribir (Whirlwind quiere decir remolino).En 1947 Bardeen, Schockley y Brattain inventan el transístor, y, en 1953 Jay Forrester construye una memoria magnética. Los ordenadores a transistores surgen en los años 50, pesando 150 kg, con consumo inferior la 1.500 W y mayor capacidad que sus antecesores valvulados.





La Segunda Generación





Ejemplos de esta época son el IBM 1401 y el BURROUGHS B 200. En 1954 IBM comercializa el 650, de tamaño medio. El primer ordenador totalmente transistorizado fue el TRADIC, del Bell Laboratories. El IBM TX-0, de 1958, tenía un monitor de vídeo de primera calidad, era rápido y relativamente pequeño, poseia dispositivo de salida sonora. El PDP-1, procesador de datos programable, construido por Olsen, fue una sensación en el MIT: los alumnos jugaban Spacewar! y Ratón en el laberinto, a través de un joystick y un lapiz óptico.

BURROUGH





En 1957 el matemático Von Neumann colaboró para la construcción de un ordenador avanzado, el cual, como broma, recibió el nombre de MANIAC, Mathematical Analyser Numerator Integrator and Computer. En enero de 1959 Tejas Instruments anuncia al mundo una creación de Jack Kilby: el circuito integrado. Mientras a una persona de nivel medio le llevaría cerca de cinco minutos multiplicar dos números de diez dígitos, MARK I lo hacía en cinco segundos, el ENIAC en dos milésimas de segundo, un ordenador transistorizado en cerca de cuatro billonésimas de segundo, y, una máquina de tercera generación en menos tiempo aún.





La Tercera Generación





Esta generación es de la década del 60, con la introducción de los circuitos integrados. El Burroughs B-2500 fue uno de los primeros. Mientras el ENIAC podía almacenar veinte números de diez dígitos, estos podían almacenar millones de números. Surgen conceptos como memoria virtual, multiprogramación y sistemas operacionales complejos. Ejemplos de esta época son el IBM 360 y el BURROUGHS B-3500.





IBM 360





En 1960 existían cerca de 5.000 ordenadores en los EUA. Es de esta época el término software. En 1964, la CSC, Computer Sciences Corporation, creada en 1959 con un capital de 100 dólares, se transformo en la primera compañía de software con acciones negociadas en bolsa. El primer mini computador comercial surgió en 1965, el PDP-5, lanzado por la americana DEC, Digital Equipament Corporation. Dependiendo de su configuración y accesorios él podía ser adquirido por el accesible precio de US$ 18,000.00. Le siguió el PDP-8, de precio más competitivo. Siguiendo su camino otras compañías lanzaron sus modelos, haciendo que a finales de la década ya existieran cerca de 100.000 ordenadores esparcidos por el mundo. En 1970 INTEL Corporation introdujo en el mercado un nuevo tipo de circuito integrado: el microprocesador. El primero fue el 4004, de cuatro bits. Fue seguido por el 8008, en 1972, el difundidísimo 8080, el 8085, etc. A partir de ahí surgen los microcomputadores. Para muchos, la cuarta generación surge con los chips VLSI, de integración a muy larga escala. Las cosas comienzan a desarrollarse con mayor rapidez y frecuencia. En 1972 Bushnell lanza el vídeo game Atari. Kildall lanza el CP/M en 1974. El primer kit de microcomputador, el ALTAIR 8800 en 1974/5. En 1975 Paul Allen y Bill Gates crean Microsoft y el primer software para microcomputador: una adaptación BASIC para el ALTAIR. En 1976 Kildall establece la Digital Research Incorporation, para vender el sistema operacional CP/M. En 1977 Jobs y Wozniak crean el microcomputador Apple, a Radio Shack el TRS-80 y la Commodore el PET. La plantilla Visicalc (calculador visible) de 1978/9, primer programa comercial, de Software Arts. En 1979 Rubinstein comienza a comercializar un software escrito por Barnaby: el Wordstar, y Paul Lutus produce el Apple Writer. El programa de un ingeniero de la NASA, Waine Ratliff, el dBASE II, de 1981. También de 1981 IBM-PC y el Lotus 1-2-3, de Kapor, que alcanzó la lista de los más vendidos en 1982.





El Sinclair ZX81/ZX Spectrum es un ordenador minúsculo concebido por John Sinclair, profesor en la Universidad de Cambrige en U.K.Inicialmente concebido para la utilización de los estudiantes de la Universidad de Cambrige. La CPU tenía un procesador Zilog Z80A de 8 bit a 3,25 MHZ, una memoria compuesta por una ROM y una RAM y una ULA. La ROM, con 8K de capacidad, almacenaba de modo permanente los programas, tablas etc. necesarios para el funcionamiento del sistema y un traductor para el lenguaje de programación BASIC. La RAM tenía un área de trabajo disponible para el usuario de 1 K pero, era expandible hasta 16K. En la caja de plástico se alojaba también un subsistema de comunicaciones para conexión en serie a periféricos denominado SCL (Sinclair Computer Logic), una unidad para entrada y salida de sonido, un codificador de imágenes para TV. En la parte trasera de la caja de plástico tenía un conector donde se podía conectar una impresora minúscula que usaba un rollo de papel especial. El ordenador era suministrado con un cable para la conexión al televisor y otro para la conexión con un grabador de "cassettes" musical (norma Philips). El transformador de corriente eléctrica alterna a continua era adquirido por separado. Los programas y datos eran grabados en un cassette magnético y eran también leídos desde uno.El teclado no tenía teclas. Los caracteres ASCII eran impresos en una membrana. Esta tecnología y la falta de ventilación de la unidad de alimentación eléctrica eran las causas principales de averías que enviaban el ZX81 a la basura. Fue un ordenador muy popular debido a su bajo precio de venta.





Osborne1





Fabricado por la Osborne en USA alrededor de año 1982. La CPU tenía una memoria de 64KB, una UAL y un Procesador Zilog Z80A de 8 bit a 4 MHZ. La caja, del tipo maleta attaché con un peso de 11 Kg, albergaba 2 unidades de disquete de 5" 1/4 con 204 KB o con opción a 408 KB de capacidad, un monitor de 5" (24 líneas por 54 columnas) en blanco y negro y un teclado basculante (servía de tapa de la maleta) con dos bloques de teclas, uno alfanumérico con los caracteres ASCII y otro numérico. Disponía de conectores para un monitor externo, ports serie RS-232C y paralelo IEEE-488 o Centronics.El sistema era alimentado por una batería propia recargable con una autonomía de 5 horas, por una batería externa de automóvil o por un transformador de corriente eléctrica alterna a continua.El sistema operativo era el CP/M desarrollada por la Digital Corporation. El software suministrado incluía un Interpretador M BASIC desarrollado por MICROSOFT, un Compilador BASIC desarrollado por la Compyler Systems, una hoja de cálculo SUPERCALC (derivada del Visicalc) y un procesador de texto denominado WORDSTAR. Podía ser programado en BASIC, FORTRAN, COBOL, PASCAL, PL 1, ALGOL, C, FORTH, ADA, ASSEMBLER y CROSS-ASSEMBLER.Última morada conocida: desconocida (fue visto en la FILEME-82 en Lisboa).





IBM PC/XT





Fabricado por IBM en USA alrededor de año 1980, inició con la versión PC-XT, a la cual le siguió una versión PC-AT.El CPU comprendía una memoria ROM de 40KB y una memoria RAM de 64KB expandible hasta 640KB, una ULA y un procesador Intel 8088 de 16 bit con una frecuencia de reloj de 4,77 MHZ.Era construido con tres módulos separados: CPU, monitor y teclado. El monitor era blanco y negro con 25 líneas por 80 columnas pudiendo ser substituido por un monitor con 16 colores. La CPU además del procesador albergaba una unidad de disquete de 5" 1/4 con una capacidad de 360KB pudiendo alojar otra unidad de disquete idéntica o un disco rígido con 10MB de capacidad, que era parte integrada en la versión PC-XT. El teclado con 83 teclas, 10 de las cuáles correspondían a funciones pre-programadas, disponía de caracteres acentuados. Poseia una salida para impresora y el PC-XT disponía de un interfaz para comunicaciones assincronas. El sistema operativo era el PC/MS-DOS el cual era un MS-DOS desarrollado por Microsoft para IBM. El lenguaje de programación que utilizada era el BASIC.. Sólo cerca de dos años después, con la presentación de los modelos PS/2-50 y PS/2-60, que eran equipados con un procesador Intel 80286, la IBM recuperó el sector de mercado de los PCS utilizando para el efecto la penetración en las empresas donde tenía instalado mainframes y "pequeños ordenadores".

PC XT





La Cuarta Generación (1981-1990)





Surgieron en el transcurso del uso de la técnica de los circuitos LSI (LARGE SCALE INTEGRATION) y VLSI (VERY LARGE SCALE INTEGRATION). En ese periodo surgió también el procesamiento distribuido, el disco ótico y la gran difusión del microcomputador, que pasó a ser utilizado para procesamiento de texto, cálculos auxiliados, etc.1982- Surge el 286
Usando memoria de 30 pines y slots ISA de 16 bits, ya venía equipado con memoria cache, para auxiliar al procesador en sus funciones. Utilizaba monitores CGA, en algunos raros modelos estos monitores eran coloreados pero la gran mayoría era verde, naranja o gris.1985- El 386
Usaba memoria de 30 pines, pero debido a su velocidad de procesamiento ya era posible correr softwares graficos más avanzados como era el caso del Windows 3.1, su antecesor podía correr sólo la versión 3.0 debido a la baja calidad de los monitores CGA, el 386 ya contaba con placas VGA que podían alcanzar hasta 256 colores si es que el monitor soportara esa configuración.





386





1989- El 486 DX





A partir de este momento el coprocessador matemático junto con el propio procesador, hubo también una mejora sensible en la velocidad debido a la aparición de la memoria de 72 pines, mucho más rapida que su antepasada de 30 pines y de las placas PCI de 32 bits dos veces más veloces que las placas ISA . Los equipamientos ya tenían capacidad para las placas SVGA que podrían alcanzar hasta 16 millones de colores, sin embargo esto sería usado comercialmente más adelante con la aparición del Windows 95.





La Quinta Generación (1991-hasta hoy)





Las aplicaciones exigen cada vez más una mayor capacidad de procesamiento y almacenamiento de datos. Sistemas especiales, sistemas multimedia (combinación de textos, gráficos, imágenes y sonidos), bases de datos distribuidas y redes neutrales, son sólo algunos ejemplos de esas necesidades. Una de las principales características de esta generación es la simplificación y miniaturización del ordenador, además de mejor desempeño y mayor capacidad de almacenamiento. Todo eso, con los precios cada vez más accesibles. La tecnología VLSI está siendo sustituida por la ULSI (ULTRA LARGE SCALE INTEGRATION).El concepto de procesamiento está yendo hacia los procesadores paralelos, o sea, la ejecución de muchas operaciones simultáneamente por las máquinas. La reducción de los costos de producción y del volumen de los componentes permitió la aplicación de estos ordenadores en los llamados sistemas embutidos, que controlan aeronaves, embarcaciones, automóviles y ordenadores de pequeño porte. Son ejemplos de esta generación de ordenadores, los micros que utilizan la línea de procesadores Pentium, de INTEL.





1993- Surge el Pentium





Grandes cambios en este periodo se darían debido a las memorias DIMM de 108 pines, a la aparición de las placas de video AGP y a un perfeccionamiento de los slots PCI mejorando aún más su performance.
1997- El Pentium II1999




- El Pentium III2001- el Pentium 4





No hay grandes novedades después de 1997, ya que los cambios estuvieron basados en los cada vez más veloces procesadores




.
El Futuro - Aquí viene el ordenador cuántico





IBM anunció la construcción del más avanzado ordenador cuántico del mundo. La novedad representa un gran paso en relación al actual proceso de fabricación de chips con silicio que, de acuerdo con especialistas, debe alcanzar el máximo de su limitación física de procesamiento entre 10 y 20 años.El ordenador cuántico usa, en lugar de los tradicionales microprocesadores de chips de silicio, un dispositivo basado en propiedades físicas de los átomos, como el sentido de giro de ellos, para contar números uno y cero (bits), en vez de cargas eléctricas como en los ordenadores actuales. Otra característica es que los átomos también pueden sobreponerse, lo que permite al equipamiento procesar ecuaciones mucho más rápido.

miércoles, 26 de marzo de 2008

PC





Especificaciones técnicas
Características Generales
Teclado SI
Mouse SI
Parlantes SI
Tarjeta de Red SI
Audio SI
Modem SI
Puertos USB 6
Puerto Paralelo NO
Disco Rígido

Capacidad 80 GB
Velocidad 7200 RPM
Memoria
RAM 512 MB
Tipo DDR2
Procesador

Marca AMD
Modelo ATHLON LE-1600
Sistema Operativo

Sistema Operativo WINDOWS
Versión VISTA STARTER
Unidad Optica

Unidad Optica CDRW+DVD ROM (COMBO)

Unidades de Almacenamiento


Las unidades de almacenamiento son aquellos dispositivos, ya sea internos o externos, donde se guardan físicamente los archivos de un sistema.

Disco Duro
El disco duro almacena casi toda la información que manejamos al trabajar con una computadora. En él se aloja, por ejemplo, el sistema operativo que permite arrancar la máquina, los programas, los archivos de texto, imagen...

Unidad de 3,5 pulgadas

La unidad de 3,5 pulgadas permite intercambiar información utilizando disquetes magnéticos de 1,44 MB de capacidad. Aunque la capacidad de soporte es muy limitada si tenemos en cuenta las necesidades de las aplicaciones actuales se siguen utilizando para intercambiar archivos pequeños, pues pueden borrarse y reescribirse cuantas veces se desee de una manera muy cómoda, aunque la transferencia de información es bastante lenta si la comparamos con otros soportes, como el disco duro o un CD-ROM.

Unidad de CD-ROM

La unidad de CD-ROM permite utilizar discos ópticos de una mayor capacidad que los disquetes de 3,5 pulgadas hasta 700 MB. Ésta es su principal ventaja, pues los CD-ROM se han convertido en el estándar para distribuir sistemas operativos, aplicaciones, etc.


Unidad de CD-RW (Regrabadora)

Las unidades de CD-ROM son sólo de lectura. Es decir, pueden leer la información en un disco, pero no pueden escribir datos en él.

Unidad de DVD-ROM

Las unidades de DVD-ROM son aparentemente iguales que las de CD-ROM, pueden leer tanto discos DVD-ROM como CD-ROM. Se diferencian de las unidades lectoras de CD-ROM en que el soporte empleado tiene hasta 17 GB de capacidad, y en la velocidad de lectura de los datos. La velocidad se expresa con otro número de la «x»: 12x, 16x... Pero ahora la x hace referencia a 1,32 MB/s. Así: 16x = 21,12 MB/s.


Unidad de DVD-RW

Puede leer y grabar imágenes, sonido y datos en discos de varios gigabytes de capacidad, de una capacidad de 650 MB a 9 GB.


Pen Drive

Una memoria USB (de Universal Serial Bus, en inglés pendrive o USB flash drive) es un pequeño dispositivo de almacenamiento que utiliza memoria flash para guardar la información sin necesidad de baterías (pilas). Estas memorias son resistentes a los rasguños y al polvo que han afectado a las formas previas de almacenamiento portátil, como los CD y los disquetes.

1 GB son exactamente 1024 mb

asi también:

1 Byte = 8 Bits
1 Kilobyte = 1024 Bytes
1 MegaByte = 1024 kilobytes
1 Gigabyte = 1024 MegaBytes

1 TeraByte = 1024 GibaBytes

miércoles, 19 de marzo de 2008

Perifericos













Se denominan periféricos tanto a las unidades o dispositivos a través de los cuales la computadora se comunica con el mundo exterior, como a los sistemas que almacenan o archivan la información, sirviendo de memoria auxiliar de la memoria principal.
Se entenderá por periférico a todo conjunto de dispositivos que, sin pertenecer al núcleo fundamental de la computadora, formado por la
CPU y la memoria central, permitan realizar operaciones de entrada/salida (E/S) complementarias al proceso de datos que realiza la CPU. Estas tres unidades básicas en un computador, CPU, memoria central y el subsistema de E/S, están comunicadas entre sí por tres buses o canales de comunicación: el bus de direcciones, para seleccionar la dirección del dato o del periférico al que se quiere acceder, el bus de control, básicamente para seleccionar la operación a realizar sobre el dato (principalmente lectura, escritura o modificación) y el bus de datos, por donde circulan los datos.






Los periféricos pueden clasificarse en 4 categorías principales:




Captan y envían los datos al dispositivo que los procesa..
Periféricos de salida:


Son dispositivos que muestran o proyectan información hacia el exterior del ordenador. La mayoría son para informar, alertar, comunicar, proyectar o dar al usuario cierta información, de la misma forma se encargan de convertir los impulsos eléctricos en información legible para el usuario. Sin embargo, no todos este tipo de periféricos es información para el usuario.
Periféricos de almacenamiento:


Son los dispositivos que almacenan datos e información por bastante tiempo. La memoria RAM no puede ser considerada un periférico de almacenamiento, ya que su memoria es volátil y temporal.
Periféricos de comunicación:


Son los periféricos que se encargan de comunicarse con otras máquinas o computadoras, ya sea para trabajar en conjunto, o para enviar y recibir información