domingo, 12 de septiembre de 2010

TERMINALES

Una terminal, conocida también como consola o shell (en inglés "cáscara", refiriéndose a la carcasa que contiene un intérprete de comandos, no confundir con su homónimo virtual que actúa bajo las especificaciones estándar) es un dispositivo electrónico o electromecánico de hardware, usado para introducir o mostrar datos de un computadora o de un sistema de computación.


Terminales de texto:
Un típico terminal de texto produce la entrada y exhibe la salida y los errores.Un terminal de texto, o a menudo solo terminal (a veces cónsola de texto) es un un terminal con una interface serial para comunicarse con un computador, un teclado para entrada de datos y una pantalla para exhibición de únicamente caracteres alfanuméricos (sin gráficos). La información es presentada como un arreglo de caracteres preseleccionados. Cuando tales dispositivos usan una pantalla de video como un tubo de rayos catódicos, son llamados "unidad de presentación visual" (UDV) o "terminal de exhibición video" (VDT).


Terminal tonto:

El significado específico del término terminal tonto puede variar dependiendo del contexto en el cual es usado. En el contexto de los terminales tradicionales de computadora que se comunican sobre una conexión serial RS-232, los terminales tontos solo pueden interpretar un número muy limitado de códigos de control (CR, LF etc.) pero no tienen la capacidad de procesar las secuencias de escape especiales que realizan funciones tales borrar una línea, borrar la pantalla, controlar la posición del cursor, los colores del texto, etc. En este contexto los terminales tontos a veces son llamados como teletipos de cristal, porque esencialmente tienen la misma funcionalidad limitada que la de un teletipo mecánico.
En el contexto más amplio que incluye todas las formas de dispositivos de comunicación de computador de teclado/pantalla, incluyendo los computadores personales, estaciones de trabajo sin disco, computadores de red, clientes livianos, y terminales X, el término terminal tonto es a veces usado para referirse a cualquier tipo de terminal tradicional, que se comunique serialmente con una conexión RS-232, y que no procese datos ni ejecute programas de usuario localmente.


Terminales gráficos:

Un terminal gráfico puede exhibir imágenes tan bien como texto. Los terminales gráficos son divididos en terminales modo de vector, y modo de trama.
Una exhibición de modo vectorial dibuja directamente líneas en la superficie de un tubo de rayos catódicos bajo el control del sistema de computador huésped. Las líneas son formadas continuamente, pero puesto que la velocidad de la electrónica es limitada, el número de líneas concurrentes que pueden ser exhibidas a un tiempo es limitado. las exhibiciones del modo vectorial fueron históricamente importantes pero no son usadas más. Prácticamente todas las representaciones gráficas modernas son de modo rasterizado, descendiendo de las técnicas de exploración del cuadro usadas para la televisión, en la cual los elementos visuales son un arreglo rectangular de píxels. Puesto que la imagen de trama es solamente perceptible al ojo humano como un todo por un muy breve período, la trama debe ser refrescada muchas veces por segundo para dar el aspecto de una exhibición persistente. Las demandas electrónicas de refrescar la memoria de exhibición significó que los terminales gráficos fuesen desarrollados mucho más posteriormente que los terminales de texto, e inicialmente costaron mucho más.
Los terminales gráficos modernos permiten la exhibición de imágenes en color, y de texto en varios tamaños, colores, y fuentes

CABLEADO DE RED

PATCH CABLE: Straing-Through

Cable de conexión directa: conecta un PC/Panel al Hub/Switch

Ambos conectores (Estándar T568-B):

Prueba visual: Se colocan los conectores uno contra el otro y los colores están totalmente opuestos.

(1) T568B: BlancoNaranja/Naranja/BlancoVerde/Azul/BlancoAzul/Verde/BlancoMarrón/Marrón
(2) T568B: BlancoNaranja/Naranja/BlancoVerde/Azul/BlancoAzul/Verde/BlancoMarrón/Marró



Cable Rollover o de Consola:

Se utiliza para conectar una PC al router. Puede tener hasta 7.5mts. Utiliza una interfaz serial asincrónica (8 BIT de datos y 2 BIT de parada.

1 Blanco/Naranja Chocolate 1
2 Naranja Blanco/ Chocolate 2
3 Blanco/Verde Verde 3
4 Azul Blanco/Azul 4
5 Blanco/Azul Azul 5
6 Verde Blanco/Verde 6
7 Blanco/Chocolate Naranja 7
8 Chocolate Blanco/Naranja 8



ROLLOVER
Cable consola: conecta un PC al Router-Cable Consola.
Prueba visual: Se colocan los conectores uno contra el otro y los colores coinciden totalmente.

(1) T568B: BlancoNaranja/Naranja/BlancoVerde/Azul/BlancoAzul/Verde/BlancoMarrón/Marrón
(2) T568B: Marrón/BlancoMarrón/Verde/BlancoAzul/Azul/BlancoVerde/Naranja/BlancoNaranja

Pines: (1.8-2.7-3.6-4.5-5.4-6.3-7.2-8.1)



CROSS-OVER 0 Cross- Connet
Cable de conexión cruzada: Conecta nodo a nodo (PC con PC, hub con hub, hub con switch)
Prueba visual: Se colocan los conectores uno al lado del otro y los colores coinciden con los pines

Correspondientes.
(1) T568A: BlancoVerde/Verde/BlancoNaranja/Azul/BlancoAzul/Naranja//BlancoMarrón/Marrón
(1) T568B: BlancoNaranja/Naranja/BlancoVerde/Azul/BlancoAzul/Verde/BlancoMarrón/Marrón

Pines: (1.3-2.6-3.1-4.4-5.5-6.2-7.7-8.8)



568-A 568-B
1 Blanco/Verde Blanco/Naranja 1
2 Verde Naranja 2
3 Blanco/Naranja Blanco/Verde 3
4 Azul Azul 4
5 Blanco azul Blanco azul 5
6 Naranja Verde 6
7 Blanco/ Chocolate Blanco/ Chocolate 7
8 Chocolate Chocolate 8



TOPOLOGIAS DE RED

La disposición de los diferentes componentes de una red se conoce con el nombre de topología de la red. La topología idónea para una red concreta va a depender de diferentes factores, como el número de máquinas a interconectar, el tipo de acceso al medio físico que deseemos, etc.


Topología de bus:
La topología de bus tiene todos sus nodos conectados directamente a un enlace y no tiene ninguna otra conexión entre nodos. Físicamente cada host está conectado a un cable común, por lo que se pueden comunicar directamente, aunque la ruptura del cable hace que los hosts queden desconectados.
La topología de bus permite que todos los dispositivos de la red puedan ver todas las señales de todos los demás dispositivos, lo que puede ser ventajoso si desea que todos los dispositivos obtengan esta información. Sin embargo, puede representar una desventaja, ya que es común que se produzcan problemas de tráfico y colisiones, que se pueden paliar segmentando la red en varias partes.
Es la topología más común en pequeñas LAN, con hub o switch final en uno de los extremos.



Topología de anillo:
Una topología de anillo se compone de un solo anillo cerrado formado por nodos y enlaces, en el que cada nodo está conectado solamente con los dos nodos adyacentes.
Los dispositivos se conectan directamente entre sí por medio de cables en lo que se denomina una cadena margarita. Para que la información pueda circular, cada estación debe transferir la información a la estación adyacente.



Topología de anillo doble:
Una topología en anillo doble consta de dos anillos concéntricos, donde cada host de la red está conectado a ambos anillos, aunque los dos anillos no están conectados directamente entre sí. Es análoga a la topología de anillo, con la diferencia de que, para incrementar la confiabilidad y flexibilidad de la red, hay un segundo anillo redundante que conecta los mismos dispositivos.
La topología de anillo doble actúa como si fueran dos anillos independientes, de los cuales se usa solamente uno por vez.

 
Topología en estrella:
La topología en estrella tiene un nodo central desde el que se irradian todos los enlaces hacia los demás nodos. Por el nodo central, generalmente ocupado por un hub, pasa toda la información que circula por la red.  La ventaja principal es que permite que todos los nodos se comuniquen entre sí de manera conveniente. La desventaja principal es que si el nodo central falla, toda la red se desconecta.



Topología en estrella extendida:
La topología en estrella extendida es igual a la topología en estrella, con la diferencia de que cada nodo que se conecta con el nodo central también es el centro de otra estrella. Generalmente el nodo central está ocupado por un hub o un switch, y los nodos secundarios por hubs.
La ventaja de esto es que el cableado es más corto y limita la cantidad de dispositivos que se deben interconectar con cualquier nodo central. La topología en estrella extendida es sumamente jerárquica, y busca que la información se mantenga local. Esta es la forma de conexión utilizada actualmente por el sistema telefónico.


Topología en árbol:

La topología en árbol es similar a la topología en estrella extendida, salvo en que no tiene un nodo central. En cambio, un nodo de enlace troncal, generalmente ocupado por un hub o switch, desde el que se ramifican los demás nodos. El enlace troncal es un cable con varias capas de ramificaciones, y el flujo de información es jerárquico. Conectado en el otro extremo al enlace troncal generalmente se encuentra un host servidor.



Topología en malla completa:
En una topología de malla completa, cada nodo se enlaza directamente con los demás nodos. Las ventajas son que, como cada todo se conecta físicamente a los demás, creando una conexión redundante, si algún enlace deja de funcionar la información puede circular a través de cualquier cantidad de enlaces hasta llegar a destino. Además, esta topología permite que la información circule por varias rutas a través de la red.
La desventaja física principal es que sólo funciona con una pequeña cantidad de nodos, ya que de lo contrario la cantidad de medios necesarios para los enlaces, y la cantidad de conexiones con los enlaces se torna abrumadora.



Topología de red celular:

La topología celular está compuesta por áreas circulares o hexagonales, cada una de las cuales tiene un nodo individual en el centro. La topología celular es un área geográfica dividida en regiones (celdas) para los fines de la tecnología inalámbrica. En esta tecnología no existen enlaces físicos; sólo hay ondas electromagnéticas.
La ventaja obvia de una topología celular (inalámbrica) es que no existe ningún medio tangible aparte de la atmósfera terrestre o el del vacío del espacio exterior (y los satélites). Las desventajas son que las señales se encuentran presentes en cualquier lugar de la celda y, de ese modo, pueden sufrir disturbios y violaciones de seguridad.
Como norma, las topologías basadas en celdas se integran con otras topologías, ya sea que usen la atmósfera o los satélites.



Topología irregular:
En este tipo de topología no existe un patrón obvio de enlaces y nodos. El cableado no sigue un modelo determinado; de los nodos salen cantidades variables de cables. Las redes que se encuentran en las primeras etapas de construcción, o se encuentran mal planificadas, a menudo se conectan de esta manera.

sábado, 11 de septiembre de 2010

TIPOS DE REDES

REDES PAN
Wireless Personal Area Networks, Red Inalámbrica de Área Personal o Red de área personal o Personal area network es una red de computadoras para la comunicación entre distintos dispositivos (tanto computadoras, puntos de acceso a internet, teléfonos celulares, PDA, dispositivos de audio, impresoras) cercanos al punto de acceso. Estas redes normalmente son de unos pocos metros y para uso personal.

REDES LAN
(Local Area Network; Redes de area local)
La red de área local (LAN) es aquella que se expande en un área relativamente pequeña. Comúnmente se encuentra dentro de un edificio o un conjunto de edificios contiguos. Asimismo, una LAN puede estar conectada con otras LAN a cualquier distancia por medio de una línea telefónica y ondas de radio.
Una red LAN puede estar formada desde dos computadoras hasta cientos de ellas. Todas se conectan entre sí por varios medios y topologías. A la computadora (o agrupación de ellas) encargada de llevar el control de la red se le llama servidor ya las PC que dependen de éste, se les conoce como nodos o estaciones de trabajo. Los nodos de una red pueden ser PC que cuentan con su propio CPU, disco duro y software. Tienen la capacidad de conectarse a la red en un momento dado o pueden ser PC sin CPU o disco duro, es decir, se convierten en terminales tontas, las cuales tienen que estar conectadas a la red para su funcionamiento.
Las LAN son capaces de transmitir datos a velocidades muy altas, algunas inclusive más rápido que por línea telefónica, pero las distancias son limitadas. Generalmente estas redes transmiten datos a 10 megabits por segundo (Mbps). En comparación, Token Ring opera a 4 y 16 Mbps, mientras que FDDI y Fast Ethernet a una velocidad de 100 Mbps o más. Cabe destacar que estas velocidades de transmisión no son caras cuando son parte de la red local. 2OOmetros.



REDES CAN
Una red de área de campus (CAN) es una red de computadoras que conecta redes de área local a través de un área geográfica limitada, como un campus universitario, o una base militar. Puede ser considerado como una red de área metropolitana que se aplica específicamente a un ambiente universitario. Por lo tanto, una red de área de campus es más grande que una red de área local, pero más pequeña que una red de área amplia.
En un CAN, los edificios de una universidad están conectados usando el mismo tipo de equipo y tecnologías de redes que se usarían en un LAN. Además, todos los componentes, incluyendo conmutadores, enrutadores, cableado, y otros, le pertenecen a la misma organización.



 REDES MAN
Otro tipo de red que se aplica en las organizaciones es la red de área metropolitana o MAN (Metropolitan Area Network), una versión más grande que la LAN y que normalmente se basa en una tecnología similar a ésta.

La red MAN abarca desde un grupo de oficinas corporativas cercanas a una ciudad y no contiene elementos de conmutación, los cuales desvían los paquetes por una de varias líneas de salida potenciales.
La principal razón para distinguir una MAN con una categoría especial es que se ha adoptado un estándar para que funcione (se llama DQDB), que equivale a la norma IEEE. EL DQDB consiste en dos buses (cables) unidireccionales, los cuales se conectan a todas las computadoras.
Teóricamente, una MAN es de mayor velocidad que una LAN, pero diversas tesis señalan que se distinguen por dos tipos de red MAN. La primera de ellas se refiere alas de tipo privado, las cuales son implementadas en zonas de campus o corporaciones con edificios diseminados en un área determinada. Su estructura facilita fa instalación de cableado de fibra óptica.
El segundo tipo de redes MAN se refiere a las redes públicas de baja velocidad, las cuales operan amenos de 2 Megabits por segundo en su tráfico como Frame Relay, ISDN (Integrated Services Digital Network; Red Digital de Servicios Integrados), Tl- E 1, entre otros. 10km.

 


REDES WAM
Las Redes de área amplia (WAN) son redes informáticas que se extienden sobre un área geográfica extensa. Contiene una colección de máquinas dedicadas a ejecutar los programas de usuarios (hosts). Estos están conectados por la red que lleva los mensajes de un host a otro. Estas LAN de host acceden a la subred de la WAN por un encaminador. Suelen ser por tanto redes punto a punto. Un área amplia o WAN (Wide Area Network) se extiende sobre un área geográfica extensa, a veces un país o un continente, y su función fundamental está orientada a la interconexión de redes o equipos terminales que se encuentran ubicados a grandes distancias entre sí. Para ello cuentan con una infraestructura basada en poderosos nodos de conmutación que llevan a cabo la interconexión de dichos elementos, por los que además fluyen un volumen apreciable de información de manera continua. Por esta razón también se dice que las redes WAN tienen carácter público, pues el tráfico de información que por ellas circula proviene de diferentes lugares, siendo usada por numerosos usuarios de diferentes países del mundo para transmitir información de un lugar a otro. Se pueden establecer WAN en sistemas de satélite o de radio en tierra en los que cada encaminador tiene una antena con la cual poder enviar y recibir la información. Por su naturaleza, las redes de satélite serán de difusión.

Hoy en día Internet proporciona WAN de alta velocidad, y la necesidad de redes privadas WAN se ha reducido drásticamente mientras que las VPN que utilizan cifrado y otras técnicas para hacer esa red dedicada aumentan continuamente. Mayor a 10km.

GENERACIONES DE LAS COMPUTADORAS

La Primera Generación
(1951 a 1958)


J.P. Eckert y John Mauchly, de la Universidad de Pensilvania, inauguraron el nuevo ordenador el 14 de febrero de 1946. El ENIAC era mil veces más rápido que cualquier máquina anterior, resolviendo 5 mil adiciones y sustracciones, 350 multiplicaciones o 50 divisiones por segundo. Y tenía el doble del tamaño del Mark I: llenó 40 gabinetes con 100 mil componentes, incluyendo cerca de 17 mil válvulas electrónicas. Pesaba 27 toneladas y medía 5,50 x 24,40 m y consumía 150 KW. A pesar de sus incontables ventiladores, la temperatura ambiente llegaba a los 67 grados centígrados. Ejecutaba 300 multiplicaciones por segundo, pero, como fue proyectado para resolver un conjunto particular de problemas, su reprogramación era muy lenta. Tenía cerca de 19.000 válvulas sustituidas por año. En 1943, antes de la entrada en operación del ENIAC Inglaterra ya poseía el Colossus, máquina creada por Turing para descifrar los códigos secretos alemanes.
En 1945 Von Neumann sugirió que el sistema binario fuera adoptado en todos los ordenadores, y que las instrucciones y datos fueran compilados y almacenados internamente en el ordenador, en la secuencia correcta de utilización.
El primer ordenador comercial de gran escala fue el UNIVAC, Universal Automatic Computer, americano, de 1951, que era programado tocando cerca de 6.000 llaves y conectando cables a un panel. La entrada y salida de informacion era realizada por una cinta metálica de 1/2 pulgada de ancho y 400 m de largo. En total, se vendieron 46 unidades del UNIVAC Modelo I.En 1947 Bardeen, Schockley y Brattain inventan el transístor, y, en 1953 Jay Forrester construye una memoria magnética. Los ordenadores a transistores surgen en los años 50, pesando 150 kg, con consumo inferior la 1.500 W y mayor capacidad que sus antecesores valvulados.
 

La Segunda Generación
(1959-1964)


Ejemplos de esta época son el IBM 1401 y el BURROUGHS B 200. En 1954 IBM comercializa el 650, de tamaño medio. El primer ordenador totalmente transistorizado fue el TRADIC, del Bell Laboratories. El IBM TX-0, de 1958, tenía un monitor de vídeo de primera calidad, era rápido y relativamente pequeño, poseia dispositivo de salida sonora. El PDP-1, procesador de datos programable, construido por Olsen, fue una sensación en el MIT: los alumnos jugaban Spacewar! y Ratón en el laberinto, a través de un joystick y un lapiz óptico. En 1957 el matemático Von Neumann colaboró para la construcción de un ordenador avanzado, el cual, como broma, recibió el nombre de MANIAC, Mathematical Analyser Numerator Integrator and Computer. En enero de 1959 Tejas Instruments anuncia al mundo una creación de Jack Kilby: el circuito integrado. Mientras a una persona de nivel medio le llevaría cerca de cinco minutos multiplicar dos números de diez dígitos, MARK I lo hacía en cinco segundos, el ENIAC en dos milésimas de segundo, un ordenador transistorizado en cerca de cuatro billonésimas de segundo, y, una máquina de tercera generación en menos tiempo aún.



La Tercera Generación
(1959-1964)


Esta generación es de la década del 60, con la introducción de los circuitos integrados. El Burroughs B-2500 fue uno de los primeros. Mientras el ENIAC podía almacenar veinte números de diez dígitos, estos podían almacenar millones de números. Surgen conceptos como memoria virtual, multiprogramación y sistemas operacionales complejos. Ejemplos de esta época son el IBM 360 y el BURROUGHS B-3500.
En 1960 existían cerca de 5.000 ordenadores en los EUA. Es de esta época el término software. En 1964, la CSC, Computer Sciences Corporation, creada en 1959 con un capital de 100 dólares, se transformo en la primera compañía de software con acciones negociadas en bolsa.

El Sinclair ZX81/ZX Spectrum es un ordenador minúsculo concebido por John Sinclair, profesor en la Universidad de Cambrige en U.K.Inicialmente concebido para la utilización de los estudiantes de la Universidad de Cambrige. La CPU tenía un procesador Zilog Z80A de 8 bit a 3,25 MHZ, una memoria compuesta por una ROM y una RAM y una ULA.Los programas y datos eran grabados en un cassette magnético y eran también leídos desde uno.El teclado no tenía teclas. Los caracteres ASCII eran impresos en una membrana. Esta tecnología y la falta de ventilación de la unidad de alimentación eléctrica eran las causas principales de averías que enviaban el ZX81 a la basura. Fue un ordenador muy popular debido a su bajo precio de venta.

Osborne1. Fabricado por la Osborne en USA alrededor de año 1982. La CPU tenía una memoria de 64KB, una UAL y un Procesador Zilog Z80A de 8 bit a 4 MHZ. La caja, del tipo maleta attaché con un peso de 11 Kg, albergaba 2 unidades de disquete de 5" 1/4 con 204 KB o con opción a 408 KB de capacidad, un monitor de 5" (24 líneas por 54 columnas) en blanco y negro y un teclado basculante (servía de tapa de la maleta) con dos bloques de teclas, uno alfanumérico con los caracteres ASCII y otro numérico. Disponía de conectores para un monitor externo, ports serie RS-232C y paralelo IEEE-488 o Centronics.El sistema era alimentado por una batería propia recargable con una autonomía de 5 horas, por una batería externa de automóvil o por un transformador de corriente eléctrica alterna a continua.


IBM PC/XT. Fabricado por IBM en USA alrededor de año 1980, inició con la versión PC-XT, a la cual le siguió una versión PC-AT.El CPU comprendía una memoria ROM de 40KB y una memoria RAM de 64KB expandible hasta 640KB, una ULA y un procesador Intel 8088 de 16 bit con una frecuencia de reloj de 4,77 MHZ.Era construido con tres módulos separados: CPU, monitor y teclado. El monitor era blanco y negro con 25 líneas por 80 columnas pudiendo ser substituido por un monitor con 16 colores. La CPU además del procesador albergaba una unidad de disquete de 5" 1/4 con una capacidad de 360KB pudiendo alojar otra unidad de disquete idéntica o un disco rígido con 10MB de capacidad, que era parte integrada en la versión PC-XT. El teclado con 83 teclas, 10 de las cuáles correspondían a funciones pre-programadas, disponía de caracteres acentuados. Poseia una salida para impresora y el PC-XT disponía de un interfaz para comunicaciones assincronas.



La Cuarta Generacion
(1971 a 1981)

Dos mejoras en la tecnología de las computadoras marcan el inicio de la cuarta generación: el reemplazo de las memorias con núcleos magnéticos, por las de chips de silicio y la colocación de Muchos más componentes en un Chip: producto de la microminiaturización de los circuitos electrónicos. El tamaño reducido del microprocesador y de chips hizo posible la creación de las computadoras personales (PC)
Surgieron en el transcurso del uso de la técnica de los circuitos LSI (LARGE SCALE INTEGRATION) y VLSI (VERY LARGE SCALE INTEGRATION). En ese periodo surgió también el procesamiento distribuido, el disco ótico y la gran difusión del microcomputador, que pasó a ser utilizado para procesamiento de texto, cálculos auxiliados, etc. 1982- Surge el 286
Usando memoria de 30 pines y slots ISA de 16 bits, ya venía equipado con memoria cache, para auxiliar al procesador en sus funciones. Utilizaba monitores CGA, en algunos raros modelos estos monitores eran coloreados pero la gran mayoría era verde, naranja o gris. 1985- El 386
Usaba memoria de 30 pines, pero debido a su velocidad de procesamiento ya era posible correr softwares graficos más avanzados como era el caso del Windows 3.1, su antecesor podía correr sólo la versión 3.0 debido a la baja calidad de los monitores CGA, el 386 ya contaba con placas VGA que podían alcanzar hasta 256 colores si es que el monitor soportara esa configuración.

La Quinta Generacion
(1982-1989)



Cada vez se hace más difícil la identificación de las generaciones de computadoras, porque los grandes avances y nuevos descubrimientos ya no nos sorprenden como sucedió a mediados del siglo XX. Hay quienes consideran que la cuarta y quinta generación han terminado, y las ubican entre los años 1971-1984 la cuarta, y entre 1984-1990 la quinta. Ellos consideran que la sexta generación está en desarrollo desde 1990 hasta la fecha. Siguiendo la pista a los acontecimientos tecnológicos en materiade computación e informática, podemos puntualizar algunas fechas y características de lo que podría ser la quinta generación de computadoras. Con base en los grandes acontecimientos tecnológicos en materia de microelectrónica y computación (software) como CADI CAM, CAE, CASE, inteligencia artificial, sistemas expertos, redes neuronales, teoría del caos, algoritmosgenéticos, fibras ópticas, telecomunicaciones, etc., a de la década de los años ochenta se establecieron las bases de lo que se puede conocer como quinta generación de computadoras.
Hay que mencionar dos grandes avances tecnológicos, que sirvan como parámetro para el inicio de dicha generación: la creación en 1982 de la primera supercomputadora con capacidad de proceso paralelo, diseñada por Seymouy Cray, quien ya experimentaba desde 1968 con supercomputadoras, y que funda en 1976 la Cray Research Inc.; y el anuncio por parte del gobierno japonés del proyecto "quinta generación", que según se estableció en el acuerdo con seis de las más grandes empresas japonesas de computación, debería terminar en 1992.
Según este proyecto, al que se sumaron los países tecnológicamente más avanzados para no quedar atrás de Japón, la característica principal sería la aplicación de la inteligencia artificial (Al, Artificial Intelligence). Las computadoras de esta generación contienen una gran cantidad de microprocesadores trabajando en paralelo y pueden reconocer voz e imágenes. También tienen la capacidad de comunicarse con un lenguaje natural e irán adquiriendo la habilidad para tomar decisiones con base en procesos de aprendizaje fundamentados en sistemas expertos e inteligencia artificial.


El almacenamiento de información se realiza en dispositivos magneto ópticos con capacidades de decenas de Gigabytes; se establece el DVD (Digital VideoDisk o Digital Versatile Disk) como estándar para el almacenamiento de video y sonido; la capacidad de almacenamiento de datos crece de manera exponencial posibilitando guardar más información en una de estas unidades, que toda la que había en la Biblioteca de Alejandría. Los componentes de los microprocesadores actuales utilizan tecnologías de alta y ultra integración, denominadas VLSI (Very Large Sca/e Integration) y ULSI (Ultra Lar- ge Scale Integration).
Sin embargo, independientemente de estos "milagros" de la tecnología moderna, no se distingue la brecha donde finaliza la quinta y comienza la sexta generación. Personalmente, no hemos visto la realización cabal de lo expuesto en el proyecto japonés debido al fracaso, quizás momentáneo, de la inteligencia artificial.


El único pronóstico que se ha venido realizando sin interrupciones en el transcurso de esta generación, es la conectividad entre computadoras, que a partir de 1994, con el advenimiento de la red Internet y del World Wide Web, ha adquirido una importancia vital en las grandes, medianas y pequeñas empresas y, entre los usuarios particulares de computadoras.
El propósito de la Inteligencia Artificial es equipar a las Computadoras con "Inteligencia Humana" y con la capacidad de razonar para encontrar soluciones. Otro factor fundamental del diseño, la capacidad de la Computadora para reconocer patrones y secuencias de procesamiento que haya encontrado previamente, (programación Heurística) que permita a la Computadora recordar resultados previos e incluirlos en el procesamiento, en esencia, la Computadora aprenderá a partir de sus propias experiencias usará sus Datos originales para obtener la respuesta por medio del razonamiento y conservará esos resultados para posteriores tareas de procesamiento y toma de decisiones.

 
La Sexta Generacion
(1990 hasta a fecha)





Como supuestamente la sexta generación de computadoras está en marcha desde principios de los años noventas, debemos por lo menos, esbozar las características que deben tener las computadoras de esta generación. También se mencionan algunos de los avances tecnológicos de la última década del siglo XX y lo que se espera lograr en el siglo XXI. Las computadoras de esta generación cuentan con arquitecturas combinadas Paralelo / Vectorial, con cientos de microprocesadores vectoriales trabajando al mismo tiempo; se han creado computadoras capaces de realizar más de un millón de millones de operaciones aritméticas de punto flotante por segundo (teraflops); las redes de área mundial (Wide Area Network, WAN) seguirán creciendo desorbitadamente utilizando medios de comunicación a través de fibras ópticas y satélites, con anchos de banda impresionantes. Las tecnologías de esta generación ya han sido desarrolla das o están en ese proceso. Algunas de ellas son: inteligencia / artificial distribuida; teoría del caos, sistemas difusos, holografía, transistores ópticos, etcétera.
Tablas de Verdad

Una tabla de verdad, o tabla de valores de verdad, es una tabla que despliega el valor de verdad de una proposición compuesta, para cada combinación de valores de verdad que se pueda asignar a sus componentes.


Fue desarrollada por Charles Sanders Peirce por los años 1880, pero el formato más popular es el que introdujo Ludwig Wittgenstein en su Tractatus logico-philosophicus, publicado en 1921.



Punto Flotante



Muchas aplicaciones requieren trabajar con números que no son enteros. Existen varias formas de representar números no enteros. Una de ellas es usando un punto o coma fijo. Este tipo de representació no ubica simpre el punto o coma en alguna posición a la derecha del dígito menos significativo.
Otra alternativa comunmente usada es la que se conoce como representació n en punto flotante. Bajo este esquema, un número puede ser expresado mediante un exponente y una mantisa. Por ejemplo el número 10.75 puede ser expresado como:
 
10.75 x 10 0

1.075 x 10 1