miércoles, 4 de junio de 2008

EVOLUCIÓN DE LA SEGURIDAD INFORMÁTICA, CARACTERÍSTICAS PRINCIPALES




La seguridad informática consiste en asegurar que los recursos del sistema de información (material informático o programas) de una organización sean utilizados de la manera que se decidió y que la información que se considera importante no sea fácil de acceder por cualquier persona que no se encuentre acreditada .

También se define como una disciplina que se relaciona a diversas técnicas, aplicaciones y dispositivos encargados de asegurar la integridad y privacidad de la información de un sistema informático y sus usuarios. Técnicamente es imposible lograr un sistema informático ciento por ciento seguro, pero buenas medidas de seguridad evitan daños y problemas que pueden ocasionar intrusos.

Existen dos tipos de seguridad con respecto a la naturaleza de la amenaza: Puede ser Seguridad lógica (aplicaciones para seguridad, herramientas informáticas, etc.) y Seguridad física (mantenimiento eléctrico, anti-incendio, humedad, etc.)

Las amenazas a la seguridad de un sistema informático o computadora pueden constituir los programas malignos como virus, espías, troyanos, gusanos, phishing, spamming, etc. También los siniestros (robos, incendio, humedad, etc. pueden provocar pérdida de información). Los intrusos o sea piratas informáticos que pueden acceder remotamente (si está conectado a una red) o físicamente a un sistema para provocar daños. Los mismos operadores de un sistema pueden debilitar y ser amenaza a la seguridad de un sistema no sólo intencionalmente, también por falta de capacitación.

Para la seguridad informática existen técnicas, aplicaciones y dispositivos como por ejemplo: la utilización de aplicaciones de protección: cortafuegos, antivirus, antiespías, etc., la encriptación de la información y uso de contraseñas, capacitación a los usuarios de un sistema, capacitación a la población general sobre las nuevas tecnologías y las amenazas que pueden traer.

Con respecto a la evolución, desde la consolidación de internet como medio de interconexión y comunicación mundial, los incidentes de seguridad relacionados con los sistemas informáticos vienen incrementándose de manera alarmante. Cada ve se hace mayor el número de atacantes y cada vez están mejor organizados, por lo que van adquiriendo día a día habilidades más especializadas les permiten obtener mayores beneficios. Es te hecho viene provocando una creciente necesidad de implantar mecanismos con la finalidad de proteger o reducir al mínimo los riegos asociados a los incidentes de seguridad informática.

Aunque el Gusano de Morris (1988) fue el primer ejemplar de malware que tuvo amplia repercusión, los expertos consideran a Elk Cloner (creado en 1982 por Rich Skrenta, por entonces un quinceañero que estudiaba en un instituto de Pittsburgh) el primer virus informático para microordenadores de la Historia.

El virus se propagaba a través de disquetes infectados del sistema operativo del Apple II. Al arrancar desde un disquete infectado, el virus arrancaba también, copiándose a cualquier otro disquete que se utilizara. Elk Cloner no buscaba dañar equipos ni datos, sino sólo fastidiar un poco al usuario, así que cada 50 arranques mostraba un (mal) poema en pantalla. Puesto que el problema de los virus informáticos resultaba aún desconocido, Elk Cloner produjo muchas molestias a los usuarios afectados.

En 1986, los virus para PCs IBM entraron a escena. Similar a Elk Cloner, los adolescentes que buscaban fama entre la población de hackers crearon estos primeros virus no destructivos y los transmitían a través de discos flexibles. Durante gran parte de la década de los 80, los virus cumplieron con estas características: el daño era mínimo y los brotes eran raros. En 1988, sin embargo, el dócil panorama de los virus comenzó a cambiar. Internet, aún muy prematuro, fue la nueva frontera para los hackers y muchos de ellos buscaron la notoriedad.

El tristemente célebre "Morris Worm" se propagó a través de Internet y provocó daños considerables en todo el mundo. El virus Michelangelo provocó uno de los primeros pánicos mediáticos alrededor de los virus de computadora. Los reportes afirmaban que Michelangelo, programado para activarse cada año el 6 de marzo a partir de 2007, el cumpleaños número 517 del artista, podría borrar los discos duros de miles, incluso millones, de PCs infectadas. Si bien hoy la mayoría de los reportes contradicen esas estimaciones originales de daños, los medios han elevado el alcance de los hackers.

Desde entonces, las amenazas a la seguridad de la información han evolucionado a través de una serie de variaciones. Debido a la popularidad de Microsoft Word, los virus integrados en archivos ejecutables dieron paso a los macro virus en los archivos de documentos. A finales de los noventa, les siguieron virus entregados a través del correo electrónico. El devastador virus Melissa combinó virus y gusanos para propagarse e infectar a millones de usuarios. Lo que hacía era examinar las libretas de direcciones de Microsoft Outlook y enviaba un correo electrónico con un archivo adjunto infectado a algunas o todas las direcciones encontradas en ellas. Cuando el receptor abría el archivo, el proceso se repetía.

En un presagio de lo que iba a venir y con el correo electrónico siendo protegido cada vez más, el inicio de los años 2000 trajo a Code Red, que infectó casi 400,000 páginas web, seguido por MyDoom, que se propagó a gran velocidad a través del correo electrónico y del protocolo para compartir archivos Kazaa. Actualmente, está surgiendo una nueva ola de amenazas que utiliza la Web como el vehículo de entrega.

En 2007, el panorama de los virus no se parece en nada a la época en que surgieron, cuando el motivo era cobrar notoriedad. Motivados por el dinero, los ciber criminales dominan hoy la escena del crimen de alta tecnología, y utilizan principalmente la Web como el medio para sus actividades maliciosas. Caracterizados por técnicas combinadas, una explosión de variantes y ataques dirigidos y regionales, los ataques realizados a través de la Web (por ejemplo el spyware, el phishing, los rootkits y los botnets) suponen una amplia gama de costos potenciales.

HISTORIA DE LOS LENGUAJES DE PROGRAMACIÓN - NECESIDADES QUE DIERON ORIGEN A CADA LENGUAJE Y SU RESPECTIVO ANÁLISIS




Los lenguajes de programación se han ido creando con el paso del tiempo y perfeccionándose de acuerdo a las necesidades de los programadores de la época a la que pertenecen, pudiendo ser cada uno diferente a su antecesor o mejorado. En la actualidad existen muchos lenguajes de programación que muestran características particulares: propia gramática, terminología y sintaxis.

Antes de los 50 aparecieron los lenguajes interpretados, éstos no poseían un hadware específico para realizar cálculos reales. A finales de los 50 y primeros años de los 60, nacieron los lenguajes de programación tales como COBOL (1960), FORTRAN IV (1961), LOGO (1967). Estos lenguajes fueron la primera alternativa a los lenguajes ensambladores.

El lenguaje FORTRAN (FORmula TRANslator), es el primer lenguaje de alto nivel compilado, orientado para cálculo científico. El COBOL fue muy usado en su época. Estos lenguajes lograron adaptarse y se mantuvieron como lenguaje de referencia en el mundo de los negocios y en el campo científico, respectivamente, con versiones actualizadas y estandarizadas por organizaciones como ANSI (American National Standard Institute)

En la década de los setenta y primeros años de los ochenta surgieron nuevos lenguajes, como Pascal(1971), C (1972) y Ada (1979), que se convirtieron en lenguajes dominantes, dejando de lado a otros lenguajes como por ejemplo: ALGOL Y BASIC. La principal contribución de ALGOL es ser la raíz del árbol que ha producido lenguajes tales como pascal, C, C++, y Java, introduce: tipo de datos, Sentencia compuesta, identificadores de cualquier longitud, condiciones anidadas. El lenguaje BASIC (Beginners All-purpose Symbolic Instruction Code) Fue inventado en 1964 por John George Kemeny y Thomas Eugene Kurtz, es un lenguaje muy limitado que fue diseñado para personas que no fueran del área de ciencias de la computación.

BASIC es un lenguajes fácil de usar para los principiantes, interactivo, no requería un conocimiento del hardware de la computadora y permitió que los expertos añadieran características avanzadas, mientras que el lenguaje permanecía simple para los principiantes

El lenguaje Pascal fue descendiente del ALGOL y tuvo un gran impacto en la educación. Diseñado por Niklaus Wirth, como una herramienta de enseñanza de la programación. Los diseñadores de Pascal se preocuparon porque el lenguaje sirviera como soporte para la mayoría de los microprocesadores populares en esa época. La combinación de sus características de entrada/salida, y sus sólidas características matemáticas pronto lo convirtieron en un lenguaje muy exitoso. Delphi es una versión moderna y orientada a objetos de Pascal.

El lenguaje C (D. Ritchie, 1972) fue bastante utilizado, relacionado al sistema operativo UNIX, es conocido como el lenguaje de programación de sistemas por excelencia ya que este lenguaje no está prácticamente asociado a ningún sistema operativo, ni a ninguna máquina en especial. Por otro lado, Ada fue un lenguaje multipropósito, orientado a objetos y concurrente, lleva ese nombre en conmemoración de lady Ada Augusta Byron (1816-1852), a quien se considera la primera programadora de la Historia, por su colaboración y relación con Charles Babbage, creador de la máquina analítica.

Todos estos lenguajes anteriores seguían el estilo de programación estructurada y se conocían lenguajes de programación imperativos o estructurados. Junto con el desarrollo de estos lenguajes aparecieron dos nuevos estilos de programación: la programación funcional y la programación orientada a objetos (Smalltalk y SIMULA, lenguajes antiguos). EL SIMULA introduce los primeros conceptos de orientación a objetos, se preocupa por la simulación, hereda las estructuras de bloques y de control de ALGOL. Smalltalk fue considerado como el lenguaje orientado a objetos puro, y no solo constituye un lenguaje es un entorno de desarrollo completo.

Posteriormente, a principios de los ochenta apareció C++ creado por B. Stroustrup como lenguaje imperativo con propiedades de orientación a objetos y que durante la década de los noventa ha sido el lenguaje de programación orientada a objetos por excelencia. C++ es heredero directo del lenguaje C, pero otra fuente de inspiración como lo indica su autor Stroustrup fue Simula 67, del que tomó el concepto de clase (con clases derivadas y funciones virtuales). Los compiladores más empleados actualmente son Visual C++ de Microsoft, Builder C++ de Borland, C++ bajo UNÍS y Linux. En el verano del 2000 Microsoft presentó y patentó una nueva versión de C++ que es C#, una evolución del C++ estándar.

En 1995 se presentó oficialmente por el constructor Sun el lenguaje Java , un lenguaje orientado a objetos y con una funcionalidad muy dirigida a la red Internet. Java se originó en programación de pequeños electrodomésticos. Es más seguro que C++, ya que elimina la aritmética punteros, además de evitar los cambios automáticos de tipo, incorpora comprobación de rango de índices en arrays, incorpora librerías para aplicaciones gráficas y comunicación.

Conclusión: La historia de los lenguajes de programación constituye un tema importante y obligado que debe conocer y dominar toda persona interesada en la programación, ya que permite tener una mejor explicación de las características de cada lenguaje de programación, y de esta manera facilita la elección del más interesante y del más adecuado para lo que se desea programar, ya que no existe un mejor lenguaje, tal vez exista uno más común y sencillo que otros, todo depende de las necesidades y adaptación del programador.


HISTORIA DE LAS TELECOMUNICACIONES Y SUS IMPLICANCIAS EN LA VIDA DEL SER HUMANO


Las Telecomunicaciones son formas o técnicas transmitir un mensaje desde un punto a otro. Proviene del griego tele, que significa distancia. Por tanto, el término telecomunicación constituye las comunicaciones a distancia que abarca radio, telegrafía y telefonía, televisión, transferencia de datos e interconexión de ordenadores

La necesidad de comunicación del hombre al ser un ser social empieza desde su aparición, y conforme fue expandiéndose por la tierra fue buscando maneras de comunicarse. Al inicio las antiguas civilizaciones utilizaban señales de humo o mensajeros (entre ellos: personas a caballo y palomas), estas formas de comunicación quedaron atrás con la aparición de la rueda.

Un paso muy importante en la historia de las telecomunicaciones fue la aparición de la electricidad en 1752 gracias a Benjamin Franklin, recortando aún más las distancias, sin este descubrimiento hubiese sido imposible la comunicación de hoy.

El primer telégrafo eléctrico fue construido en Inglaterra por Charles Wheatstone y William Fothergill Cooke por el año 1839. Pero la historia y la ciencia otorgan el invento a Samuel Morse de Estados Unidos que desarrolló una versión del telégrafo eléctrico, patentando su invento en 1848 después de varios años de investigación y modificaciones que traería consigo resultados muy lucrativos. El gran éxito de este sistema, debido a su simplicidad, velocidad y economía hizo que en pocos años todos los países con servicio telegráfico lo adoptaran total o parcialmente. El primer éxito de cable telegráfico trasatlántico se completó el 27 de julio de 1866.

El facsímil, conocido actualmente como FAX, fue introducido por Bain, en 1842 y patentado en el año por el año 1848, el cual fue un considerable avance en la evolución de las telecomunicaciones, además de que estableció el fundamento para el diseño de los actuales Fax.

Antonio Meucci en 1849 había inventado un dispositivo eléctrico que permite la transmisión de voz sobre una línea, pero el dispositivo de Meucci no fue muy práctico por lo que se le atribuye a Alexander Bell como el inventor del teléfono convencional en 1876. El primer comercial de los servicios telefónicos se creó en 1878 y 1879 en las ciudades de New Haven y Londres. A partir de ese momento la tecnología creció rápidamente, así como el comercio. Además los avances en el estudio de la electricidad gracias al físico alemán Heinrich Hertz con el descubrimiento de las ondas electromagnéticas, estableciendo las bases para la telegrafía sin hilos en el año 1887.

Posteriormente aparecerían la radio y la televisión, con las investigaciones de Nikola Tesla que describió y demuestó en detalle los principios de la telegrafía sin hilos. El aparato que utilizó contenían todos los elementos que se incorporaron en los sistemas de radio antes del desarrollo del tubo de vacío. Sin embargo no fue hasta 1900, que Reginald Fessenden fue capaz de transmitir una forma inalámbrica voz humana. Y en diciembre de 1901, Guglielmo Marconi estableció comunicación inalámbrica entre el Reino Unido y los Estados Unidos lo cual le valió el Premio Nobel de física en 1909.

Después de la radio, aparece un invento más trascendente. La Televisión. Así que el 25 de marzo de 1925, el inventor escocés John Logie Baird demostró públicamente la transmisión de imágenes en movimiento. En octubre del mismo año Baird tuvo éxito y consiguió transmitir la primera imagen humana. A pesar del gran avance realizado su trabajo no fue muy reconocido y fue desplazado por un sistema más perfeccionado realizado por el ruso Vladímir Kosma Zworykin en 1923 y era el iconoscopio, la primera cámara electrónica capaz de captar video. El aporte de Baird y el descubrimiento de los tubos de rayos catódicos fueron las bases para el nacimiento de la Televisión a color

Otros avances importantes que se consiguieron gracias a la invención de los ordenadores fueron los sistemas informáticos y el Internet. Se pensó que sería posible utilizarlas para transmitir información así es como nacen las redes, se empezó a investigar conmutación de paquetes, se crearon los nodos de red, etc. La primera red fue denominada ARPANET en el año 1969, lo que hoy se conoce como Internet. Actualmente el uso del Internet ha aumentado considerablemente contribuyendo con la globalización de las naciones.

Más adelante aparecerían los satélites de comunicación, el Sputnik 1, lanzado por Rusia el 4 de Octubre de 1957, se convierte en el primer satélite espacial, y luego le seguiría el Explorer 1, lanzado el 31 de Enero de 1958, por los EE.UU. Este avance daría origen a las redes inalámbricas y la telefonía celular (móvil). Las Comunicaciones Personales Móviles Mundiales por Satélite ofrecen servicio de telecomunicaciones, ya sea de telefonía, fax, mensajería, datos de banda ancha directamente a los usuarios.

La telefonía celular fue totalmente móvil en 1983 con la empresa Motorota en el proyecto DynaTAC, que es el primer teléfono celular propiamente dicho. Mientras en otros países también se desarrollaba la tecnología celular. El uso de celulares ha aumentado considerablemente y constituye no solo un medio de comunicación sino también como medio de entretenimiento, pues ahora son dispositivos con funciones complejas. Esto se demuestra en la Telefonía 3G, que permite servicios compatibles con Internet, actualmente en desarrollo.

Conclusión: La Historia de las Telecomunicaciones constituye una parte importante de la mayor historia de la comunicación del hombre, gracias a todos los inventos, innovaciones y las profundas investigaciones. Las Telecomunicaciones de hoy nos permiten comunicarnos con personas que se encuentran en todo el mundo, nos permiten mantenernos informados de todo lo que sucede en segundos con solo prender el televisor y hasta podemos hacer compras con un clic.

EL DESPLIEGUE DE LOS SISTEMAS OPERATIVOS



Históricamente los sistemas operativos han estado íntimamente ligados con la arquitectura de los ordenadores en los que se han ejecutado. La evolución de los sistemas operativos va de la mano con las generaciones de las computadoras. Al hablar de la máquina analítica diseñada por el matemático inglés Charles Babbage (1792-1871) no referimos a una máquina carente por completo de sistema operativo por lo que fue necesario implementarla con un software, lo cual se logró con la ayuda de una joven mujer llamada Ada Lovelace y considerada como la primera programadora de la historia. El lenguaje de programación Ada® se llama así en su honor.

A mediados de la década de 1940, durante la segunda guerra mundial, varios investigadores de distintas instituciones se preocuparon por construir máquinas de calcular, utilizando al comienzo relés mecánicas y después tubos de vacío. Se desconocían los lenguajes de programación (incluso se desconocía el lenguaje ensamblador) así como los sistemas operativos, por lo que el proceso de programar resultaba ser algo sumamente tedioso.

A principios de los años 50, se introdujeron las tarjetas perforadas, facilitando un poco la escritura de programas, aunque el procedimiento de operación era el mismo. La introducción del transistor en la segunda generación de computadoras (a mediados de la misma década), hizo que los ordenadores se volvieron más eficientes y empezó la comercialización a las grandes corporaciones capaces de pagar su alto costo. Ahora el programador utilizaba el lenguaje FORTRAN primero escrito en papel que luego grababa en tarjetas utilizando una perforadora, el tiempo de ejecución era demasiado, para reducirlo se adoptó el sistema de procesamiento por lotes (batch systems). La idea era la de llenar completamente una bandeja de trabajos para luego pasarlos a una cinta magnética, rebobinarla y montarla en una unidad de cinta. Después se cargaba un programa especial (el antecesor del sistema operativo actual), que leía y ejecutaba el primer trabajo de la cinta. Las salidas se grababan en una segunda cinta, en vez de imprimirse directamente, al final, una vez terminado el trabajo se llevaba la cinta de salida a una IBM 1401 para imprimir off line (sin estar conectada la impresora al ordenador principal).

Para ese entonces los cálculos científicos y de ingeniería fueron programados principalmente en FORTRAN y en lenguaje ensamblador. Entre los sistemas operativos destacan el FMS (Fortran Monitor System) e IBSYS, el sistema operativo de IBM para el 7094.

Posteriormente IBM introduce el System/360. El 360 se diseñó de modo que pudiera realizar computación tanto científica como comercial. Así una única familia de máquinas podía satisfacer las necesidades de todos los clientes. En los años siguientes, IBM sacó al mercado sucesores compatibles con la línea 360, fabricados con tecnología más moderna: las series 370, 4300, 3080 y 3090. La mayor fortaleza de la idea de “una familia” es al mismo tiempo su punto más débil. La intención era que todo el software, incluido el sistema operativo OS/360, funcionara no solo en todos los modelos, sistemas pequeños y grandes, operar en entornos comerciales y científicos. Y sobre todo, tenía que ser eficiente para todos esos usos tan diferentes.

Entonces IBM crea un sistema operativo enorme y extraordinariamente complejo, quizá de dos a tres órdenes de magnitud más grande que el FMS. La idea consistía en tener varios programas simultáneamente en memoria, si bien, como el ordenador es único, solo uno estaría activo en cada momento. Cuando dicho programa hace una operación de Entrada/Salida en la que se pierde tiempo de CPU (como leer una tarjeta, por ejemplo), mientras la mecánica realiza la operación de búsqueda y lectura, el ordenador cambia al siguiente programa que tiene en memoria, el cual continuará ejecutándose hasta que haga una operación de Entrada/Salida. Cuando se llega al último, se vuelve a empezar. Para ese momento, la operación de Entrada/Salida pedida por el primer programa ya estará lista, con lo que podrá seguir su ejecución, esta técnica se llama spooling (de Simultaneous Peripheral Operation On Line) y se utilizaba también para la salida de los programas. Con el spooling, dejaron de ser necesarios los 1401, y desapareció por completo el acarreo de cintas.

La aparición del primer sistema de tiempo compartido serio, CTSS (Compatible Time Sharing System), se desarrolló en el MIT en un 7094 con modificaciones especiales. Consistía en la ejecución simultánea de varios programas. Después del éxito del sistema CTSS, el MIT, los Laboratorios Bell y General Electric desarrollaron un “servicio de ordenador”, una máquina que debía dar servicio simultáneamente a cientos de usuarios de tiempo compartido, este sistema fue llamado MULTICS y se le diseñó para dar soporte a cientos de usuarios con una máquina apenas más potente que un PC basado en un 386 de Intel, aunque con mucha mayor capacidad de E/S. A pesar de su falta de éxito comercial, MULTICS tuvo una enorme influencia en los sistemas operativos subsiguientes.

Hasta entonces el fenomenal crecimiento de los miniordenadores, comenzando con el DEC PDP-1 en 1961 que sólo tenía 4K palabras de 18 bits, pero su precio de 120.000 dólares por máquina tuvo gran acogida en el mercado ara ciertos tipos de trabajo no numérico, era casi tan rápido como el 7094, y dio origen a una industria totalmente nueva. Pronto le siguieron una serie de otros PDPs que culminaron en el PDP-11. Uno de los científicos de los Laboratorios Bell que había trabajado en el proyecto MULTICS, Ken Thompson, encontró tiempo más tarde un pequeño miniordenador, un PDP-7, que nadie estaba usando y se puso a escribir una versión de MULTICS para un solo usuario recortando partes del sistema original. Esa labor dio origen al sistema operativo UNIX®. Vale la pena mencionar que en 1987, el autor publicó un clon pequeño de UNIX, llamado MINIX, con fines educativos. Desde el punto de vista funcional, MINIX es muy similar a UNIX y el deseo de contar con una versión de producción libre de MINIX llevó a un estudiante finlandés, Linus Torvalds, a escribir Linux. Este sistema se desarrolló bajo MINIX y originalmente soportaba varios elementos característicos de MINIX. Desde entonces Linux ha sido extendido en muchas direcciones pero sigue conservando una buena parte de la estructura de MINIX y UNIX (en el que se basó el primero).

Con la aparición de los Ordenadores Personales por el desarrollo de los circuitos integrados a gran escala (LSI; Large Scale Integration), se hizo posible que cualquier persona pudiera tener su propio computador. En 1974, cuando Intel presentó el 8080, la primera CPU de ocho bits de propósito general, buscó un sistema operativo para ese procesador, Kildall escribió un sistema operativo basado en disco llamado CP/M (Control Program for Microcomputers). Después Kildall seguiría desarrollando su sistema operativo CP/M formando su propia empresa: Digital Research, ahora el sistema operativo CP/M podía ejecutarse en los numerosos microordenadores que utilizaban el 8080, el Zilog Z80 u otros microprocesadores.

A principios de la década de 1980, IBM diseñó el PC y buscó software que se ejecutara en él. Se contactó con Bill Gates para utilizar bajo licencia su intérprete de BASIC. Posteriormente Gates sugirió un sistema operativo para el PC, el ya conocido CP/M de la empresa Digital Research (que entonces era la compañía de sistemas operativos dominante). Pero la petición fue rechazada, Kildall se negó a unirse con IBM. Pero Gates fue de todas maneras a preguntar si podría ofrecerle un sistema operativo. Cuando IBM vino a verle, Gates se percató de que un fabricante de ordenadores local, Seattle Computer Products, tenía un sistema operativo apropiado, DOS (Disk Operating System). Gates compró el sistema y luego lo ofreció a IBM un paquete DOS/BASIC, que IBM aceptó. IBM pidió que se hicieran ciertas modificaciones en el sistema, por lo que Gates contrató a la persona que había escrito DOS, Tim Paterson, como empleado de su naciente compañía, Microsoft, para que las llevara a cabo.

El sistema revisado se rebautizó con el nombre de MS-DOS (Microsoft Disk Operating System) y pronto dominó el mercado del IBM PC y para cuando el PC/AT de salió a la venta el 1983 con la CPU 80286 de Intel, MSDOS estaba firmemente afianzado mientras que CP/M agonizaba. Más tarde se utilizó ampliamente MS-DOS en el 80386 y el 80486 con funciones más avanzada.

La invención del ordenador Lisa por parte de Steve Jobs, resultó demasiado caro y fracasó comercialmente. Después Jobs crea el Apple Macintosh, más económico que Lisa, y más simple. Cuando Microsoft decidió desarrollar un sucesor para MS-DOS, estuvo fuertemente influenciado por el éxito del Macintosh. La compañía produjo un sistema basado en una GUI al que llamó Windows, y que originalmente se ejecutaba por encima de MS-DOS. Durante cerca de 10 años, de 1985 a 1995, Windows no fue más que un entorno gráfico por encima de MS-DOS.

En 1995 salió a la circulación una versión autónoma de Windows, Windows 95, que incluía muchas funciones del sistema operativo y sólo utilizaba el sistema MS-DOS subyacente para arrancar y ejecutar programas antiguos de MS-DOS. En 1998 salió una versión poco modificada de este sistema, llamada Windows 98. Tanto Windows 95 como Windows 98 contienen todavía una buena cantidad de lenguaje ensamblador Intel de 16 bits.

Otro sistema operativo de Microsoft es Windows NT (NT significa Nueva Tecnología), que es compatible hasta cierto punto con Windows 95, pero que intrínsecamente está reescrito desde cero. Consiste en un sistema completamente de 32 bits. Microsoft creía que la primera versión de NT eliminaría a MS-DOS y todas las demás versiones anteriores de Windows porque supuestamente se trataba de un sistema muy superior, pero eso no se logró ni con la aparición del Windows NT 4.0, esta última se hizo común en redes corporativas. La versión 5 de Windows NT se rebautizó como Windows 2000 (principios de 1999), y tampoco fue sucesora de ninguna versión anterior. Microsoft sacó una versión más de Windows 98 llamada Windows Me (Millennium edition). Actualmente existe el Windows Vista.

UNIX no se quedó atrás y aún sigue predominando en estaciones de trabajo y otros ordenadores potentes, como los servidores de red. Es especialmente popular en máquinas basadas en chips RISC de alto rendimiento. Linux se está convirtiendo en una alternativa popular a Windows, para estudiantes y cada vez más para usuarios corporativos. Aunque muchos usuarios de UNIX, sobre todo programadores experimentados, prefieren un interfaz basado en comandos en vez de una GUI, casi todos los sistemas UNIX reconocen un sistema de ventanas llamado X Windows producido en el MIT. Este sistema se encarga de la gestión básica de las ventanas y permite a los usuarios crear, borrar, trasladar y redimensionar ventanas con un ratón.

Para mediados de los años ochenta, comienza el auge de las redes de computadoras y la necesidad de sistemas operativos en red y sistemas operativos distribuidos. La red mundial Internet cada vez más accesible a toda clase de instituciones, empieza a dar múltiples soluciones al querer hacer convivir recursos residentes en computadoras con sistemas operativos diferentes. Para los 90's el paradigma de la programación orientada a objetos cobra auge, así como el manejo de objetos desde los sistemas operativos. Las aplicaciones intentan crearse para ser ejecutadas en una plataforma específica y poder observar sus resultados en la pantalla o monitor de otra diferente como por ejemplo, ejecutar una simulación en una máquina con UNIX y ver los resultados en otra con DOS. Los niveles de interacción han ido haciéndose cada vez más profundos.

En conclusión, la evolución de los sistemas operativos ha ido de la mano con la tecnología. La creación de nuevos lenguajes de alto nivel y la multiprogramación contribuyeron a la creación de sistemas cada vez más potentes. La evolución de los microordenadores para convertirse en los ordenadores personales modernos, adquirieron el hardware y luego el software necesarios para manejar funciones más avanzadas. Podemos concluir que los sistemas operativos son fundamentales en cualquier ordenador, y su origen se remonta a la primera generación de las computadoras, por la necesidad de facilitar la interacción entre persona y computador.

HISTORIA DE LAS REDES DE COMPUTADORAS, CARACTERÍSTICAS PRINCIPALES, DISPOSITIVOS QUE INTERVIENEN EN SU INSTALACIÓN Y EL SURGIMIENTO DEL INTERNET



¿Qué es una red de computadora? Una red de computadora es un sistema de comunicaciones que permite conectar varias unidades con el fin de comunicarse con diferentes usuarios e intercambiar información. Actualmente casi todo el mundo se encuentra conectado por redes (red mundial), lo anteriormente imposible... se hizo realidad. ¿y desde cuándo contamos con redes de computadoras?

El concepto de red no es nuevo, ya que las antiguas civilizaciones contaban con redes de comunicación, servicios y transportes, que consistía en personas y/o animales capaces de recorrer largas trayectorias con cargando un mensaje o un paquete en corto tiempo. A finales del año 50 , con el uso interactivo de las computadoras se necesitó de conexiones locales de terminales de usuario, para así explotar al máximo la utilización y rendimiento de la gran inversión que en esos tiempo, significaba una computadora, lo cual evolucionó en terminales remotas de usuario, para que inclusive se pudieran conectar por una línea telefónica. La unión de hasta entonces todos los avances tecnológicos dieron origen a lo que hoy llamamos como Internet.

En los años 50, existía aun una red prematura usada por el Proyecto RAND para apoyar a investigadores como Herbert Simon, en Pittsburgh (Pensilvania) ¿En que consistía? En un método del ordenador central o unidad principal, que simplemente consistía en permitir a sus terminales conectarse a través de largas línea alquilada. Un pionero fundamental en lo que se refiere a una red mundial, fue J.C.R. Licklider, que en 1960 publicó un documento sobre la red mundial “Man-Computer Simbiosis” (Simbiosis Hombre-Computadora). En octubre de 1962, Licklider fue nombrado jefe de la oficina de procesado de información DARPA, y empezó a formar un grupo informal dentro del DARPA del Departamento de Defensa de los Estados Unidos para investigaciones sobre ordenadores más avanzadas, creando grandes conflictos.

Se considera que Donald Davies (National Physical Laboratory), Paul Baran (Rand Corporation) y Leonard Kleinrock (MIT) fueron los que solucionaron el problema relacionado con las inter-conexiones el de conectar diferentes redes físicas para formar una sola red lógica. Debido a las tempranas teorías de Rand se cree que el Internet se hizo para sobrevivir a un ataque nuclear.

Una de las redes que provocarían la aparición del Internet fue ARPANET, que se inició gracias a Robert Taylor y Larry Roberts del MIT (Instituto Tecnológico de Massachussets), inició un proyecto para empezar con una red similar a la idea de Licklider. El 21 de noviembre de 1969 se estableció la primera conexión de ARPANET. En 1972 se inauguró y su desarrollo fue acelerado. ARPANET se considera como el núcleo de lo que posteriormente sería Internet.

Las redes de conmutación de paquetes fueron desarrolladas por la UIT (Unión Internacional de Telecomunicaciones) con el fin de formar las redes X.25, la base de la red británica y otros sitios de investigación en SERCnet (1974), posteriormente llamada JANET. En 1978 se creó la primera red de paquetes conmutados internacional: "International Packet Switched Service" (IPSS) y para 1981 ya formaba parte en Europa, Estados Unidos, Canadá, Hong Kong, Australia. X.25 fue creado para usarse en oficina, por medio de redes de teléfono proporcionadas por Compuserve y Tymnet. En 1979, CompuServe fue el primero en ofrecer posibilidades para el correo electrónico y soporte técnico a usarios de PCs. La compañía fue nuevamente pionera en 1980, como la primera en ofrecer chat con su CB Simulator.

En 1979, aparece la red de hosts UUCP usada para noticias Usene. UUCPnet, nombre que acabaría recibiendo, también crearía portales y vínculos entre Fidonet y los hosts de marcaje telefónico BBS. Estas redes se distribuyeron rápidamente debido a su bajo coste y a su capacidad de usar las líneas alquiladas ya existentes, los vínculos X.25 o incluso las conexiones de ARPANET.

Estas redes se fusionaron sin importar sus características, DARPA aceptó patrocinar el desarrollo del software prototipo, y tras muchos años de trabajo, la primera demostración (algo básica) de en cómo se había convertido al protocolo TCP/IP (en Julio de 1977). Este nuevo método se expandió rápidamente por las redes, y el 1 de Enero de 1983, los protocolos TCP/IP se hicieron los únicos protocolos aprobados en ARPANET, sustituyendo al anterior protocolo NCP. A principios de los 80 se contaba con más de 300 computadoras conectadas a la red. En 1984 la ARPANET original sufrió una división en dos partes: Una se siguió llamando ARPANET y se dedicó a la investigación y desarrollo. La otra se llamó MILNET y se convirtió en una Red Militar no Clasificada.

Las redes basadas alrededor de ARPANET eran pagadas por el gobierno y por tanto restringidas a usos no comerciales tales como investigación; el uso comercial estaba estrictamente prohibido. Las conexiones se restringieron a sitios militares y universidades. Durante los 80s, las conexiones se expandieron a más instituciones educacionales. Mientras continuaban las investigaciones por parte del gobierno, la National Science Foundation (NSF) logró desarrollarse a tal punto de convertirse en sucesor de ARPANET. En 1984 esto resultó en la primera red de banda ancha diseñada específicamente para usar TCP/IP. Esto creció como NSFNet, establecida en 1986, para conectar y proveer acceso a una cantidad de supercomputadores establecidos por la NSF. Por entonces, ARPANET empezó a fusionarse con NSFNet, originando el término Internet.

<> significaba una red global y muy grande que usaba el protocolo TCP/IP. Hasta entonces "internet" e "internetwork" se habían usado indistintamente, y "protocolo de internet" se usaba para referirse a otros sistemas de redes tales como Xerox Network Services. Las tecnologías de Internet se expandieron por el resto del mundo. Varios sitios que no podían conectarse directamente a Internet empezaron a hacerlo por medio de simples portales para permitir la transferencia de correo electrónico, siendo esta última por entonces la aplicación más importante. Esos sitios con sólo conexiones intermitentes usarían UUCP o Fidonet, y confiarían en los portales entre esas redes e Internet. Algunos servicios de portales fueron más allá del simple peering de e-mail, ofreciendo servicios como el acceso a sitios FTP a través de UUCP o e-mail.

La primera conexión ARPANET fuera de EEUU se hizo con NORSAR en Noruega en 1973, justo antes de las conexiones con Gran Bretaña. Todas estas conexiones se convirtieron en TCP/IP en 1982, al mismo tiempo que el resto de las ARPANET. En 1984 se introduce el sistema de nombres de dominio que se sigue utilizando en la actualidad para la conversión entre nombres de máquinas y direcciones IP. En 1985 se establecen responsabilidades para el control de los nombres de dominio y así el ISI (Information Sciences Institute) asume la responsabilidad de ser la raíz para la resolución de los nombres de dominio, mientras que el SRI asume la responsabilidad de asignar estos nombres en los que se conoce como registros NIC (Network Information Centre). En 1986 se crearía la primera red troncal de Internet.

A finales de 1989, el informático británico Timothy Berners-Lee desarrolla la World Wide Web para la Organización Europea para la Investigación Nuclear, más conocida como CERN. Su objetivo era crear una red que permitiese el intercambio de información entre los investigadores que participaban en proyectos vinculados a esta organización. El objetivo se logró utilizando archivos que contenían la información en forma de textos, gráficos, sonido y vídeos, además de vínculos con otros archivos. Este sistema de hipertexto fue el que propició el extraordinario desarrollo de Internet como medio a través del cual circula gran cantidad de información por la que se puede navegar utilizando los hipervínculos.

Actualmente se está desarrollando lo que se conoce como Internet2, una redefinición de Internet que tiene como objetivo principal lograr el intercambio de datos multimedia en tiempo real. Se espera la mejora de la mejora en las líneas de comunicación, con el ancho de banda como principal aliado.

En conclusión: Internet se constituye en una realidad social indiscutible que va aglutinando a todos los países del mundo en tomo a una malla de comunicación, siendo la mayor obra tecnológica realizada por el ser humano en toda su historia.

Hoy en día las redes de comunicaciones se han convertido en una necesidad de funcionamiento diario y de vital importancia para todos los escenarios

HISTORIA DE LA MAINBOARD Y EL MICROPROCESADOR



El final de la tercera generación de las computadoras fue marcada claramente con la aparición del primer microprocesador en 1971, el Intel 4004, fabricado por hasta entonces una pequeña empresa: “Intel Corporation”. Este microprocesador de tan solo 4 bits fue fabricado con tecnología MOSFET de canal P, que en esos momentos constituía la tecnología de vanguardia con una velocidad de 50 KIPS (miles de instrucciones por segundo), de muy baja velocidad comparada con la ENIAC (1946) de casi 100.000 mil instrucciones por segundo, pero la ventaja de la 4004 era que pesaba menos de una onza, proyectándose a la creación de la computadora personal. Las desventajas de este microprocesador fueron su baja velocidad, ancho de palabra y tamaño de memoria.

Posteriormente Intel libera el 4040 (versión actualizada de la 4004), con mayor velocidad aunque no presentó cambio alguno en el ancho de palabra y tamaño de memoria. Intel en 1971 puso a la venta el 8008, una versión extendida de 8 bits del 4004 con mayor memoria, (16 KB), después de dos años de arduo trabajo de investigación por parte de Intel, introdujo en 1973 el 8080, el primero de los microprocesadores modernos de 8 bits.

Seis meses después otra empresa llamada Motorota presenta un microprocesador llamado era 6800 de MOTOROLA, el 6502 de MOS TECHNOLOGY y el difundido Z80 de ZILOG, con características similares al microprocesador 8080 de Intel. El ordenador personal no pasó a ser tal hasta la aparición de IBM (International Business Machines), algo que sucedió en dos ocasiones en los meses de junio de 1978 y de 1979. Fechas en las que respectivamente, hacían su aparición los microprocesadores 8086 y 8088, que pasaron a formar del denominado IBM PC. De los dos procesadores, el más potente era el 8086, con un bus de 16 bits, velocidades de reloj de 5, 8 y 10 MHz, 29000 transistores usando la tecnología de 3 micras y hasta un máximo de 1 Mega de memoria direccionable.

En el año 1982, Intel daba un nuevo vuelco a la industria con la aparición de los primeros 80186 también conocidos como los microprocesadores 286, haciendo posible el uso de la memoria virtual, presentaba un bus de 16 bits, 134000 transistores usando una tecnología de 1.5 micras, un máximo de memoria direccionable de 16 Megas y unas velocidades de reloj de 8, 10 y 12 MHz. Su continuación fue el microprocesador 386TM, en 1985, ofreció 275,000 transistores, de 32-bit y podían ejecutar programas múltiples al mismo tiempo. Aparece después el Intel 486TM.

En 1993 aparece el procesador Pentium con una arquitectura real de 32 bits, se usaba de nuevo la tecnología de .8 micras, con lo que se lograba realizar más unidades en menos espacio. Los resultados no se hicieron esperar, y las compañías empezaron aunque de forma tímida a lanzar programas y juegos exclusivamente para el Pentium, hasta el punto que en este momento quien no posea un procesador de este tipo, está bastante atrasado y seguro trabajar con problemas para utilizar los programas que actualmente hay en el mercado. Algo que ha venido a demostrar la aparición del nuevo sistema operativo de Microsoft Windows 95, que a pesar que funciona en equipos dotados de un procesador 486, lo hace sin sacar el máximo partido de sus funciones.

La aparición en 1995, del procesador Pentium Pro un procesador más potente con una arquitectura de 64 bits y el empleo de una tecnología revolucionaria como es la de 32 micras, lo que permitía la inclusión de cinco millones y medio de transistores en su interior. El procesador contaba con un segundo chip en el mismo encapsulado, que se encargaba de mejorar la velocidad de la memoria caché. Otras empresas como Cyrix que presentó la 6X86-200 (1996), AMD K6-233 presentaron procesadores con similares caracteríticas.

Después de la aparición de la Pentium Pro, Intel entrega la denominada Pentium II en 1997, que va mejorando en muy corto tiempo presentando la Pentium III en el año 1999, junto con la empresa AMD que presenta su modelo AMD K6-II 450. Continúa la Pentium 4, en el 2000, los modelos actuales de Pentium 4 han sufrido notables mejoras desde su diseño original, además del aumento de frecuencia. Pero la empresa AMD tampoco se quedó atrás y siguió mejorando sus microprocesadores como AMD Athlon XP, AMD Duron.

En el 2004 apareció Intel Pentium M, al año siguiente Intel Pentium D, Intel Extreme Edition con hyper threading, Intel Core Duo, AMD Athlon 64, AMD Athlon 64 X2, AMD Sempron 128. En el 2006, Intel Core 2 Duo, Intel Core 2 Extreme, AMD Athlon FX. Actualmente existen los microprocesadores Intel Core 2 Quad, AMD Quad Core, AMD Quad FX, cuya principal característica es la de ser cada vez más veloces.

Se espera que para el año 2008 entren al mercado los microprocesadores Intel y AMD con más de 8 núcleos.

En conclusión: A lo largo de la historia y desde su desarrollo inicial, los microprocesadores han mejorado enormemente su capacidad, desde los viejos Intel 8080, Zilog Z80 o Motorola 6800, hasta los recientes Intel Core 2 Duo, Intel Core 2 Quad, Intel Xeon, Intel Itanium II, Transmeta Efficeon o Cell.

Desde la aparición de los primeros computadores en los años cuarenta del siglo XX, muchas fueron las evoluciones que tuvieron los procesadores antes de que el microprocesador surgiera por simple disminución del procesador.


EVOLUCIÓN, DESARROLLO DEL USO E INTERACCIÓN CON EL USUARIO



Cuando los seres humanos y los ordenadores interactúan lo hacen a través de un medio o interfaz. ¿Y qué es una interfaz? es una superficie de contacto que refleja las propiedades físicas de los que interactúan, las funciones a realizar y el balance de poder y control.

¿Por qué es tan importante estudiar la interfaz de usuario? Es importante ya que determina el éxito o fracaso de una aplicación interactiva, es decir de una transmisión mutua tanto de información como de órdenes, datos, sensaciones, intuiciones y nuevas formas de ver las cosas. A pesar de ellos esta interfaz puede limitar la comunicación en muchos casos.

A finales de los años 1970 y principios de los 80, los psicólogos empiezan a interesarse en los aspectos de procesamiento de la información del diseño de sistemas de información. Hacia finales de los 80 y en los 90, la preferencia se centra en las poderosas estaciones de trabajo (workstations) multi-usuario y en los PC más potentes.

La interfaz gráfica de usuario (en inglés Graphical User Interface, GUI) es un tipo de interfaz de usuario que utiliza un conjunto de imágenes y objetos gráficos para representar la información y acciones disponibles en la interfaz. Usualmente las acciones se realizan mediante manipulación directa para facilitar la interacción del usuario con la computadora. Nace con ello el uso del lápiz y los monitores de rayos catódicos (CRT), el ratón, las ventanas (windows), el escritorio o desktop del sistema operativo Windows y los editores Point. Provocando el desarrollo de algoritmos y de hardware que haga posible la manipulación y la representación de objetos más realistas. (CAD/CAM)

El trabajo en los sistemas operativos desarrolló técnicas para las interfaces de los dispositivos de E/S, técnicas de multiprocesos y técnicas para soportar entornos windows y de animación. Además aparece la disciplina llamada Ergonomía que se interesa por: rutina en el trabajo, postura en sentarse o diseño de visión de las pantallas CRT, entre otros.

Las interacciones básicas son la manipulación directa de objetos gráficos, el ratón (mouse), las ventanas (windows), Programas de dibujo y pintura, Edición y procesamiento de texto, Hoja de cálculo, Hipertexto, Reconocimiento de gestos

Con respecto a la manipulación directa de objetos gráficos, en 1963, IVAN SUTHERLAND soportaba la manipulación de objetos gráficos mediante un lápiz óptico, permitiendo coger los objetos, moverlos y cambiarles el tamaño utilizando algunas restricciones. En 1966-1967. WILLIAM NEWMAN. Este sistema fue creado en el Imperial College de Londres y permitía la manipulación directa de gráficos.

Ya en 1968 este sistema incluyó representaciones de iconos, reconocimiento de gestos, menús dinámicos con la ayuda de dispositivos apuntadores y selección de iconos apuntándolos. En los años 70 estas técnicas se hicieron populares a raíz de la investigación llevada a cabo por el laboratorio de Xerox PARC. Para 1977 ALAN KAY acuñó el término de interfases de manipulación directa. Por último entre 1981 y 1982 sale al mercado el primer sistema comercial que hace extenso el uso de la Manipulación Directa: Xerox Star. Le siguen el Apple Lisa en 1982 y el Macintosh en 1984

El segundo dispositivo de entrada más utilizado es el ratón (mouse) inventado por Douglas Engelbart, (1968) su manipulación fue sencilla, consistía en arrastrar a lo largo de una superficie para maniobrar un apuntador en la pantalla del monitor. En 1970 Xerox PARC popularizó el ratón como un dispositivo de entrada práctico y en el año 1981, Xerox Star, ya los comercializaba. Posteriormente aparece en el Apple Lisa (1982), y en el Apple Macintosh (1984).

Otro tipo de interacciones básicas lo conforman las múltiples ventanas, demostrado por ENGELBART. En 1969 ALAN KAY propuso la idea de ventanas traslapadas. En 1979 uno de los sistemas comerciales que primero introdujo el uso de ventanas fue en Lisp Machines Inc. (LMI) y en Sym-bolics Lisp Machines. Entre el 81 y el 83 se popularizó el uso de ventanas traslapadas y en el año 1984 Apple Macintosh contribuyó a popularizar el uso de las ventanas traslapadas en las aplicaciones informáticas. A partir de esos años se desarrollan nuevas versiones dejando atrás el sistema de ventanas estándar X Windows

Por otro lado los programas de dibujo y pintura también constituyen una interacción dibujo y pintura. En 1963 IVAN SUTHERLAND demostró que la gran mayoría de la tecnología actual utilizan los programas gráficos. Uno de los periféricos imprescindibles en el mundo de las aplicaciones de dibujo es el ratón. El uso de este dispositivo de entrada fue demostrado en 1965 por NLS. 1968. KEN PULFER & GRANT BECHTHOLD construyeron un ratón que se utilizó en un sistema de animación de largometrajes para dibujar los fotogramas de una película. A partir de la fecha surgieron diversos programas de dibujo como Draw (1975), Superpaint (1975), Mapa de bits (1985)

Para 1962, ENGELBART, implementó un procesador de textos con word wrap automático, buscar y reemplazar, macros definidas por el usuario, scroll y comandos para mover, copiar y borrar caracteres, palabras o bloques de texto. En 1974 se crea el El Bravo, éste fue el primer editor-formateador WYSIWYG. Los primeros editores comerciales WYSIWYG fueron el Star, el LisaWrite y el MacWrite. Ya para 1990 se desarrollo este postprocesador de textos que usaba la técnica de WYSIWYG muy avanzada. Varios procesadores de texto fueron populares en entornos PC entre los que cabe destacar el “Word Star”, el “MS-Word” (el precursor del mayormente utilizado hoy en día)

Hoy en día los ordenadores son utilizados por un amplio abanico de personas para todo tipo de objetivos. Algunos sistemas informáticos funcionan con poca intervención humana pero la mayor parte son interactivos, interactuando con personas o usuarios que están involucrados en la resolución de tareas. Por lo tanto la interfaz persona-ordenador (también llamada la interfaz de usuario) es normalmente un factor muy importante del éxito o del fracaso de un sistema interactivo.

En conclusión: La interfaz la componen los dispositivos de entrada y salida y los programas que la hacen funcionar, pero desde un punto de vista mas general abarca todo lo que esté relacionado con la experiencia de un usuario y el ordenador, como el entorno de trabajo, la organización en la que trabaja, la preparación que ha tenido, el apoyo que recibe, etc.

Algo relevante es que cada vez los ordenadores serán utilizados por gente menos preparada, por lo que los recursos y los conocimientos necesarios para el diseño y desarrollo de las interfaces serán cada vez más imprescindibles.