INGENIERÍA

Disciplina y profesión que aplica los conocimientos, métodos o instrumentos de la ciencia para diseñar, o desarrollar, o construir, u operar, o mantener: estructuras, máquinas, aparatos, dispositivos o procesos

SISTEMA

Es un conjunto de partes o elementos organizadas y relacionadas que interactúan entre sí para lograr un objetivo. Los sistemas reciben (entrada) datos, energía o materia del ambiente y proveen (salida) información, energía o materia. Un sistema puede ser físico o concreto (una computadora, un televisor, un humano) o puede ser abstracto o conceptual (un software)

jueves, 4 de agosto de 2011

CNTI Centro Nacional De Tecnologías De Infromacion




Los inicios de CNTI y su red Reacciun, se remontan al año 1981, cuando Conicit creó el Sistema Automatizado de información Científica y Tecnológica Saicyt, a fin de atender las necesidades de información de la comunidad científica y tecnológica.

La red Saicyt fue diseñada para una base tecnológica X.25, tecnología reinante para ese entonces. En el año 1983 se procedió a la adquisición de los equipos a la empresa GTE y a partir de ese momento se comenzó su instalación. Para el año 1987 se culminó la instalación de todos los nodos y concentradores de la red en el territorio nacional, a la vez que se firmó un convenio con CANTV, el cual permitía la operación de la red Saicyt.

La red Saicyt se interconectó inicialmente a la red Telenet a través de un enlace internacional que operaba a 9.600 bps. Mediante este enlace era posible acceder a los servicios que esta red X.25 ofrecía. Los servicios de Saicyt se limitaron esencialmente a conexiones con algunas bases de datos en el exterior, principalmente el sistema Dialog. Los usuarios accedían a la red Saicyt por medio de líneas discadas y módems.

Para el año 1990, la población de usuarios registrados que hacían uso del sistema para acceder a dichas bases de datos era de unas 50 personas. Para finales del año 1990, se instaló en Conicit un servidor bajo el sistema operativo Unix, con la finalidad de ampliar la gama tan limitada de servicios, que ofrecía la red.

En marzo de 1991, se comenzó a ofrecer el servicio de correo electrónico en todo el país. A partir de ese momento y mediante una labor de promoción, con universidades y centros de investigación, la población de usuarios comenzó a experimentar un rápido crecimiento, alcanzando más de 2 mil usuarios registrados, pertenecientes en su totalidad a la comunidad académica y científica.

Para finales del año 1991, se hizo efectiva la conexión a internet a través del JvNCnet en la Universidad de Princenton (NJ), con lo cual se ampliaron los servicios internacionales.

En el año 1992, se inició el cambio de la plataforma de la red Saicyt X.25, hacia una red basada en los protocolos TCP/IP. Este cambio de plataforma se culminó de manera satisfactoria en mayo de 1993.

En julio de 1994, el Conicit y 13 instituciones académicas acordaron la fundación de Reacciun, que comenzó a operar formalmente un año más tarde. Para 1998 se incorporó la tecnología Frame Relay a la plataforma tecnológica de la red.



Red Académica


En el 2004, se conmemoran los 10 años de existencia de la Red Académica de Centros de Investigación y Universidades Nacionales, aunque la Red Académica se autorizó oficialmente el 05 de abril de 1995 a través del decreto presidencial N.612, Reacciun cuenta con un período de gestación largo, lento y seguro. Ya en el año 1982, Conicit tenía en operación el Sistema Automatizado de Información Científica y Tecnológica (Saicyt) y el 05 de marzo del año 1992, en el convenio firmado entre Conicit y Cantv, comienza a hacer acto de presencia lo que entonces se conocía como Red Académica Cooperativa entre Centros de Investigación y Universidades Nacionales.


Si bien es cierto que fue en julio de 1995 cuando se materializó en toda su amplitud Reacciun, no es menos cierto que ya a mediados de 1994 se había decidido transformar Saicyt en la Red Académica de Centros de Investigación y Universidades Nacionales, y que el CONICIT ya había realizado los preliminares necesarios, al reunir a las universidades y concretar los acuerdos para establecer la red. Cuando se realizó el decreto oficial, ocurrió el cambio de nombre eliminando de Reacciun toda alusión a las cooperativas.


De esta forma, Reacciun se crea como Asociación Civil sin fines de Lucro autorizada por Decreto Presidencial N° 612, publicado en la Gaceta Oficial de la República de Venezuela N° 35.691, de fecha 11 de Abril de 1995, protocolizada por ante la Oficina Subalterna del Primer Circuito de Registro del Distrito (hoy Municipio) Sucre del Estado Miranda, en fecha 06 de julio de 1995, anotada bajo el N° 47, Tomo 02, Protocolo Primero. Posteriormente modificada la adscripción, nombre y objeto de la referida asociación por Decreto Presidencial N° 737 de fecha 16 de marzo de 2000, publicado en la Gaceta Oficial de la República Bolivariana de Venezuela Extraordinaria N° 5.450, de fecha 22 de marzo de 2000, para crear el Centro Nacional de Tecnologías de Información (CNTI), el cuál absorbió el capital humano y la plataforma tecnológica de servicios prestada por Reacciun hasta esa fecha.


Esta modificaciones quedaron registradas en la Oficina Subalterna de Registro de fecha 13 de septiembre de 2000, anotada bajo el N° 32, Tomo 24, Protocolo Primero, registradas sus últimas modificaciones estatutarias en el Registro Público del Primer Circuito del Estado Miranda bajo el N° 50, Tomo 19, Protocolo Primero de fecha 31 de octubre de 2007, adscrita al Ministerio del Poder Popular para las Telecomunicaciones y la Informática ,según disposición Transitoria Trigésima Primera, publicada en la Gaceta Oficial de la República Bolivariana de Venezuela Extraordinaria N° 5.836, de fecha 08 de enero de 2007.



Las TIC y la consolidación del Socialismo del Siglo XXI

El Gobierno Bolivariano asumió las tecnologías de Información y Comunicación (TIC), como herramientas estratégicas dentro del proceso de transformación social que vive el país, rumbo a la consolidación del Socialismo del siglo XXI.

En armonía con los principios de transformación y construcción de un nuevo modelo de desarrollo en la sociedad venezolana, y de acuerdo con las políticas y lineamientos del Ejecutivo Nacional, en enero de 2007, el presidente de la República Bolivariana de Venezuela, Hugo Chávez Frías, decretó la creación del Ministerio del Poder Popular para las Telecomunicaciones y la Informática; con la finalidad de impulsar el uso intensivo de las Tecnologías de Información como mecanismo para alcanzar una sociedad más justa, democrática y participativa.

El Estado venezolano y sus instituciones están orientadas a garantizar el acceso de todos los ciudadanos a las TIC, ante ello se ha creado un marco jurídico e institucional que así lo garantice, además de un Plan Nacional de Telecomunicaciones, Informática y Servicios Postales 2007-2013.

De esta forma, el Centro Nacional de Tecnologías de Información (CNTI), se convierte en ente adscrito al recién creado Ministerio para encargarse, prioritariamente, de acelerar el proceso de migración de la Administración Pública a Software Libre, estandarizar la plataforma tecnológica del Estado, articular los esfuerzos que, en materia de capacitación tecnológica, adelantan diferentes organismos gubernamentales, fortalecer la interoperabilidad de los sistemas y consolidar una Industria Nacional de Software.

Actualmente esta Asociación Civil sin Fines de Lucro se encuentra presidida por el Dr. Carlos Eloy Figueira Rodríguez, carácter que consta en la Resolución No. 001, emanada del Ministerio del Poder Popular para las Telecomunicaciones y la Informática, de fecha 24 de enero de 2007, publicada en la Gaceta Oficial de la República Bolivariana de Venezuela No. 38.613, de fecha 26 de enero de 2007.

El CNTI se reestructura y adopta como Misión potenciar los esfuerzos que en materia de informática se desarrollen en el sector Gobierno y en las comunidades organizadas, con el fin de contribuir a la eficiencia y efectividad del Estado, así como impulsar el desarrollo y fortalecimiento de la capacidad nacional del sector de las Tecnologías de 
información
fuente

IDEA Fundación De Institutos Avanzados




reada en 1979, y con un desempeño ininterrumpido en el ámbito de la investigación científica, tecnológica y social, la Fundación IDEA ha transformado su gestión desde 1999, perfilando políticas científicas comprometidas con las necesidades de desarrollo que exige la Nación en el actual marco sociopolítico.

Precisamente desde ese año la Fundación viene perfilando una gestión comprometida con las necesidades de desarrollo que exige el País. Ha crecido en infraestructura y en proyectos que generan soluciones científicas y tecnológicas a la diversidad de problemas que aquejan a la población venezolana. La expansión y diversificación de las áreas de investigación ha sido muy significativa: en los últimos 10 años IDEA pasó de tener tres programas de investigación, antes de 1999, a más de 26. Entretanto, en planta actualmente, se cuenta con más de 110 profesionales de distintas áreas, entre investigadores, profesionales y técnicos.



Tiene cuatro áreas de investigación y desarrollo que generan continuamente soluciones científicas y tecnológicas a los ingentes problemas que aquejan a la sociedad venezolana, gracias a la alta calidad de su personal de investigación y a la extraordinaria infraestructura de sus laboratorios.

El Instituto focaliza su trabajo diario esencialmente en las áreas de Agrobiotecnología, Energía y Ambiente, Salud y Sociopolítica y Cultura.



Como política dictada por su ente tutelar, el Ministerio del Poder Popular para Ciencia, Tecnología e Industrias Intermedias, la Fundación IDEA tiene entre sus metas ampliar el campo de intervención más allá del Valle de Sartenejas, creando nuevas unidades de investigación, desarrollo y gerencia en áreas vitales para el país.

En una primera fase se pretende ampliar las instalaciones de Mochima, en el estado Sucre. Otras regiones del país están siendo sujetas a estudio para toma de decisiones, en particular la vasta zona que corresponde con la Faja Petrolífera del Orinoco, Los Andes y Apure, entre otros. También, y de manera revolucionaria, se está estructurando la Escuela Superior Internacional, que pretende incorporarse al enorme esfuerzo nacional de formación de investigadores, con sentido de solidaridad regional con nuestros hermanos latinoamericanos y africanos.

fuente

Supercomputadora

Supercomputadora o superordenador es aquella con capacidades de cálculo muy superiores a las comunes para la misma época de fabricación

Las supercomputadoras fueron introducidas en la década de los sesenta y fueron diseñadas principalmente por Seymour Cray en la compañía Control Data Corporation (CDC), la cual dominó el mercado durante esa época, hasta que Cray dejó CDC para formar su propia empresa, Cray Research. Con esta nueva empresa siguió dominando el mercado con sus nuevos diseños, obteniendo el podio más alto en supercómputo durante cinco años consecutivos (1985-1990). En los años ochenta un gran número de empresas competidoras entraron al mercado en paralelo con la creación del mercado de los minicomputadores una década antes, pero muchas de ellas desaparecieron a mediados de los años noventa.

Historia


El término está en constante flujo. Las supercomputadoras de hoy tienden a convertirse en las computadoras ordinarias del mañana. Las primeras máquinas de CDC fueron simplemente procesadores escalares muy rápidas, y muchos de los nuevos competidores desarrollaron sus propios procesadores escalares a un bajo precio para poder penetrar en el mercado.

De principio a mediados de los años ochenta se vieron máquinas con un modesto número de procesadores vectoriales trabajando en paralelo, lo cual se convirtió en un estándar. El número típico de procesadores estaba en el rango de 4 a 16. En la última parte de los años ochenta y principios de los noventa, la atención cambió de procesadores vectoriales a sistemas de procesadores masivamente paralelos con miles de CPU «ordinarios». En la actualidad, diseños paralelos están basados en microprocesadores de clase servidor que están disponibles actualmente (2011). Ejemplos de tales procesadores son PowerPC, Opteron o Xeon, y la mayoría de los superordenadores modernos son hoy en día clústeres de computadores altamente afinadas usando procesadores comunes combinados con interconexiones especiales.

Hasta ahora el uso y generación de las mismas se ha limitado a organismos militares, gubernamentales, académicos o empresariales.

Estas se usan para tareas de cálculos intensivos, tales como problemas que involucran física cuántica, predicción del clima, investigación de cambio climático, modelado de moléculas, simulaciones físicas tal como la simulación de aviones o automóviles en el viento (también conocido como Computational Fluid Dinamics), simulación de la detonación de armas nucleares e investigación en la fusión nuclear.

Como ejemplo, se encuentra la supercomputadora Roadrunner; Ingenieros de IBM y del laboratorio de Los Álamos trabajaron seis años en la tecnología de la computadora. Algunos elementos de Roadrunner tienen como antecedentes videjuegos populares, de acuerdo con David Turek, vicepresidente del programa de supercomputadorass de IBM. «En cierta forma, se trata de una versión superior de Sony PlayStation 3», indicó. «Tomamos el diseño básico del chip (de PlayStation) y mejoramos su capacidad», informó Turek.

Sin embargo, Roadrunner difícilmente pueda asemejarse a un videojuego. El sistema de interconexión ocupa 557 m² de espacio. Cuenta con 91,7 km de fibra óptica y pesa 226,8 t . La supercomputadora está en el laboratorio de investigaciones de IBM en Poughkeepsie, Nueva York y fue trasladada en julio del 2008 al Laboratorio Nacional Los Álamos, en Nuevo México.[[m2]]

Japón creó la primera supercomputadora petaflops la MDGrape-3, pero solo de propósitos particulares, luego IBM de USA creo la correcaminos, también de 1 petaflops, China la Milky Way One de 1,2 petaflops y Cray de EE.UU. la Jaguar de 1,7 petaflop, que es al final del año 2009 la más rápida. La supercomputadora mas rapida a fines del 2010 era la china Tianhe 1A con picos de velocidad de 2,5 petaflops.

Sistemas de enfriamiento


Muchas de las CPUs usadas en los supercomputadores de hoy disipan 10 veces más calor que un disco de estufa común . Algunos diseños necesitan enfriar los múltiples CPUs a -85 °C (-185 °F).

Poder enfriar múltiples CPUs a tales temperaturas requiere de un gran consumo de energía. Por ejemplo, un nuevo supercomputador llamado Aquasar tendrá una velocidad tope de 10 Teraflops. Mientras tanto el consumo de energía de un solo rack de este supercomputador consume cerca de 10kW. Como comparación, un rack del supercomputador Blue Gene L/P consume alrededor de 40kW.

El consumo promedio de un supercomputador dentro de la lista de los 500 supercomputadores más rápidos del mundo es de alrededor de 257kW.

Para el supercomputador Aquasar, que será instalado en el Instituto Tecnológico Federal Suizo (ETH), se utilizará un nuevo diseño de enfriamiento líquido. Se necesitarán 10 litros de agua que fluirán a una tasa de 29,5 Litros por minuto.

Una de las innovaciones en este diseño es que normalmente los sistemas de enfriamiento aíslan el líquido de la CPU y la transmisión de calor se da a través de convección desde la cubierta metálica de la CPU a través de un adaptador generalmente de cobre u otro material térmicamente conductivo. La innovación consiste en un nuevo diseño en el cual llega el agua directamente a la CPU mediante tubos capilares de manera que la transmisión de calor es más eficiente.

En el caso del ETH en Suiza, el calor extraído del supercomputador será reciclado para calentar habitaciones dentro de la misma universidad.

Características


Las principales son:
Velocidad de Proceso: miles de millones de instrucciones de coma flotante por segundo.
Usuarios a la vez: hasta miles, en entorno de redes amplias.
Tamaño: requieren instalaciones especiales y aire acondicionado industrial.
Dificultad de uso: solo para especialistas.
Clientes usuales: grandes centros de investigación.
Penetración social: prácticamente nula.
Impacto social: muy importante en el ámbito de la investigación, ya que provee cálculos a alta velocidad de procesamiento, permitiendo, por ejemplo, calcular en secuencia el genoma humano, número Pi, desarrollar cálculos de problemas físicos dejando un margen de error muy bajo, etc.
Parques instalados: menos de un millar en todo el mundo.
Coste: hasta decenas de millones de dólares cada una de ellas.

HISTORIA DE LOS SISTEMAS OPERATIVOS


El Sistema Operativo (SO), es lo que hace pensar al ordenador. Si nos queremos meter un poco más de forma técnica, podemos decir en un ordenador se ejecutan programas. Estos programas se dividen en dos apartados:
  • Software Básico
  • Software de Aplicación

El SO constituye la parte más importante del Software Básico y las funciones más importantes se pueden clasificar en dos grandes secciones.
1.     Definición y realización de una máquina virtual
2.     Gestión y distribución compartida de los recursos
A lo largo de la historia, han aparecido diferentes SSOO que, en cada momento, se encargaban de recoger las características punteras de lo que se descubría en el mundo de la informática. Hoy en día, sin ir más lejos, se están desarrollando potentes SSOO basados en la Programación Basada en Objetos (POO), que, dicho sea de paso ha sido la última evolución de la informática, hace ya casi 10 años.
Lo primero es hacer constar que, lo que nos venden hoy en día como "moderno", es casi seguro que ya se utilizaba desde hace muchísimo tiempo en otros SSOO. El concepto de Sistema Operativo, no es ni mucho menos nuevo. Los primeros SSOO aparecieron a finales de los años 50; al comienzo de la informática. Al principio, los primeros SSOO eran monousuario y monotarea, algo así como el DOS. Pero con la direferencia de que se gobernaba con tarjetas perforadoras en vez de Diskettes.
Pronto empezaron a surgir nuevos conceptos y tras la malgama de SSOO que aparecieron, surgió uno de entre ellos, en el que estaban mezcladas todas las filosofías que hasta entonces se había descubierto en este mundo de la informática. Este SO se denominó Multics, son mediados de los años 60. Poco tiempo despues, se dieron cuenta los diseñadores de este SO que era enfarragoso y muy difícil de administrar, así pues se cogió la esencia misma del SO y el mismo equipo que diseñó el Multics, se puso manos a la obra y a finales de los 60 sacan la primera versión de un SO que revolucionaría la informática; el Unix.
El Unix es hoy en dia, casi 30 años despues de su primera versión, para mucha gente que se dedica al mundo de los ordenadores, el único SO de redes real. De hecho es el que se maneja en las administraciones y redes con grandes ordenadores. Se caracterizó en aquel entonces por ser un SO que incorporaba dos conceptos totalmente nuevos, la multitarea y acceso multiusuario; y durante mucho tiempo fue el único SO que se utilizó en las redes.
Este panorama se siguió durante unos cuantos años, entre los cuales, en el mundo de los SSOO se iban sacando a la luz nuevas conceptos y todos ellos emanaban del Unix. Uno de esos conceptos era la Memoria Virtual, tan ampliamente utilizada en los SSOO modernos.
Dando un gran salto en el tiempo nos vamos a finales de los años 70. Por aquel entonces una casa de ordenadores sacó el primer ordenador personal, o al menos, como se le conoce hoy en día, esa casa fue Apple. El éxito fue tal que en seguida otras casas empezaron a desarrollar ordenadores personales, entre ellas emergió IBM. Cada una de esas casas diseñó una serie de SSOO para sus máquinas; Apple el Mac OS, IBM el CP/M, que pronto fue sustituido por un SO que diseñó un jovencísimo Bill Gates y sus colegas, el DOS. Ambos SSOO para su época fueron revolucionarios ya que el DOS intentaba coger el manejo de archivos del Unix pero limitando la potencia del Unix a un sólo usuario. Por contra, el Mac OS diseñaba un SO totalmente nuevo basado en una Interfaz Gráfica. Algo que rompió la tendencia de los SSOO que se diseñaron hasta entonces.
Mientras IBM optó por compartir sus licencias a todo fabricante, Apple no lo hizo. Esto fue la base del mercado de los PCs que conocemos hoy en día. Una arquitectura basada en la conectividad de fabricantes; PC y compatibles, y una arquitectura totalmente particular como son los Apple.
Siguieron pasando los años y a mediados de los 80 surgió, de la alianza Microsoft-IBM un SO que en principio sería destinado a sustituir el DOS, ese Sistema fue el OS/2. Este sistema aprovechaba las nuevas características de los PCs de entonces e introdujo un concepto nuevo al DOS, la multitarea. Poco tiempo despues se produjo una ruptura sonada, el duo Microsoft-IBM se rompía. Por un lado IBM seguiría con el OS/2, por otro lado Microsoft desarrolló un programa basado en el caracter intuitivo del interfaz gráfico del Macintosh, Windows. Este programa, que en principio fue catalogado como el juguete de los niños ricos, ya que imperaba el DOS sobre el PC, en poco tiempo se convirtió en el programa más vendido para PCs.
En principio no fue nada más que una aplicación que necesitaba del DOS, pero el tiempo y los usuarios demandaron que se convirtiera a un SO completo. Tras varios años en los que MS veía como subía su prestigio en el mercado de los PCs hasta cotas casi impensables 10 años antes (el 80% de los SSOO que se utilizan en el mundo son de MS y el 65% de las Suites de oficina también, sin contar con otras aplicaciones como compiladores, Servidores SQL, etc), se sacó el Windows 95. El SO más utilizado hoy en día en todo el mundo, que no el mejor.
Entre sus características destacan la multitarea, un interfaz de usuario muy intuitivo y un cliente de redes muy conseguido. El DOS sólo era monotarea. Con la salida a la luz de Windows 95, MS acaba con la vida del DOS como tal (aunque muchos usuarios piensan que Windows 95 no es sino el DOS renovado por el tiempo, entre ellos el escribiente) y con la de Windows como programa. El DOS ha sido el SO del PC durante más de 15 años. Hoy en día, que las aplicaciones son viejas al año, constituye todo un record que va a ser muy difícil de superar.
Volviendo hacia atrás la mirada, no mucho, desde el año 1990, surge entre los usuarios una demanda que obligó a MS al desarrollo de un SO que aprovechara la interfaz de Windows, pero orientado al mundo empresarial. Ese embrión fue denominado NT, y luego rebautizado a Windows NT. Ese SO aprovechó la interfaz e intuitividad de Windows para llevarla a las redes. Hasta entonces seguía dominada por el Unix, que cumplía su añete 22 de existencia, todo un mozalbete. Tras un par de años de esfuerzos sale a la luz Windows NT y sus características son, como SO orientado a las redes, multitarea, estabilidad y multiusuario. Sus contras son excesivos recursos para poder ser utilizado en una red medianamente grande.
Entre medias de todo este circo de MS, IBM sigue mejorando el OS/2 hasta unas cotas muy altas. Y es en 1994 en pleno retraso de MS por sacar un SO real para PC (entonces solo existía como SO el DOS), cuando IBM saca el OS/2 3.0, apodado Warp. Este SO se caracterizaba por tener un multitarea muy rápida, estabilidad enorme amén de una compatibilidad hasta entonces no posible. Era capaz de ejecutar aplicaciones DOS, más rápidas y con más estabilidad que el DOS. Y lo mismo con Windows. Las aplicaciones Windows se ejecutaban mejor y de forma más estable sobre OS/2 que sobre el propio Windows, además de dar cobertura a todas las aplicaciones que se desarrollaran para OS/2.
Pese a todo este esfuerzo, la gente sigue esperando el nuevo SO de MS para el mundo doméstico. Ya llevaba más de un año de retraso, ya que la última versión de Windows para el PC se sacó a finales de 1991. Y se hace con MS lo que nunca se había hecho con ninguna casa de Software; darle una prórroga de más de un año. Cualquier casa que hubiera tardado todo ese tiempo en sacar algo al mercado que previamente hubiera estado anunciándolo, hubiera sido retirada del mercado por obligación de la demanda de los usuarios. Yo creo que es cuando Bill Gates se da cuenta de una cosa, no importa si el SO es mejor o peor, no importa el retraso, lo único que importe es que sea MS y sea una versión mejor que la anterior.
El año que va desde mediados de 1994 hasta finales de 1995 (que es cuando MS saca el Windows 95) el OS/2, pese a lo que se pudiera suponer, no experimenta un gran crecimiento. Sin embargo, MS iba a provechar ese tiempo muy bien. No fue un retraso debido a mejoras del SO (como fue justificado el retraso), ya que cuando Windows 95 salió seguía adoleciendo de la inestabilidad de su antecesor y era más lento que OS/2. Ese tiempo, lo dedicó al esfuerzo más grande que ha existido por desmarcarse del resto de la competencia. Ese año se dedicó a crear las APIs (herramientas que utilizan los desarrolladores de software para un SO) más difíciles del mercado, y MS daría esa documentación a los desarrolladores siempre y cuando no desarrollasen software en otro SO.
Si sumamos lo comentado en los dos últimos párrafos tenemos la jugada ganadora de MS. El porqué de su éxito. A mi entender cuando a la salida de Windows 95, la gente lo compró de forma masiva, se dió una puñalada de muerte a la que fue edad de oro de la informática. Pero ese es otro tema, ahora estamos haciendo un poco de historia sobre el mundo de los SSOO.
A finales de 1991 surge el fenómeno más revolucionario que ha existido en la informática. Una persona llamada Linus Torvalds, estudiante de informática finlandés, quiere desarrollar un clónico del Unix. Hasta entonces el único SO que se utilizaba a nivel empresarial era ése. Y para ello pide ayuda por Internet. Pese a que no hace falta voy a poner el mensaje que anunció a otros programadores, aunque sólo sea por hacer un pequeño homenaje a esta persona.
"¿Echas de menos los días de Minix 1.1, cuando los hombres eran hombres, y escribían sus propios
drivers?
¿Estás sin ideas y deseas tener un sistema operativo que puedas modificar a tu antojo?
¿Te frusta disponer sólo de Minix?
¿Pasas las noches en vela para depurar tus cuidados programas?
Este anuncio puede ser lo que buscas.
Como mencioné hace meses, estoy trabajando en un versión similar a Minix para máquinas AT-386.
Finalmente ha empezado a ser utilizable (aunque depende de tus exigencias), y estoy pensando en publicar las fuentes para su difusión, Sólo es la versión 0.2... pero ya ejecuta bash, gcc, gnu-make, gnu-sed, compress y otros.."
Mucha gente empezó a trabajar en el sistema. A partir de la versión 0.99, en Navidades de 1993, comenzó la distribución masiva. Lo que llamaba la atención de este proyecto es que era gratis. Y totalmente anónimo. No había una casa detrás de él que se hiciera responsable del proyecto. En estos días que la marca lo es todo, no sólo resultó romántico sino que mucha gente se interesó por el tema más de lo debido. Hoy por hoy, Linux (así se llamó el proyecto, en honor a su inventor) es el clónico Unix más vendido del mundo y no sólo eso, sino que debido a que toda la información sale por Internet, salen versiones cada vez mejores en muy poco periodo de tiempo; hasta llegar al caso de que son más rápidas las versiones Unix de Linux que las de los propios fabricantes tales como Sun, IBM o SCO. Si a eso le sumamos que el año 1996 la NASA eligió como mejor SO de redes al Linux RedHat v4.1, nos podemos dar una ligera idea del fenómeno que ha supuesto Linux en el mercado.
El período que va desde 1993 hasta 1996 se caracterizó por una salida ingente de SSOO al mercado; ya que MS quiso jugar la baza de introducirse en el mundo de las redes con nuevas versiones de Windows NT, IBM sacó una nueva versión del OS/2, destinado a sustituir al DOS, MS también sacó Windows 3.xx y Windows 95 que finalmente fueron los estándares del mercado, Sun y otros con versiones nuevas del Unix y el nuevo Linux que poco a poco ganaba más adeptos, incluso ya en centros universitarios. No olvido las versiones del Mac OS para el Apple, es decir, que se tenía una gran oferta de SSOO y todos ellos buenos.
MS, con Windows NT, apostó sobre las redes y se dedicó a sacar tres versiones en poco más de 3 años. Cada una de ellas mejores y más estable que la anterior, pero con el mismo problema de sus antecesoras, el excesivo número de recursos necesarios para administrar una red medianamente grande.
Y estamos en 1996, el año que va hasta la fecha de hoy se ha caracterizado por un afianzamiento de los SSOO de MS, ya sean a nivel particular (Windows 95) o a nivel de redes (Windows NT), si bien en este último le queda por luchar dos grandes batallas que se me antojan imposibles, ambas se llaman de parecida forma, Linux/Unix. El SO de los grandes ordenadores, grandes redes o simplemente, de las administraciones, y últimamente, de pequeños usuarios generalmente universitarios. Pese a ser viejo, el Unix, es sin duda ninguna, el SO para las redes.
Resumiendo, tras este período de cerca de 30 años de historia, hay una serie de SSOO, que gozan, justa o injustamente de salud para suminstrar al usuario herramientas suficientes para crear un ordenador desde casa con capacidad plena de conexión a Internet.


Windows 95
OS/2
Windows NT
Linux/Unix
Multiprogramación
X
X
X
X
Multiusuario
-
-
(Server)
X
Herramientas de
Desarrollo
-
REXX
-
C,C++,Fortran
TCL/TK,Perl,Lisp
Estabilidad
Media
Alta
Alta
Muy Alta
Seguridad
Baja
Alta
Alta
Alta
Requisitos
Mínimos
4MB
8MB
16MB Workstation
64MB Server
4MB
Fuente

viernes, 29 de julio de 2011

LOS PRIMEROS INGENIEROS DE SISTEMAS DE VENEZUELA SE FORMARON EN LA ULA


La primera promoción de ingenieros de sistemas de Venezuela la logró la Universidad de Los Andes, al profesionalizar un contingente de hombres con los egresados de los años 1974 y 1975.

35 años ha pasado desde aquel acto académico,  razón suficiente como para que la Universidad de Los Andes junto a su facultad de Ingeniería, haya decidido rememorar  este hito histórico universitario del país, que sembró los cimientos de los seguidores de las nuevas tecnologías computacionales. En un acto protocolar efectuado este viernes 6 de noviembre en el Paraninfo de la ULA, ocho de los 17 egresados, lograron reencontrase para  concelebrar, recordar y compartir incluso con las nuevas generaciones, los contrastes de formación de aquel entonces con lo apabullante y  lo vertiginoso de la tecnología actual. El ingeniero Douglas Fuenmayor, con una brillante carrera en la industria petrolera venezolana,  dentro de la cual  logró ocupar los más altos sitiales de la estructura laboral,  fue el encargado de ofrecer las palabras en nombre de sus compañeros. “Este encuentro nos permite transmitir a la facultad, específicamente a la Escuela de Ingeniería de Sistemas, de cuales fueron nuestras experiencias como profesionales universitarios, cuales fueron nuestros retos dentro de empresas publicas y privadas e institutos de investigación”. Fuenmayor dijo que para los años de formación universitaria, existía una precaria actividad computacional en Venezuela, incluso el mundo estaba en etapa de comienzos. Afirmó que,  afortunadamente, el crecimiento de esta vertiente tecnológica ha sido veloz y para este grupo la oportunidad de actualizarse ha sido inmejorable. 



“El ingeniero de sistema de aquel entonces se enfrentó a esa realidad, de tener que trabajar con herramientas, que tal vez para ese entonces no eran la mejores. En contraste, el ingeniero de sistema que egresa hoy, tiene mayores oportunidades de desarrollar su carrera dentro de la infraestructura de servicios, académica, investigación, empresarial e industrial”

Quienes recibieron título en Aula Magna fueron: Alejo Guillén, Douglas Fuenmayor, Gamir Zambrano, Hector Arciniegas,  José Peña, Ramses Fuenmayor, Anatoly Sljussar, Elías Darwich, Gerardo Colmenares, Jacobo Araujo, Orlando Puleo, Salomón Katan, Buddy Oviol, Freddy Zambrano, German Deffit, Jesús Araujo, y Pedro Arévalo. Al acto, donde se le confirieron reconocimientos a personalidades ligadas a este quehacer académico y profesional,  asistieron autoridades universitarias de la ULA, el decano de a Facultada de Ingeniería, profesor Oscar Camacho, así como familiares de los integrantes de la primigenia promoción. 

Fuente

martes, 26 de julio de 2011

Características de un sistema




Todo los sistemas cumplen con dos características:


1)Propósito u objetivo:



Todo sistema tiene uno o algunos propósitos. Los elementos (u objetos), como también las relaciones, definen una distribución que trata siempre de alcanzar un objetivo.



2)Globalismo o totalidad:


Un cambio en una de las unidades del sistema, con probabilidad producirá cambios en las otras. El efecto total se presenta como un ajuste a todo el sistema. Hay una relación de causa/efecto. De estos cambio y ajustes, se derivan dos fenómenos: entropía y homeostasia.



    Entropía: es la tendencia de los sistemas a desgastarse, a desintegrarse, para el relajamiento de los estándares y un aumento de la aleatoriedad. La entropía aumenta con el correr del tiempo. Si aumenta la información, disminuye la entropía, pues la información es la base de la configuración y del orden. De aquí nace la negentropía, o sea, la información como medio o instrumento de ordenación del sistema.




    Homeostasia: es el equilibrio dinámico entre las partes del sistema. Los sistemas tienen una tendencia a adaptarse con el fin de alcanzar un equilibrio interno frente a los cambios externos del entorno.



Como resumen se puede decir que los dos elementos claves para la creación de un sistemas, en primer lugar, es definir para que fin se esta siendo creado, ya que es imposible que un sistema funcione sin un objetivo claro o razón por la cual funcionar y segundo debe poseer un sistema de equilibrio que regule los cambios que produce cada elemento y la manera que afecta el funcionamiento de los elementos que lo acompañan o del ambiente que lo rodea, con el fin de que el sistema se mantenga ordenado y cumpla sus funciones correctamente.

FUENTE
http://topicsistemas.blogspot.com/2010/06/caracteristicas-de-un-sistema.html


Los sistemas siguen una naturaleza





Sistemas importantes 


Para los seres vivos existen varios sistemas de mucha importancia entre ellos encontramos


El sistema solar


Sistema Ecológico
Comprende elementos naturales y humanos vinculados por relaciones de dependencia mutua, entre los cuales están el relieve, clima, ríos, suelos, seres humanos, plantas animales, ...En este sistema las características de cada elementos se explican por causas naturales (físicas, químicas, biológicas). El hombre interviene como un ser vivo especial porque depende de los recursos naturales pero también tiene una capacidad para modificarlos rápidamente, sea con efectos positivos o negativos. Todos lo elementos se observan integrados en el paisaje.


Para los seres humanos en general también hay una gran variedad de sistemas


Sistema Circulatorio 


Sistema digestivo

Y por ahí sigue la lista de los sistemas de los seres humanos

Existen muchos mas ejemplos de sistemas, como sistemas operativos, sistemas políticos, sistemas y mas sistemas, en fin se puede afirmar que todo se rige por un sistema.

Programa de Sistemas – UDO, Núcleo de Monagas

La Universidad de Oriente Núcleo de Monagas a lo largo de su historia ha contribuido a la formación de nuevos profesionales, gracias a las carreras que ahí se imparten como Administración, Contaduría Pública, Gerencia de Recursos Humanos, Tecnología de los Alimentos, Ingeniería de Producción Animal, Ingeniería de Petróleo, Ingeniería Agronómica e Ingeniería de Sistemas y en esta última se hará mayor énfasis.


         La mayoría de las veces la falta de atención a este programa se debe al desconocimiento que existe sobre las actividades, sus funciones y necesidades.


         El presente texto tiene como objetivo dar a conocer la estructura del programa de Sistemas, su misión, visión, necesidades, fortalezas. Y así poder tomar algunos mecanismos correctivos para el mejoramiento y desarrollo de nuestra entidad.

Programa de Sistemas – UDO, Núcleo de Monagas



         La Universidad de Oriente Núcleo de Monagas inicia sus actividades el 12 de Febrero de 1962. Teniendo su sede principal en el Campus los Guaritos, en Maturín. La Universidad tiene como misión formar profesionales del más alto nivel de calidad, profesionales que atiendan problemas de su particular formación y competencia, bajo un alto espíritu de solidaridad y compromiso social. La Universidad se basa en reafirmar su compromiso de ser el centro de estudio, análisis y producción de ideas necesarias para el desarrollo social económico y político del oriente del país.


         En el año 2001, fue aperturada la carrera de Ing. De Sistemas en el Núcleo de Monagas. Este programa está adscrito al Departamento de Ciencias-Cursos Básicos. Los ingenieros pueden desempeñar diferentes roles profesionales tales como analistas, docentes, gerentes, investigadores y diseñadores.


1.1        Visión y Misión:


Misión:


         Este programa tiene como misión desarrollar el talento humano propiciando en el futuro profesional un carácter crítico, innovador, investigativo, integrador y analítico para que así tengan la capacidad de responder positivamente y dar soluciones a las necesidades que la sociedad actual requiere como un aporte significativo para el progreso de la región y el país como tal.


Visión:


         Ser reconocido, a nivel regional, nacional e internacional como una organización que promueva la excelencia en la formación de ingenieros en sistemas, capaces de afrontar los retos tecnológicos, sociales y económicos del mundo contemporáneo y del entorno futuro que nos espera. Contando con profesores altamente calificados y motivados hacia el logro de sus objetivos, guiados siempre a cumplir con todas las actividades docentes, investigativas y de extensión propia de la Universidad de Oriente Núcleo de Monagas, pero con un mayor sentido de responsabilidad social.


1.2        Funciones:


·        Atención al estudiante, suministro de información.
·        Transcribir, recibir y enviar oficios a las distintas dependencias de la institución.
·        Llevar control de los libros del programa.
·        Apoyar en las distintas actividades a realizar en la oficina, fichas técnicas.
·        Aclarar dudas a los bachilleres que las tengan, mientras estén en sus posibilidades.
·        Atención a los profesores.
·        Elaboración de cuadros de la información académica.


1.3        Objetivos:


·        Formar profesionales en el área de sistemas mediante una perspectiva holística en su entorno.
·        Promover la investigación científico-tecnológica.
·        Formar al estudiante de la carrera con conocimientos específicos y actualizados especialmente en fundamentos de apoyo a la toma de decisiones, planificación y control de proyectos, investigación de operaciones, modelado de sistemas, lenguaje de programación, inteligencia artificial, ingeniería de software, sistema de control, redes y telecomunicaciones.
·        Crear en el estudiante sentido de pensamiento social.
·        Disponer de profesores altamente capacitados y con una gran vocación docente.
·        Aportar a la sociedad ingenieros con sólidos principios éticos, que contribuyan al desarrollo industrial y tecnológico del país.
·        Dotar de infraestructura apropiada y con los recursos humanos y tecnológicos necesarios para alcanzar la excelencia académica.
·        Propiciar en los estudiantes y profesores interés por la innovación tecnológica para generar herramientas y procedimientos que logren la solución de problemas en la sociedad general.


1.4        Observación:


En las visitas realizadas a la oficina de Sistemas se pudo observar:


·        Que a pesar que cuentan con poco espacio físico mantienen la oficina organizada y limpia.
·        Todo el departamento de Ciencias disfrutan de conductos de aire acondicionados los cuales mantienen el ambiente agradable.
·        Cuentan con poco material de oficina pero en buenas condiciones.
·        Necesitan mejorar la atención al estudiantado.
·        Falta de personal (secretarias, obreros, profesores).
·        Esta carrera no cuentan con un departamento u escuela propia sino que dependen del departamento de Ciencias.
·        Es difícil encontrar a la coordinadora del programa de Sistemas.
·        Renovar estructuras (piso, paredes, pintura).
·        Poseen pocos materiales de oficina (escritorio, computadoras, sillas, fotocopiadora, impresora, etc.).
·        Falta de información en las carteleras que se encuentran en las instalaciones del Departamento de Ciencias.