lunes, 23 de junio de 2008

La Fase I

Fase I

En el desarrollo de la investigación se llevó a cabo la aplicación de las técnicas de recolección de datos, para organizar, analizar y tabular la información que fue recolectada a través de dichos métodos.

Después se llevó a cabo la etapa de todos los requerimientos dados por el usuario para darle solución y soporte técnico a los mismos.

sábado, 14 de junio de 2008

Estudio de factibilidad del proyecto

La investigación de factibilidad en un proyecto consiste en descubrir cuales son los objetivos de la organización, luego determinar si el proyecto es útil para que la empresa logre sus objetivos.

La búsqueda de estos objetivos debe contemplar los recursos disponibles o aquellos que la empresa puede proporcionar, nunca deben definirse con recursos que la empresa no es capaz de dar.

En las empresas se cuenta con una serie de objetivos que determinan la posibilidad de factibilidad de un proyecto sin ser limitativos.


Estos objetivos son los siguientes:

Reducción de errores y mayor precisión en los procesos.
Reducción de costos mediante la optimización o eliminación de recursos no necesarios.
Integración de todas la áreas y subsistemas de la empresa.
Actualización y mejoramiento de los servicios a clientes o usuarios.
Aceleración en la recopilación de datos.
Reducción en el tiempo de procesamiento y ejecución de tareas.
Automatización optima de procedimientos manuales.
Factibilidad se refiere a la disponibilidad de los recursos necesarios para llevar a cabo los objetivos o metas señalados, la factibilidad se apoya en 3 aspectos básicos:
Operativo.
Técnico.
Económico.

viernes, 13 de junio de 2008

El Análisis y Diseño de Sistemas Orientada a Objeto

Análisis de Sistemas Orientada a Objeto

Hoy en día la tecnología orientada a objetos ya no se aplica solamente a los lenguajes de programación, además se viene aplicando en el análisis y diseño con mucho éxito, al igual que en las bases de datos. Es que para hacer una buena programación orientada a objetos hay que desarrollar todo el sistema aplicando esta tecnología, de ahí la importancia del análisis y el diseño orientado a objetos.

La programación orientada a objetos es una de las formas más populares de programar y viene teniendo gran acogida en el desarrollo de proyectos de software desde los últimos años. Esta acogida se debe a sus grandes capacidades y ventajas frente a las antiguas formas de programar.
Una Perspectiva Histórica

Tradicionalmente, la programación fue hecha en una manera secuencial o lineal, es decir una serie de pasos consecutivos con estructuras consecutivas y bifurcaciones.


Diseño de Sistemas Orientada a Objeto


Existen muchas definiciones que se le ha dado al Objeto. Primero empecemos entendiendo que es un objeto del mundo real. Un objeto del mundo real es cualquier cosa que vemos a nuestro alrededor. Digamos que para leer este artículo lo hacemos a través del monitor y una computadora, ambos son objetos, al igual que nuestro teléfono celular, un árbol o un automóvil.

Analicemos un poco más a un objeto del mundo real, como la computadora. No necesitamos ser expertos en hardware para saber que una computadora está compuesta internamente por varios componentes: la tarjeta madre, el chip del procesador, un disco duro, una tarjeta de video, y otras partes más. El trabajo en conjunto de todos estos componentes hace operar a una computadora.

Internamente, cada uno de estos componentes puede ser sumamente complicado y puede ser fabricado por diversas compañías con diversos métodos de diseño. Pero nosotros no necesitamos saber cómo trabajan cada uno de estos componentes, como saber que hace cada uno de los chips de la tarjeta madre, o cómo funciona internamente el procesador. Cada componente es una unidad autónoma, y todo lo que necesitamos saber de adentro es cómo interactúan entre sí los componentes, saber por ejemplo si el procesador y las memorias son compatibles con la tarjeta madre, o conocer donde se coloca la tarjeta de video. Cuando conocemos como interaccionan los componentes entre sí, podremos armar fácilmente una computadora.

martes, 10 de junio de 2008

viernes, 6 de junio de 2008

CAPITULO II

CAPITULO II
MARCO TEÓRICO
ANTECEDENTES DE LA INVESTIGACIÓN


La necesidad de registrar la información referente a un paciente se considera un problema antiguo e importante en la Medicina. Los avances en esta dirección dependen de la posibilidad de contar con el soporte técnico adecuado. Así es como la aparición de la escritura y el papel permitieron recolectar y almacenar en forma de registros escritos estos datos, posibilitando que pudieran confrontarse cuando fuera necesario. Esta concepción ha ido variando con el tiempo, a medida que se han incrementado los datos que se recogen y que han modificado la tecnología disponible.

Parece comprensible que con el desarrollo de las técnicas informáticas haya ocurrido en los últimos tiempos un salto cualitativo y cuantitativo en el proceso de recolección almacenamiento y recuperación de los datos del paciente. Sin embargo, el alcance de la informática aplicada a esta problemática es escaso y limitado. A pesar del desarrollo y los diferentes avances tecnológicos que han acontecido en el campo de las ciencias médicas, aún se sigue utilizando para la recogida de la información el antiguo sistema de registro de pacientes sobre papel (archivos), cuando paradójicamente la informática ha alcanzado niveles muy avanzados de desarrollo en casi todas las esferas de la vida incluyendo su amplia utilización en la propia medicina.

Debido a la necesidad de solucionar este y otros problemas similares y de imbricar la Medicina y la Informática, surge la Informática Médica (IM) como ciencia, definida como: El conjunto de aspectos teóricos y prácticos del proceso de la información sobre la base del conocimiento y experiencias derivadas de los procesos en medicina y la atención médica. Teniendo como tareas fundamentales el apoyo a la clínica a la investigación médica y a la Salud Pública. El profesor Kahara afirma que los sistemas a cuyo diseño se dedica la IM son de 2 tipos.1
1. Sistemas que tienen que ver con los datos sobre los pacientes (tema a los que está dedicado este artículo)
2. Sistemas basados en los conocimientos, para el apoyo del personal médico (que se apoyan en los datos que recogen los sistemas mencionados en el tipo I).
La comunidad de IM viene prediciendo desde la década del 60 la aparición de un registro médico sin papeles.

Sin embargo, el efecto de la aplicación de la informática a la medicina había conducido en los años 80 a un efecto totalmente contrario: Los numerosos reportes generados por los sistemas automatizados habían conducido a una acumulación de información escrita en papel. De manera que la reducción del material almacenado en papel no resulta un problema trivial.2 Específicamente con el objetivo de dar respuesta a esta problemática, se creó en 1981, en EE.UU., el Instituto de Registro Médico (MRI).3

En la década del 90 surge una nueva concepción con la introducción del Registro Computarizado de Pacientes (Computer-based Patient Record, CbPR), como resultado de una propuesta realizada por el Instituto de Medicina (IOM), para la recopilación de toda la información del estado de salud de un individuo, a lo largo de su vida, identificado por un código de registro personal. El CbPR también esconocido en la literatura internacional como Sistema de Registro Electrónico de Pacientes (EPR).2-4 En la actualidad, esta propuesta es ampliamente aceptada en la comunidad de informáticos médicos. El CbPR se ve como una prioridad, por parte de políticos, asociaciones médicas y los seguros comunitarios, etc. En la opinión de algunos especialistas del campo de la IM, la introducción del CbPR, traerá mayores beneficios a la sociedad que una simple cura para el SIDA o el cáncer. De hecho se supone que está naciendo una nueva era en los sistemas de almacenamiento de información médica, lo que permitirá que los sistemas como el CbPR se constituyan en el elemento central del sistema de salud del futuro.




BASES TEÓRICAS


La presente investigación se ha realizado bajo el término y/o enfoque humanístico con relevancia a los términos de carácter informáticos:

Según su terminología en el campo de la informática, se emplearon las siguientes autores:

1. Iran Parlor (1849-1936); dice “Quien no se puso hacer psicología si no investigar de forma experimental e inductiva el funcionamiento fisiológico del hombre como un animal aunque superior, que puede ser por materialismo”.
2. Vladimir M Bekterer (1980); dice “Pongan la energía física comoexplicación de todo proceso, asigana la materia orgánica funciones mentales y reduzca estos procesos a transformaciones de energías físicas.

Nuestra invesigación se sustenta bajo el pensamiento del señor WLADIMIR M. BEKTERER, nos trata de reflejar con sus palabras el manejo de la energía mental que no se puede palpar, para convertirla y transformarla por un medio determinado en energía física o tangible, que se puede tocar para la elaboración de nuestro tema de investigación.





DEFINICIÓN DE TÉRMINOS BÁSICOS


APLICACIONES:

Nombre que reciben los programas especializados en tareas concretas y de una cierta complejidad. En el mundo de los micros, los procesadores de textos y los sistemas de gestión de bases de datos son ejemplos de aplicaciones. El concepto de aplicación se opone al de software de base, por ejemplo, compuesto por sistemas operativos y lenguajes de programación.


BASE DE DATOS

Es un conjunto de información relacionada con un asunto o finalidad. En Access, una base de datos es un archivosnque puede contener tablas donde se encuentre toda la información sobre un tema en específico, consultas, formularios, informes entre otros.


CAMPO

Un campo es un componente de una tabla que contiene un elemento específico de información, como ejemplo tenemos, nombre, apellidos, edad, sexo, etc.

REGISTRO

Un registro esta compuesto por todos los campos de la tabla, de manera que un campo es unaparte de otro registro.


ICONOS

Símbolos gráficos que se utilizan para representar archivos de datos, programas de aplicación e instrucciones. Los iconos proporcionan una idea analógica y nemotécnica de su significado o de su función y, de esta forma, el usuario final puede recordar o intuir fácilmente para qué sirven.

INTERFASE DE USUARIO

Conjunto de programas y de dispositivos físicos que permiten establecer una comunicación entre el usuario humano y el ordenador. Si la interfase está diseñada para facilitar el uso del ordenador, haciendo que éste se adapte el hombre y no al revés, se suele decir que es "amistosa" o "amigable" (por traducción de la expresión inglesa user friendly ).


WINDOWS

Programa comercial de la empresa Microsoft. Inicialmente corría solamente en PC y era un complemento del sistema operativo DOS. Actualmente es un sistema operativo completo y autónomo y compatible con diversos tipos de ordenadores. Los planes de Microsoft son que Windows esté presente en todo tipo de ordenadores: portátiles, de sobremesa, estaciones de trabajo, terminales, etc., e incluso en electrodomésticos programables.

lunes, 26 de mayo de 2008

¿Qué es la Reingeniería?

La reingeniería es uno de los fenómenos gerenciales de mayor impacto en las ultimas décadas, debido a que su rápida y abrumadora expansión ha provocado y continua provocando cambios de grandes dimensiones en muchas organizaciones.

En apenas diez años la reingeniería ha completado casi todas las etapas por las que pasan los enfoques. En efecto, de la fase emergente paso rápidamente a la fase de alto impacto y diseminación del enfoque en el mundo empresarial, produciéndose casi de inmediato la fase crítica, en que desde diversos ángulos se cuestionaron varias de sus propuestas. Ahora esta por ingresar a la fase madura, donde la experiencia acumulada enriquece sustancialmente la aplicación del enfoque, disminuyendo el riesgo de fracaso en su aplicación.

En la década de los años ochenta se dio la primera fase, cuando varias empresas dieron un vuelco radical en sus negocios por medio del rediseño de sus procesos. Era la época en que emergía este enfoque y su aplicación se circunscribía a una cuantas corporaciones norteamericanas.

La segunda fase se inicia en 1993, al publicarse los casos de las empresas que habían rediseñado con éxito sus procesos y la forma en que lo habían logrado. Michael Hammer y James Champy, por medio del libro Reingeniería, permitieron la divulgación masiva y rápida del rediseño. Antes de un año se habían vendido 1,7 millones de copias de su libro. Ese mismo año se publicó el libro Innovación dc Procesos: Reingeniería por medio de la Tecnología de la Información, de Thomas H. Davenport, profesor de la Universidad de Boston, considerado una de las máximas autoridades en el tema.

Durante este período las empresas en muchos países iniciaron procesos de reingeniería y el enfoque tuvo una expansión extraordinaria. Esta fase incluye a las primeras empresas seguidoras del enfoque. Breve tiempo después siguen el camino de la reingeniería las empresas más conservadoras, dando paso a la tercera fase.

A partir de 1995 se inicia la cuarta fase: la fuerte crítica a la reingeniería. consultores, investigadores universitarios y ejecutivos empezaron a acumular experiencias que mostraban algunas limitaciones de la versión original de este enfoque y detectaron los factores que atentaban contra su éxito.

A los críticos de la concepción inicial de la reingeniería se unieron también sus principales promotores: Hammer y Champy, cada uno escribió un nuevo libro con sus propios puntos de vista y experiencias sobre la forma en que se estaba aplicando la reingeniería y la necesidad de hacer ajustes a la versión original. En el primer caso The reengeineering Revolution, Michael Hammer y Steven Stanton, en el segundo, Reingeniería de la Gerencia: Cómo modificar el trabajp gerencia, James Champy.

La quinta fase empieza a emerger al concluir los años noventa y tomará fuerza al iniciarse éste nuevo siglo, replanteando el rediseño en un clima menos influido por la moda y dejando de lado a los detractores superficiales de la reingeniería. Los principios en que se base la reingeniería, lejos de responder ahora a una moda más, revolucionan radicalmente la forma en que se ha diseñado el trabajo en el siglo XX, constituyendo una alternativa permanente de efectividad organizacional para los ejecutivos.

¿Cómo nació la reingeniería?

Muchas empresas, se vieron obligadas, ante las nuevas características del entorno, a buscar formas diferentes a las tradicionales para enfrentar los grandes desafíos de un mercado altamente competitivo. Las formas tradicionales de dividir el trabajo, de estructurar las organizaciones por funciones, de buscar la especialización, etc. no eran suficientes para dar grandes saltos en un entorno globalizado, por lo que estudiaron y llevaron a la práctica distintos caminos para enfocar el trabajo.

El mundo se enfrenta por vez primera a un escenario relativamente abierto, caracterizado por lo que algunos denominan las tres Ces: Clientes, Cambio y Competencia. En efecto, ya no es el que produce o comercializa el factor más importante, sino el cliente. El cambio se transforma de un fenómeno esporádico a algo permanente. La competencia, con la apertura de mercados, pasa de un ámbito nacional o regional a uno mundial. Este entorno exige altos niveles de calidad, servicios expeditos, grandes reducciones de costos y altos niveles de productividad.

Es en este contexto donde emerge la reingeniería. Los clientes adquieren una posición determinante en los mercados, exigiendo mejores servicios y adaptados a sus propias necesidades, obligando a las empresas a revisar sus conceptos orientados a mercados masivos. La fuerte penetración de los mercados internacionales por parte de las compañías japonesas desde inicios de los años ochenta crea nuevas condiciones competitivas, en que las posibilidades de opción por parte de los consumidores se multiplican. El cambio se ve presionado por el avance tecnológico, donde se ofrecen nuevas alternativas en los procesos, automatización de los sistemas, mejora de la calidad y costos mas bajos.

¿Se podía enfrentar este nuevo escenario exclusivamente con las prácticas tradicionales? La respuesta de algunas empresas fue negativa y, como consecuencia, buscaron cambios radicales, los cuales dieron nacimiento a lo que hoy conocemos como reingeniería.

El extraordinario éxito obtenido por estas empresas fue motivo de investigación y análisis por parte de consultores y estudiosos de estos temas, entre los cuales destacaron Michael Hammer y James Champy, quiénes son considerados los principales exponentes de esta corriente. Ambos consultores concluyeron que estaban frente a una serie de elementos que, en su conjunto y en ciertas circunstancias, podían crear condiciones muy favorables para una organización. La sistematización de estas experiencias dio origen a la reingeniería.

Definición de Factibilidad Técnica, Económica y Operativa

Factibilidad Técnica

El análisis de factibilidad técnica evalúa si el equipo y software están disponibles (o, en el caso del software, si puede desarrollarse) y si tienen las capacidades técnicas requeridas por cada alternativa del diseño que se esté considerando. Los estudios de factibilidad técnica también consideran las interfases entre los sistemas actuales y nuevo. Por ejemplo, los componentes que tienen diferentes especificaciones de circuito no pueden interconectarse, y los programas de software no pueden pasar datos a otros programas si tienen diferentes formatos en los datos o sistemas de codificación; tales componentes y programas no son compatibles técnicamente. Sin embargo, puede hacerse una interfase entre los sistemas no compatibles mediante la emulación, la cual son circuitos diseñados para hacer que los componentes sean compatibles, o por medio de la simulación, que es un programa de cómputo que establece compatibilidad, pero con frecuencia estas formas de factibilidad técnica no están disponibles o son demasiado costosas.

Los estudios de factibilidad técnica también consideran si la organización tiene el personal que posee la experiencia técnica requerida para diseñar, implementar, operar y mantener el sistema propuesto. Si el personal no tiene esta experiencia, puede entrenársele o pueden emplearse nuevos o consultores que la tengan. Sin embargo, una falta de experiencia técnica dentro de la organización puede llevar al rechazo de una alternativa particular.


Factibilidad Operacional

Esta factibilidad comprende una determinación de la probabilidad de que un nuevo sistema se use como se supone. Deberían considerarse cuatro aspectos de la factibilidad operacional por lo menos. Primero, un nuevo sistema puede ser demasiado complejo para los usuarios de la organización o los operadores del sistema. Si lo es, los usuarios pueden ignorar el sistema o bien usarlo en tal forma que cause errores o fallas en el sistema.

Segundo, un sistema puede hacer que los usuarios se resistan a él como consecuencia de una técnica de trabajo, miedo a ser desplazados, intereses en el sistema antiguo u otras razones. Para cada alternativa debe explorarse con cuidado la posibilidad de resistirse al cambio al nuevo sistema. Tercero, un nuevo sistema puede introducir cambios demasiado rápido para permitir al personal adaptarse a él y aceptarlo. Un cambio repentino que se ha anunciado, explicado y “vendido” a los usuarios con anterioridad puede crear resistencia. Sin importar qué tan atractivo pueda ser un sistema en su aspecto económico si la factibilidad operacional indica que tal vez los usuarios no aceptarán el sistema o que uso resultará en muchos errores o en una baja en la moral, el sistema no debe implantarse.

Una última consideración es la probabilidad de la obsolescencia subsecuente en ele sistema. La tecnología que ha sido anunciada pero que aún no está disponible puede ser preferible a la tecnología que se encuentra en una o más de las alternativas que se están comparando, o cambios anticipados en las practicas o políticas administrativas pueden hacerse que un nuevo sistema sea obsoleto muy pronto. En cualquier caso, la implantación de la alternativa en consideración se convierte en impráctica.

Un resultado frecuente de hallazgos negativos acerca de la factibilidad operacional de un sistema es que éste no se elimina sino que se simplifica para mejorar su uso. Otras posibilidades son que los programas de relaciones públicas o de entrenamiento estén diseñados para enfocarse a sobreponerse a la resistencia a un nuevo sistema, o se desarrollan formas para hacer fases en el nuevo sistema en un largo periodo para que el cambio total, que traumatizaría a los usuarios u operadores, se convierta en una serie de pequeños cambios.


Factibilidad Económica

Los estudios de factibilidad económica incluyen análisis de costos y beneficios asociados con cada alternativa del proyecto. Con análisis de costos/beneficio, todos los costos y beneficios de adquirir y operar cada sistema alternativo se identifican y se hace una comparación de ellos. Primero se comparan os costos esperados de cada alternativa con los beneficios esperados para asegurarse que los beneficios excedan a los costos. Después la proporción costo/beneficio de cada alternativa se compara con las proporcionan costo/beneficio de las otras alternativas para identificar la alternativa que sea más atractiva e su aspecto económico. Una tercera comparación, por lo general implícita, se relaciona con las formas en que la organización podría gastar su dinero de modo que no fuera en un proyecto de sistemas.


Los costos de implementación incluyen comúnmente el costo remanente de la investigación de sistemas (ara este propósito, los costos en los que ya se ha incurrido no son relevantes), los costos de hardware y software, los costos de operación del sistema para su vida útil esperada, y los costos de mano de obra, material, energía, reparaciones y mantenimiento. A través del análisis de costo/beneficio, la organización debe apoyarse en los conceptos tradicionales de análisis financiero y las herramientas como teoría del valor presente, análisis de costos diferenciales y análisis de flujos descontados.

Algunos costos y beneficios pueden cuantificarse fácilmente. Los beneficios que pueden cuantificarse con facilidad son de dos tipos generales: Ahorros en costos, tales como una disminución en costos de operación y aumentos en las utilidades directas. Como un ejemplo de lo último, un cliente podría haber contratado la suministración de pedidos de una cantidad conocida si la organización implanta un sistema que información que proporcione al cliente información continua acerca del estado de la producción en proceso de los embarques planeados de mercancía, de tal forma que a los clientes de dicho cliente pueda dárseles estimaciones exactas de cuándo estará disponible la mercancía.

Un problema importante con el análisis de costos/beneficio es la atención inadecuada de costos y beneficios intangibles. Éstos son aspectos de las alternativas de los nuevos sistemas que sí afectan los costos y utilidades y deberían evaluarse pero que los afectan en formas que no pueden cuantificarse fácilmente. Los factores intangibles con frecuencia están relacionados a la calidad de la información proporcionada por el sistema y a veces a formas sutiles en que esta información afecta a la empresa, tal como alternando las actitudes para que la información sea vista como un recurso.


Con frecuencia los diseñadores de sistemas no están a gusto basando sus recomendaciones en intangibles "vagos" que deben estimarse en forma contraria a lo que se llama "hechos Duros" de costos y beneficios fácilmente cuantificables; prefieren justificar sus recomendaciones con datos determinados objetivamente. Cuando se da mayor importancia a los costos y beneficios cuantificables que a los costos y beneficios intangibles, quizá haya una desviación contra el nuevo sistema por que la mayoría de los costos pueden cuantificarse de manera fácil, mientras muchos de los beneficios más importantes pueden ser intangibles y por lo tanto no se consideran correctamente.

Dos beneficios intangibles son el servicio a clientes y mejor información administrativa. Por ejemplo, los clientes pueden recibir información puntual y exacta acerca de los envíos, estados y otros informes más exactos, y nuevos servicios. Los cajeros electrónicos en los bancos que permiten a los clientes realizar operaciones 24 horas al día y que pueden resultar en un mayor número de clientes y utilidades para el banco, son un ejemplo de un servicio al cliente. Además, un nuevo sistema puede proporcionar una mejor imagen de la organización a sus clientes, vendedores, y empleados, que ayuda a atraer más clientes a que ayuda a retener a los empleados.

Los beneficios intangibles importantes pueden ser adquiridos de un nuevo sistema de información. Es cierto que el principal ímpetu al desarrollar un nuevo sistema puede ser la expectativa de información más exacta y a tiempo, un mejor formato de los informes, o informes que estén más enfocados a áreas particulares de problemas. Por ejemplo, los informes pueden recibirse más pronto después del cierre del periodo, o el nuevo sistema puede hacer que la información esté disponible con base en preguntas durante todo el tiempo. Además en muchos casos el nuevo sistema proporciona información que antes no estaba disponible, como información de los costos estándares o incrementos en los costos.

También pude haber menos beneficios intangibles obvios. Un nuevo sistema puede proporcionar mejor control sobre las operaciones de la organización, o puede ser que la auditoría sea más rápida o a un costo menor. Un beneficio intangible final es que la experiencia obtenida de la investigación de sistemas y del uso de un sistema de información más avanzado a menudo coloca a la organización en una mejor posición para tomar ventajas de desarrollos futuros en tecnología de computación y sistemas de información. Por ejemplo, es posible que la experiencia obtenida del desarrollo de una base de datos de personal tenga mucho valor si la organización decide implantar una base de datos financiera; no sólo estará afectando positivamente l diseño de la base de datos financiera, sino que también existirá una reducción en los costos de su desarrollo, que es un ahorro en costos hacia el siguiente proyecto de sistemas que debería considerarse como un beneficio proporcional por el proyecto actual.

La mayoría de los costos y beneficios intangibles de una alternativa afectan en forma indirecta las utilidades, pero esto es difícil de medir. La siguiente es una forma de cuantificar los costos y beneficios intangibles:
1. Identificar las causas y efectos directos. Por ejemplo, el efecto directo de computarizar tareas repetitivas puede ser que un nuevo sistema mejore los trabajos actuales y mejore la moral.
2. Identificar los efectos indirectos. Por ejemplo, una mejor moral puede resultar en cerca de 5% menos ausentismo y un 10% menos en el índice de rotación de empleados.
3. Estimar el impacto económico de los efectos indirectos para la vida estimada del sistema. Por ejemplo, una reducción en los retrasos de la programación y horas extras debidas a la reducción del ausentismo puede ahorrar casi $2,000 al año, y una reducción en los costos de entrenamiento debidos a una reducción en la rotación de los empleados puede ahorrar hasta $3,000 al año. El beneficio total (ahorro en costos) debido a una mejora en los empleos sería entonces $5,000 al año o de $20,000 para una vida estimada de 4 años del sistema.

Esta forma puede usarse para una gran variedad de costos y beneficios intangibles. Aunque arbitraria y subjetiva, es preferible a ignorar los intangibles. Esta forma puede describirse como “hacer tangibles los intangibles”.

Una forma alternativa es dejar sin cuantificar a los intangibles. Después, los usuarios y diseñadores de sistemas los estudian y llegan a un acuerdo acerca de la importancia relativa de lo cuantificado y de los costos y beneficios intangibles. Sin embargo, con frecuencia los costos y beneficios intangibles no se analizan completamente, y no se hace ningún intento para llegar a un acuerdo acerca de su importancia.

Temas De Posibles Proyectos

  • Sistema De Facturación

Este sistema de software se encarga de llevar el control contabilistico de un negocio en general, esto calculando las operaciones de rigor de se llevan en un tipo de negocio.

  • Base de Datos que gestione un Hospital (Escogido)

Este sistema tiene como propósito, manejar y gestionar toda la información del personal médico y paciente del IVSS, con el propósito de agilizar los procesos de búsqueda de información.

  • Base de datos que gestione un Automercado

Este sistema sería un poco más de lo mismo pero enfocado hacia un automercado.


domingo, 25 de mayo de 2008

Lucha por la vanguardia Intel VS Amd

La arena de lucha en el mundo digital se reduce a dos nombres: Intel y AMD. Hace más de 30 años, ambas compañías se disputan la cuota del mercado de microprocesadores para ordenadores de todo tipo.

Si bien hace casi una década, los expertos en tecnología, destacaron la capacidad de innovación de los productos de AMD, en las ventas no se vislumbran aumentos para la empresa, ya que Intel sigue a la cabeza con un poco más del 80% de la cuota de mercado, mientras que AMD llega apenas al 16% del total.

En la última década, Intel parece haberse quedado con mínimas innovaciones en sus versiones de Pentium 4, pero el ardid que la mantiene como la líder del mercado está en su agresiva campaña de ventas y mercadotecnia. Para este nuevo año, Intel lanzará nuevos descuentos en Pentium D 900 (entre el 10% y el 20%), y Pentium 4 (entre el 10% y el 70%) y Core 2 Duo.

Además se prevé una demanda por parte AMD, acusándola de prácticas monopólicas, ya que según dicen, Intel aprovecha su posición dominante en el mercado mundial de microprocesadores para castigar a aquellos fabricantes de ordenadores que llegan a utilizar más de un 20% de chips de AMD en sus productos.

Lo cierto es que la guerra aún no se ha definido y bien vale un tanto de historia de ambas empresas para conocer qué nos espera en materia de microprocesadores y computadoras en este nuevo milenio.

El poder de Intel Inside

Desde la década del 90, la gran mayoría de los ordenadores personales tiene en su gabinete un sticker con la leyenda “Intel Inside”, el famoso spot de la empresa que nos anuncia su liderazgo en el mercado de procesadores.

Lo cierto es que Intel Corporation es una empresa multinacional que fabrica microprocesadores y circuitos integrados especializados, como circuitos integrados auxiliares para placas base de ordenador y otros dispositivos electrónicos.

Nació en 1968, bajo el mando de Gordon E. Moore y Robert Noyce y un grupo de 12 trabajadores. En 1971, llegó el primer microprocesador de Intel, el Intel 4004, que fue creado para facilitar el diseño de la calculadora programable de una empresa japonesa, llamada Busicom.

El ingeniero Ted Hoff, uno de los doce científicos de Intel, diseñó un chip con una memoria que podía hacer varias acciones, padre del microprocesador. Este primer empuje tecnológico, los llevó al microprocesador 4004, que estaba compuesto por cuatro de estos chips y otros dos chips de memoria.

Este conjunto de 2.300 transistores, que ejecutaba 60.000 operaciones por segundo, se puso a la venta por 200 dólares. Más que rápido, Intel puso a la venta el 8008, capaz de procesar el doble de datos, inundando los aparatos de aeropuertos, restaurantes, salones recreativos, hospitales, gasolineras.

Para mediados de la década del 70, a Intel le propusieron incluir un teclado y monitor al chip 8008, permitiéndoles incursionar en el mundo de las computadoras personales, pero los directivos rechazaron la propuesta, marcando así su destino de productores de microprocesadores.

Para principios del ´80 vino la primera Personal Computer de mano de IBM, con procesador 8088, con un chip de 8 bits trabajando a 4,77 MHz.

Del 8088 salieron, en los años siguientes, el 80286 y el 80386, que luego serían conocidos como los “286” y “386”. Recuerdo cuando mi padre, allá por 1987, vino a casa con su nuevo juguete: una XT 286, con monitor monocromo y que corría DOS, todo un lujo para época en Latinoamérica.

A partir de estos dos microprocesadores de 32 bits, el camino de innovaciones de la casa Intel fue vertiginoso, hasta que en la década del 90 llegaron a la flamante línea de Pentium. Como decíamos antes, Intel lidera el mercado de ventas y ofrece a los consumidores los siguientes productos:

  • Procesador Intel® Core™2 Quad Q6600
  • Procesador Intel® Core™2 Extreme
  • Procesador Intel® Core™2 Quad
  • Procesador Intel® Pentium® Extreme Edition
  • Procesador Intel® Pentium® D
  • Procesador Intel® Pentium® 4 Extreme Edition compatible con la tecnología Hyper-Threading
  • Procesador Intel® Celeron® D
  • Procesador Intel® Core™2 Duo para equipos portátiles
  • Procesador Celeron® M 450
  • Procesador Intel® Celeron® M
  • Procesador Intel® Pentium® M 780
  • Procesador Intel® Pentium® M
  • Procesador Intel® Pentium® 4 para equipos portátiles compatible con la tecnología Hyper-Threading

Además, a lo largo de estos 30 años, ha sido el principal proveedor de procesadores para Compaq y Dell. En junio de 2005 Intel firmó un acuerdo con Apple Computer, por el cual proveerá procesadores para los ordenadores Apple.

Fue así como para el 2006, los nuevos modelos de Apple, tanto para escritorio como portátiles, llevan un cerebro de Intel Core Duo.

La sombra de AMD

De alguna forma, Advanced Micro Devices, Inc, más conocida como AMD, se mantuvo a la sombra de los microprocesadores de Intel.

La compañía nació un año después que Intel, en 1969, lo que la convierte en la segunda compañía mundial productora de microprocesadores x86-compatibles y uno de los más importantes fabricantes de gpu’s, chipsets y otros dispositivos semiconductores.

Actualmente la empresa atraviesa el proceso de reestructuración, iniciado en el 2006, y lanzó al mercado el primer procesador de 64 bits, ganando en tecnología a Intel.

AMD es un empresa con un perfil mucho más bajo que Intel, que si bien no ha invertido millones en mercadotecnia y publicidad, se destaca por “adoptar un compromiso hacia una innovación auténticamente útil para los clientes, anteponiendo las verdaderas necesidades de las personas a la elaboración técnica”, según palabras de Jerry Sanders, fundador de AMD.

Durante mucho tiempo AMD trabajó en la fabricación de sus procesadores un tanto a la sombra de la creación de Intel, ya que copiaba el microcódigo de los 8088 y 8086. Desde 1986 el acuerdo para fabricación y compartimiento de información sobre los microprocesadores de tecnología Intel se rompió, dando paso a una serie de demandas en la que AMD exigía a Intel cumplir con el trato.

Recién en 1999, AMD lanza al mercado su primer microprocesador, el K5, en una clara alusión a la Kryptonite, el único material posible de vencer al Superman de Intel. Pero deberían pasar muchos años y la compra de tecnología de empresas como Geode, ATI y NexGen, para igualar la compatibilidad y los buenos precios de los procesadores de Intel.

En la historia de AMD hubo muchas innovaciones y cambios para ese primer procesador K5, se puede decir que fue una de las empresas que más invirtió en investigaciones y desarrollo de la industria del microprocesador. Hoy ofrece un abanico de soluciones en todos los ramos de microprocesadores, tarjetas de video y chipsets. Además es el mayor productor mundial de chips para TV, consolas y celulares en el mundo.

Mejorada la arquitectura del K7, el nuevo procesador Athlon 64 FX, el primero del mundo de 64 bits para PC compatible con Windows, ofrece las mayores prestaciones en 32 bits para las aplicaciones de hoy en día y la potencia de 64 bits para la siguiente generación de software; este chip sin duda incrementará la competencia con Intel.

Cuentan los que saben, que AMD se viene con varios proyectos en este nuevo milenio, uno de ellos se llama Fusión, que consiste en implantar las capacidades de las gpu’s en el mismo chip de silicio que los microprocesadores y así dotarlos de poder extra en aplicaciones de gráficos.

Otra de las grandes apuestas de la compañía se verá en lo que llaman la Iniciativa 50X15, una cruzada para que la mitad de la población cuente con la capacidad de conectarse a Internet para el 2015; esto se lograría a través de concursos entre universidades de varios países donde se desarrollan las mejores soluciones para cada región del planeta basadas en la tecnología de AMD.

Entre los productos que hoy ofrece ADM se encuentran:

  • Procesador AMD Athlon™ 64 FX
  • Procesador AMD Athlon™ 64 X2 de doble núcleo para ordenadores de escritorio
  • Procesador AMD Athlon™ 64 para equipos de sobremesa
  • Tecnología Mobile AMD Turion™ 64
  • Tecnología Mobile AMD Turion™ 64 X2 de doble núcleo
  • AMD64 Dual-Core

Luego de un franco liderazgo de Intel, las proyecciones para el 2007, dicen que por fin este año será el de AMD con los microprocesadores Rev G, de 65 nanómetros frente a los de 45 de Intel.

Las sorpresas para el mundo de los microprocesadores están a la vista del cliente, y la lucha por el mercado, es una agonal imparable entre ambas empresas. Quedará en manos de los gurú de los videojuegos la prueba de rendimiento de los procesadores de AMD e Intel, así como la poderosa cuota de confianza que el mercado depare para cada compañía.

Alternativa en Sistemas Operativos

UBUNTU LINUX

Es una distribución Linux que ofrece un sistema operativo predominantemente enfocado a computadoras de escritorio aunque también proporciona soporte para servidores.

Basada en Debian GNU/Linux, Ubuntu concentra su objetivo en la facilidad y libertad de uso, los lanzamientos regulares (cada 6 meses -las .04 en abril, y, las .10 en octubre-) y la facilidad en la instalación. Ubuntu es patrocinado por Canonical Ltd., una empresa privada fundada y financiada por el empresario sudafricano Mark Shuttleworth.

El nombre de la distribución proviene del concepto zulú y xhosa de ubuntu, que significa "humanidad hacia otros" o "yo soy porque nosotros somos". Ubuntu es un movimiento sudafricano encabezado por el obispo Desmond Tutu, quien ganó el Premio Nobel de la Paz en 1984 por sus luchas en contra del Apartheid en Sudáfrica. El sudafricano Mark Shuttleworth, mecenas del proyecto, se encontraba muy familiarizado con la corriente. Tras ver similitudes entre los ideales de los proyectos GNU, Debian y en general con el movimiento del software libre, decidió aprovechar la ocasión para difundir los ideales de Ubuntu. El eslogan de Ubuntu – “Linux para seres humanos” (en inglés "Linux for Human Beings") – resume una de sus metas principales: hacer de Linux un sistema operativo más accesible y fácil de usar.

La versión más reciente la versión 8.04 fue lanzada para pre-órdenes desde su web el 21 de abril del 2008, para ser entregadas en aproximadamente 3 semanas despues de su salida.


REQUISITOS PARA PODER INSTALAR UBUNTU

Mucha gente instala ubuntnu en ordenadores viejos debido a que nunca probaron ubuntu y no se quieren arriesgar a probarlo en el nuevo. Yo recomiendo que cuando instales ubuntu si utilizamos ordenadores poco potentes utilizar el escritorio Xubuntu debido a que consume algunos requisitos menos que Ubuntu y Kubuntu, los requisitos para estes dos son:
Mínimos

* Procesador Intel™ o compatible a 200 Mhz
* 256 Mb de RAM
* Tarjeta SVGA
* 3 Gib de espacio libre en el disco duro

Recomendados

* Procesador Intel™ o compatible a 1 Ghz
* 512 Mb de RAM
* Aceleradora gráfica 3D compatible con OpenGL




La Ingeniería De Sistemas De La Actualidad

La Ingeniería de Sistemas se ha popularizado como una disciplina que pone especial énfasis en la aplicación de las nuevas técnicas de investigación de operaciones. Estas utilizan modelos matemáticos que describen las interacciones entre los componentes del sistema. Tradicionalmente muchas disciplinas han utilizado modelos físicos en experimentos de laboratorio para estudiar el comportamiento de sistemas reales y las características de varios fenómenos físicos. Sin embargo, los modelos físicos de sistemas complejos, tales como la organización de una empresa multinacional, son demasiado caros y difíciles de construir. Los modelos matemáticos son más flexibles y pueden estar bastante apegados a la realidad. En general, cualquier modelo no es más que la representación de la realidad y por consiguiente no incluye todos los aspectos del problema analizado. Sin embargo, un modelo presenta una descripción más concisa del problema y enfatiza los aspectos más importantes del mismo.

En general, la Ingeniería de Sistemas es entonces una forma de resolver problemas. La solución es un modelo del sistema, una serie de especificaciones para idear, diseñar e implementar el sistema. En ocasiones la solución es la óptima cuando se considera que satisface un "objetivo" de la mejor forma posible; i.e., óptimamente. Por ejemplo, en un modelo de planeación industrial, una solución óptima podría ser la minimización de costos o la maximización de beneficios, según sea el objetivo deseado. Sin embargo, muchas veces, en problemas complejos existen tantas alternativas o buenas soluciones que quizá es imposible evaluar todas ellas para encontrar la mejor u óptima. En estos casos, la estrategia de la Ingeniería de Sistemas es buscar un compromiso entre la "optimalidad" de la solución y el costo de su obtención.

En la actualidad existen dos tendencias filosóficas dentro de la Ingeniería de Sistemas.

Un grupo tiende a enfatizar técnicas matemáticas y analíticas en general, con especial atención en una o dos de las etapas del ciclo de vida del sistema. Este grupo se encarga principalmente del desarrollo de técnicas matemáticas y analíticas, con especial énfasis en algoritmos; generalmente se les atribuye el título de "científicos en sistemas".

El segundo grupo es más heterogéneo, y tiende a considerar los aspectos cualitativos del problema, con igual interés en todas las etapas de la metodología. Este grupo incluye desde "filósofos de sistemas" hasta "Ingenieros de Sistemas", con una educación balanceada en técnicas cuantitativas, modelos, ciencias de la computación, planificación, etc.