Upload
others
View
13
Download
0
Embed Size (px)
Citation preview
Capitulo II
12
6.- ANTECEDENTES DE LA INVESTIGACION.
Con respecto a las variables de estudio las cuales se encuentran
dentro de este proyecto, se han realizado algunas investigaciones. Es decir,
dado el procedimiento de búsqueda y recolección de datos se determinó que
a nivel nacional Shell Venezuela sería la primera empresa en cubrir un
proyecto de esta envergadura. Al utilizar las aplicaciones de FieldView y Oil
Field Manager (OFM), para realizar de una manera totalmente diferente y
revolucionaria el control estadístico de la producción petrolera proveniente
del Campo Urdaneta Oeste.
Cabe destacar, la investigación realizada por DELGADO, (1999 -
2000) titulada “Software para automatizar las operaciones de producción
y servicio a pozos petroleros”, consideró que dado el ambiente cambiante
y aumento de la complejidad de los sistemas se han incrementado las
necesidades de información por parte de los gerentes. La toma de
decisiones, un paso que conduce a la acción, se basa en la información.
Por tanto, esta puede definirse como datos organizados los cuales
reducen la incertidumbre en el momento de tomar decisiones. En este
sentido el Software, es un producto innovador a nivel de Shell Venezuela
S.A., tiene como objetivo principal el incrementar y afirmar las fortalezas
existentes en los diferentes procesos de petróleo y gas en el campo, con una
Capitulo II
13
alta capacidad de respuesta y así ser más flexible y compatible
operacionalmente.
Por otra parte, la investigación realizada por el Lic. En Computación
FERNÁNDEZ, Ramón (1998) titulada “Implantación de E & P Production
Ops Managment System (EPPROMS) para el control de la producción
petrolera en el Campo Urdaneta Oeste ”, consideró que los sistemas
automatizados garantizan la integridad de los datos, y a su vez tienen como
objetivo principal la transformación de los datos en información fácil de
entender y utilizar, señala también que la importancia de un sistema para el
control estadístico radica fundamentalmente en la automatización de
actividades rutinarias y obtención de resultados precisos y oportunos, donde
la información generada es confiable y fácil de obtener.
A su vez el proyecto investigativo realizado por el ING. HERNÁNDEZ
Albenis de Jesús titulado (2000) Desarrollo de un Sistema con Tecnología
“SPREAD SPECTRUM” que permita comunicar estaciones de flujo y sus
múltiples asociados en el Lago de Maracaibo, proyecto el cual consideró
como metodología para su investigación la correspondiente a desarrollo de
prototipos constando el mismo de cinco fases en donde en la primera se
describe la situación actual de las estaciones de flujo, en la segunda se
determinan los requerimientos básicos para los sistemas; en la tercera se
realiza un estudio técnico, económico y operacional de varias alternativas, en
la cuarta se procede con los cálculos y realización del diseño y por ultimo la
Capitulo II
14
quinta fase en la cual se realizan las pruebas piloto del sistema. Razón por
la cual dicha investigación fue seleccionada como antecendente del presente
proyecto de grado debido al aporte brindado en cuanto a la parte
metodológica por presentar similitud con respecto a la metodología a
emplear para efectos de la investigación.
Entre otros antecedentes se encuentra el siguiente por el ING.
SCHUART Jason (1999 L.A. University), Titulado Diseño e implantación de
un Sistema de Control Estadístico autónomo. El cual consideró que los
sistemas de control garantizan de manera eficiente y definitiva la veracidad y
confiabilidad de datos sin la necesidad de estimar un porcentaje de error en
cuanto a las operaciones realizadas en dicho sistema. Dicha Investigación
proporcionó datos importantes para efectos de este proyecto de
Investigación en el área de control estadístico.
Shell Venezuela S.A., tiene como aspiraciones realizar un proyecto el
cual permita automatizar el control estadístico de su producción petrolera con
las premisas en donde el mismo culmine de manera exitosa para el
constante mejoramiento en cuanto a tecnología se refiere dentro de la
Empresa mediante la utilización de nuevas herramientas de forma integrada.
Capitulo II
15
7.- FUNDAMENTACION TEORICA
7.1.- Tipos de Redes
Una red según el autor John Taylor (1999, http://nti.educa.rcanaria.es)
es un grupo de computadores interconectados entre si para compartir
archivos, datos, etc. Dichas redes tiene diversas clasificaciones entre las
cuales las podemos clasificar según su Extensión comenzando por las
Redes de Área Local (LAN) la cual es un sistema de interconexión de
equipos informáticos basado en líneas de alta velocidad (decenas o cientos
de megabits por segundo) y suele abarcar, como mucho, un edificio.
Las principales tecnologías usadas en una LAN son: Ethernet, Token
Ring, ARCNET y FDI.
Un caso típico de LAN según el autor antes mencionado, es en la que
existe un equipo servidor de LAN desde el cual los usuarios cargan las
aplicaciones y estas se ejecutarán en sus estaciones de trabajo.
Los usuarios pueden también solicitar tareas de impresión y otros
servicios los cuales están disponibles mediante aplicaciones ejecutables en
el servidor. Además pueden compartir ficheros con otros usuarios. Los
accesos a estos ficheros están controlados por un administrador de la LAN.
A su vez también se encuentran las Redes de Área Metropolitana
(MAN) según el autor antes mecionado, éstas representan un sistema de
Capitulo II
16
interconexión de equipos informáticos distribuidos en una zona que abarca
diversos edificios, por medios pertenecientes a la misma organización
propietaria de los equipos. Este tipo de redes se utiliza normalmente para
interconectar redes de área local.
Asimismo, según el autor John Taylor (1999,
http://nti.educa.rcanaria.es) además de las redes LAN y MAN pueden
encontrase las Redes de Área Extensa (WAN) las cuales representan un
sistema de interconexión de equipos informáticos geográficamente
dispersos, que pueden estar incluso en continentes distintos. El sistema de
conexión para estas redes normalmente involucra a redes públicas de
transmisión de datos.
También se pueden clasificar según su topología, esto se refiere a la
forma en que están interconectados los distintos equipos (nodos) de una red.
Un nodo es un dispositivo activo conectado a la red, como un ordenador o
una impresora. Un nodo también puede ser dispositivo o equipo de la red
como un concentrador, conmutador o un router.
Las topologías más usadas según el autor John Taylor (1999,
http://nti.educa.rcanaria.es), son las siguientes:
Anillo la cual esta distribuida en forma de círculo a través de un
mismo cable. Las señales circulan en un solo sentido por el círculo,
regenerándose en cada nodo. En la práctica, la mayoría de las topologías
Capitulo II
17
lógicas en anillo son en realidad una topología física en estrella. (Ver
Figura 1).
Figura 1. Topología anillo Fuente: http://nti.educa.rcanaria.es/
conocernos_mejor/apuntes/paginas/topolog.htm ( 2000)
Por otra parte la topología Bus consiste en que los nodos se unen en
serie con cada nodo conectado a un cable largo o bus, formando un único
segmento A diferencia del anillo, el bus es pasivo, no se produce
regeneración de las señales en cada nodo. Una rotura en cualquier parte del
cable causará, normalmente, que el segmento entero pase a ser inoperable
hasta que la rotura sea reparada. Como ejemplos de topología de bus se
tiene 10BASE-2 y 10BASE-5. (Ver Figura 2).
Capitulo II
18
Figura 2. Topología Bus Fuente:
http://nti.educa.rcanaria.es/conocernos_mejor/apuntes/paginas/topolog.htm
(2000).
Seguidamente se presenta la topología Estrella lo más usual en ésta
es que en un extremo del segmento se sitúe un nodo y el otro extremo se
termine en una situación central con un concentrador. La principal ventaja de
este tipo de red es la fiabilidad, dado que si uno de los segmentos tiene una
rotura, afectará sólo al nodo conectado en él. Otros usuarios de los
ordenadores de la red continuarán operando como si ese segmento no
existiera. 10BASE-T Ethernet y Fast Ethernet son ejemplos de esta
topología. (Ver Figura 3)
Capitulo II
19
Figura 3. Topología Estrella Fuente: http://nti.educa.rcanaria.es
/conocernos_mejor/apuntes/paginas/topolog.htm (2000).
A la interconexión de varias subredes en estrella se le conoce con el
nombre de topología en árbol.
Figura 4. Topología árbol. Fuente: http://nti.educa.rcanaria.es
/conocernos_mejor/apuntes/paginas/topolog.htm (2000)
Toda la información concerniente a las diferentes tipos de redes fue
suministrada por la Universidad de Canarias por medio de su página
Capitulo II
20
electrónica. (página web. Universidad de Canarias.
www.nti.educa.rcanarias.es , Junio 2000).
7.2.- Protocolos a Nivel de Red
Según la Universidad de Yale el autor R. SpHyDir en su página
electrónica (www.yale.edu/pclt/COMM/TCPIP.htm ) éstos protocolos se
encargan de controlar los mecanismos de transferencia de datos.
Normalmente son invisibles para el usuario y operan por debajo de la
superficie del sistema. Dentro de estos protocolos tenemos:
TCP. Controla la división de la información en unidades individuales
de datos (llamadas paquetes) para que estos paquetes sean encaminados
de la forma más eficiente hacia su punto de destino. En dicho punto, TCP se
encargará de reensamblar dichos paquetes para reconstruir el fichero o
mensaje que se envió. Por ejemplo, cuando se nos envía un fichero HTML
desde un servidor Web, el protocolo de control de transmisión en ese
servidor divide el fichero en uno o más paquetes, numera dichos paquetes y
se los pasa al protocolo IP. Aunque cada paquete tenga la misma dirección
IP de destino, puede seguir una ruta diferente a través de la red. Del otro
lado (el programa cliente en nuestro ordenador), TCP reconstruye los
paquetes individuales y espera hasta que hayan llegado todos para
presentárnoslos como un solo fichero.
Capitulo II
21
Asimismo, el autor antes mencionado dice que el IP por su parte se
encarga de repartir los paquetes de información enviados entre el ordenador
local y los ordenadores remotos. Esto lo hace etiquetando los paquetes con
una serie de información, entre la que cabe destacar las direcciones IP de los
dos ordenadores. Basándose en esta información, IP garantiza que los datos
se encaminarán al destino correcto. Los paquetes recorrerán la red hasta su
destino (que puede estar en el otro extremo del planeta) por el camino más
corto posible gracias a unos dispositivos denominados encaminadores o
routers.
TCP/IP (Fuente Universidad de Yale. Autor: R. SpHyDir)
Según el autor antes mencionado de la Universidad de Yale el TCP/IP
es realmente un conjunto de protocolos, donde los más conocidos son TCP
(Transmission Control Protocol o protocolo de control de transmisión) e IP
(Internet Protocol o protocolo Internet). Dicha conjunto o familia de protocolos
es el que se utiliza en Internet.
Internet es un conglomerado muy amplio y extenso en el que se
encuentran ordenadores con sistemas operativos incompatibles, redes más
pequeñas y distintos servicios con su propio conjunto de protocolos para la
comunicación. Ante tanta diversidad resulta necesario establecer un conjunto
de reglas comunes para la comunicación entre estos diferentes elementos y
Capitulo II
22
que además optimice la utilización de recursos tan distantes. Este papel lo
tiene el protocolo TCP/IP. TCP/IP también puede usarse como protocolo de
comunicación en las redes privadas intranet y extranet.
Las siglas TCP/IP se refieren a dos protocolos de red, que son
Transmission Control Protocol (Protocolo de Control de Transmisión) e
Internet Protocol (Protocolo de Internet) respectivamente. Estos protocolos
pertenecen a un conjunto mayor de protocolos. Dicho conjunto se denomina
suite TCP/IP.
Los diferentes protocolos de la suite TCP/IP trabajan conjuntamente
para proporcionar el transporte de datos dentro de Internet (o Intranet). En
otras palabras, hacen posible que accedamos a los distintos servicios de la
Red. Estos servicios incluyen, como se comento en el capítulo 1: transmisión
de correo electrónico, transferencia de ficheros, grupos de noticias, acceso a
la World Wide Web, etc.
Hay dos clases de protocolos dentro de la suite TCP/IP que son:
protocolos a nivel de red y protocolos a nivel de aplicación.
7.3.- Protocolos a Nivel de Aplicación. (Fuente Universidad de
Yale. Autor: R. SpHyDir)
Según el autor R. SpHyDir menciona que Protocolos vinculados a
nivel de aplicación son aquellos asociados a distintos servicios de Internet,
como FTP, Telnet, Gopher, HTTP, etc. Estos protocolos son visibles para el
Capitulo II
23
usuario en alguna medida. Por ejemplo, el protocolo FTP (File Transfer
Protocol) es visible para el usuario. El usuario solicita una conexión a otro
ordenador para transferir un fichero, la conexión se establece, y comienza la
transferencia. Durante dicha transferencia, es visible parte del intercambio
entre la máquina del usuario y la máquina remota (mensajes de error y de
estado de la transferencia, como por ejemplo cuantos bytes del fichero se
han transferido en un momento dado).
7.4.- Bases De Datos
Según información extraída de página electrónica (www.itlp.edu.mx
Fuente: desconocida), las bases de datos como fuente central de datos
significativos pueden clasificarse en varios tipos:
q Jerárquicos.
q En red.
q Relaciónales.
q Orientados a objetos.
Hoy día los más utilizados son los gestores de bases de datos
relaciónales. Para efectos de esta investigación se analizarán las bases de
datos relacionales.
Capitulo II
24
Una base de datos Relacional según Kendall y Kendall (1991) es una
fuente central de datos significativos, los cuales son compartidos por
numerosos usuarios para diversas aplicaciones. Su esencia es el Sistema
Administrador de la Base de Datos (DBMS: Data Base Management
System), el cual permite la creación, modificación y actualización de la
misma, recuperación de los datos y la emisión de reportes.
En el mismo orden de ideas, R. Pressman (1992), define Base de
datos como una colección grande y organizada de información, la cual se
accede mediante el software y que es una parte integral del funcionamiento
del sistema.
No obstante, que puedan desarrollarse sistemas de procesamiento de
archivo e incluso manejadores de bases de datos basándose en la
experiencia del equipo de desarrollo de software logrando resultados
altamente aceptables, siempre es recomendable la recomendación de
determinados estándares de diseño de esta forma éstos garantizan el nivel
de eficiencia mas alto en lo que se refiere a almacenamiento y recuperación
de la información. De igual manera se obtiene modelos los cuales optimizan
el aprovechamiento secundario y la sencillez y flexibilidad en las consultas
que pueden proporcionarse al usuario.
Según el autor antes expuesto, las bases de datos presentan las
siguientes características:
Capitulo II
25
q Están formadas por una serie de archivos que permiten la variación
entre los registros internos de la misma.
q Admiten la independencia de los archivos de programas y datos,
para facilitar la actualización y mantenimiento de la Base de Datos.
q Son diccionarios de datos, donde se almacena la información.
q Representan una memoria de acceso directo a gran escala para
obtener los datos y el DBMS.
q Programas de comunicaciones los cuales permiten que varios
usuarios tengan acceso a la Base de Datos simultáneamente.
q Es un lenguaje de consulta el cual permita cuestionamientos fáciles
en línea, así como la actualización de registros con la base a cada
transacción efectuada.
q Conlleva a la integración de los archivos de funciones cruzadas
para que los registros que antes hubieran estado en archivos
completamente independientes puedan asociarse y procesarse juntos
automáticamente.
q Son estándares comunes en todo el sistema con respecto a las
definiciones de los datos, formatos de registros, etc.
q Presentan técnicas depuradas de respaldo y recuperación para
permitir la construcción de archivos de las Bases de Datos si pierden o se
destruyen.
Capitulo II
26
Según los autores Kendall y Kendall (1991), el Objetivo de las Bases
de Datos es el almacenamiento computarizado en poco espacio y su gran
rapidez para la búsqueda de información.
Entre las metas más importantes que se persiguen al diseñar un
modelo de bases de datos, se encuentran las siguientes:
q Disminuir la redundancia de datos.
q Eliminar la inconsistencia entre datos redundantes.
q Compartir datos entre múltiples usuarios.
q Establecer estándares y procedimientos.
q Establecer normas de seguridad.
q Proteger la integridad de los datos.
q Independizar los programas de estructuras de datos.
q Acceso Eficiente a la información. (Fácil y rápido) con redundancia.
q Diseño de esquemas con la FORMA NORMAL.
q Información adicional.
q Especificación de las limitantes (Dependencias Funcionales).
Bases de Datos poseen un sistema de gestión (gestor de bases de
datos): un programa que sirve para gestionar bases de datos.
Funciones mínimas:
q Formularios: para añadir, modificar y mostrar los datos.
q Informes: para presentar datos cuidando la apariencia.
Capitulo II
27
q Consultas: para realizar preguntas y acciones. Hay acciones de
selección (visualizar, resumir, seleccionar) y de acción (añadir, actualizar,
eliminar).
Para efectos de la investigación se utilizará el manejador de base de
datos relacional Oracle versión 7.3.4 o superior.
Según información suministrada por los autores George Koch y Kenvin
Loney (1991) El manejador de Base de Datos Oracle posee una estructura la
cual esta conformada de la siguiente manera:
q Instancias: La base datos es el componente básico de Oracle
RDBMS. Para que una base de datos pueda ser utilizada debe ser conectada
a una instancia. Ésta comprime los procesos los cuales serán manejados por
la base de datos. Es posible conectar a una base datos en mas de una
instancia pero esto es raramente usado, es por ello los términos de instancia
y base de datos son efectivamente sinónimos. Una instancia se identifica por
un nombre que puede ser mayor de cuatro caracteres y se conoce como
Identificador del sistema (System Identifier SID).
q TableSpaces: Una base de datos Oracle se divide internamente en
áreas lógicas separadas conocidas como tablespace existen cinco tipos de
TableSpaces en Oracle Versión 7.3.4 (Utilizado por Shell Venezuela S.A.):
SYSTEM , RBS, TEMP TOOLS y USER.
Capitulo II
28
q Objetos de la Base de Datos: Oracle se interactúa vinculado a una
Base de Datos como lo son sus tablas, las vistas y los índices, Estos
conforman lo que se denomina Objetos de la Base de Datos. Cada objeto
posee en Oracle un identificador de usuario (User ID).
7.5.- Sistemas De Control Estadísticos.
Según el autor R. SpHyDir de la Universidad de Yale , los sistemas de
control estadísticos se refieren, a la aplicación o a las aplicaciones de los
principios de control de todo el funcionamiento de una organización,
presentando los siguientes propósitos:
q La obtención de información correcta y segura.
q La protección de los activos de la empresa.
q La promoción de la eficiencia en la operación.
q Calculación y recalculación de datos de la empresa.
Aunado a esto, información adicional proveniente de la Universidad
de Yale explica que el control tiene como objetivo cerciorarse de que los
hechos vayan de acuerdo con los planes establecidos, señalar las
Capitulo II
29
debilidades y errores a fin de rectificarlos e impedir que se produzcan
nuevamente, medir lo logrado en relación con el estándar.
Tomando en cuanta las consideraciones del autor antes
mencionado, el control estadístico, es un factor imprescindible para el
logro de los objetivos establecidos en una organización, y para ser
efectivo debe tomar en cuenta con los siguientes aspectos:
q Deberá ajustarse a las necesidades de la empresa y al tipo de
actividad que se desea controlar.
q Relacionarse con la estructura organizativa, al mismo tiempo
reflejar eficacia.
q Manifestar las desviaciones antes de producirse.
q Establecer medidas más sencillas y fáciles de interpretar para
facilitar su aplicación.
q Los datos o informes de los controles deben ser accesibles para
las personas a quienes van a ser dirigidos
q Establecer en áreas de acuerdo con los criterios de valor
estratégico.
Por lo antes expuesto, se determina que el control estadístico es
de vital importancia dentro de una organización, debido a:
Capitulo II
30
q Establece medidas para corregir las actividades especialmente
aquellas realizadas de manera manual, factibles a errores
humanos.
q Determina y analiza las causas potenciales generadoras de
desviaciones, para así realizar tomas de decisiones que permitan
solventar el problema.
q Proporciona información detallada y concisa acerca del
comportamiento de la variable que se tenga en estudio o dentro del
lineamiento de control estadístico.
q Su aplicación incide en la racionalización de la administración
consecuentemente en el logro de la productividad de todos los
recursos de la empresa.
Siguiendo este orden de ideas, los sistemas de control estadísticos
permiten la optimización del trabajo, a su vez, además de permitir la
optimización dentro de un área de trabajo también agilizar la toma de
decisiones concernientes a administración de activos de una empresa en
este proyecto investigación se enfoca hacia el área de producción
petrolera.
Capitulo II
31
7.6.- Interfaces de Usuario.
Según el autor Michael Darnell (1998) una interfaz de usuario es un
conjunto de elementos a través de los cuales un usuario interactúa con un
objeto que realiza una tarea determinada. Ejemplos: televisor, teléfono,
coche, despertador, puerta.
El ser humano está continuamente interactuando con los objetos que
le rodean, y tiene unas expectativas sobre cómo éstos deben comportarse,
basada en pasadas experiencias con estos objetos u otros similares. Si la
interfaz está bien diseñada, el usuario encontrará la respuesta que espera a
su acción; si no es así, puede ser frustrante para el usuario, que
habitualmente tiende a culparse a sí mismo por no saber usar el objeto.
En muchas ocasiones se trata de objetos mal diseñados, donde suele
primar la estética sobre la usabilidad, cuyas indicaciones de uso son
confusas, o no se considera la predisposición de los usuarios.
Cuando se diseña un objeto es preciso pensar en quiénes van a
utilizar dicho objeto, y qué expectativas van a tener sobre su forma de uso,
tanto si son objetos conocidos (el usuario espera que se comporte de una
forma determinada) como si se trata de objetos novedosos (el usuario trata
de asociarlos a los que conoce).
En cambio de una Interfaz de usuario de un programa es un conjunto
de elementos hardware y software de un ordenador que presentan
Capitulo II
32
información al usuario y le permiten interactuar con la información y con el
ordenador.
La interfaz incluye el hardware que forma el sistema, como el teclado,
un dispositivo apuntador tal como un ratón, joystick o trackball, la CPU y el
monitor.
Según el autor antes mencionado, Los componentes software son los
elementos que el usuario ve, oye, a los que apunta o toca en la pantalla para
interactuar con el ordenador, así como la información con la que trabaja.
También se puede considerar parte de la interfaz la documentación
(manuales, ayuda, referencia, tutoriales) que acompaña al hardware y al
software.
El diseño de una interfaz es fundamental para el éxito de un
programa. Un buen programa con una pobre interfaz tendrá una mala
imagen, y al contrario, una buena interfaz puede realzar un programa
mediocre.
Los objetivos de los usuarios son muy variables; incluso un usuario
puede cambiar su objetivo cuando realiza una misma tarea.
Los programas son usados por usuarios con distintos niveles de
conocimientos (desde novatos hasta expertos). Así pues, no existe una
interfaz válida para todos los usuarios y todas las tareas. Debe permitirse
libertad al usuario para que elija el modo de interacción que más se adecue a
Capitulo II
33
sus objetivos en cada momento. La mayoría de los programas y sistemas
operativos ofrecen varias formas de interacción al usuario.
Existen tres puntos de vista distintos en una interfaz de usuario: el del
usuario, el del programador y el del diseñador (analogía de la construcción
de una casa). Cada uno tiene un modelo mental propio de la interfaz, que
contiene los conceptos y expectativas acerca de la interfaz, desarrollados a
través de su experiencia.
El modelo permite, entre otras cosas, explicar o predecir
comportamientos del sistema y tomar las decisiones adecuadas para
modificar el mismo. Según el autor Michael Darnell (1998), los modelos
subyacen en la interacción con los ordenadores, de ahí su importancia.
q Modelo del usuario. El usuario tiene su visión personal del sistema, y
espera que éste se comporte de una cierta forma, que se puede conocer
estudiando al usuario (realizando tests de usabilidad, entrevistas, o a través
de una realimentación). Una interfaz debe facilitar el proceso de crear un
modelo mental efectivo.
q Modelo del programador. Es el más fácil de visualizar, al poderse
especificar formalmente. Está constituido por los objetos que manipula el
programador, distintos de los que trata el usuario (ejemplo: base de datos -
agenda telefónica). Estos objetos deben esconderse del usuario.
Capitulo II
34
q Los conocimientos del programador incluyen la plataforma de
desarrollo, el sistema operativo, las herramientas de desarrollo,
especificaciones. Sin embargo, esto no significa necesariamente que tenga
la habilidad de proporcionar al usuario los modelos y metáforas más
adecuadas. Muchos no consideran el modelo del usuario del programa, y sí
sus propias expectativas acerca de cómo trabaja el ordenador:
q Modelo del diseñador: El modelo del diseñador describe los objetos
que utiliza el usuario, su presentación al mismo y las técnicas de interacción
para su manipulación.
El modelo consta, pues, de tres partes: presentación, interacción y
relaciones entre los objetos.
La presentación es lo que primero capta la atención del usuario, pero
más tarde pasa a un segundo plano, y adquiere más importancia cómo el
producto cumple las expectativas del usuario. La presentación no es lo más
relevante, y un abuso en la misma (por ejemplo, en el color) puede ser
contraproducente, distrayendo al usuario; es el conocido
La segunda parte define las técnicas de interacción del usuario, a
través de diversos dispositivos.
Capitulo II
35
La tercera es la más importante, y es donde el diseñador determina la
metáfora adecuada que encaja con el modelo mental del usuario. El modelo
debe comenzar por esta parte e ir hacia arriba. Una vez definida la metáfora
y los objetos del interfaz, los aspectos visuales saldrán de una manera lógica
y fácil (Ver Figura 5).
Figura 5. el look-and-feel iceberg de IBM (1992)
http://protos.dis.ulpgc.es/docencia/lp/index.html (Consulta Julio del 2000).
Estos modelos deben estar claros para los participantes en el
desarrollo de un producto, de forma que se consiga una interfaz atractiva y a
la vez efectiva para el trabajo con el programa. Una interfaz no es
simplemente una cara bonita; esto puede impresionar a primera vista, pero
Capitulo II
36
decepcionar a la larga. Lo realmente importante es que el programa se
adapte bien al modelo del usuario, cosa que se puede comprobar utilizando
el programa más allá de la primera impresión.
Aspectos de la psicología humana. Al diseñar interfaces de usuario
deben tenerse en cuenta las habilidades cognitivas y de percepción de las
personas, y adaptar el programa a ellas.
Así, una de las cosas más importantes que una interfaz puede hacer
es reducir la dependencia de las personas de su propia memoria, no
forzándoles a recordar cosas innecesariamente (por ejemplo, información
que apareció en una pantalla anterior) o a repetir operaciones ya realizadas
(por ejemplo, introducir un mismo dato repetidas veces).
La persona tiene unas habilidades distintas de la máquina, y ésta
debe utilizar las suyas para soslayar las de aquella (como por ejemplo la
escasa capacidad de la memoria de corto alcance).
La Reglas de oro del diseño de interfaces de usuario son una serie de
principios a seguir en el desarrollo de interfaces de usuario. Son las
siguientes:
Regla 1: Dar control al usuario. El diseñador debe dar al usuario la
posibilidad de hacer su trabajo, en lugar de suponer qué es lo que éste
desea hacer. La interfaz debe ser suficientemente flexible para adaptarse a
las exigencias de los distintos usuarios del programa.
Capitulo II
37
En concreto, se pueden enumerar los siguientes principios que
permiten al usuario estar en posesión del control:
q Usar adecuadamente los modos de trabajo.
q Permitir a los usuarios utilizar el teclado o el ratón.
q Permitir al usuario interrumpir su tarea y continuarla más tarde.
q Utilizar mensajes y textos descriptivos.
q Permitir deshacer las acciones, e informar de su resultado
q Permitir una cómoda navegación dentro del producto y una fácil salida
del mismo.
q Permitir distintos niveles de uso del producto para usuarios con
distintos niveles de experiencia.
q Hacer transparente la interfaz al usuario, que debe tener la impresión
de manipular directamente los objetos con los que está trabajando.
q Permitir al usuario personalizar la interfaz (presentación,
comportamiento e interacción).
q Permitir al usuario manipular directamente los objetos de la interfaz.
Regla 2: Reducir la carga de memoria del usuario. La interfaz debe
evitar que el usuario tenga que almacenar y recordar información. Para ello,
debe seguir los siguientes principios:
Capitulo II
38
q Aliviar la carga de la memoria de corto alcance (permitir deshacer,
copiar y pegar; mantener los últimos datos introducidos).
q Basarse en el reconocimiento antes que en el recuerdo (ejemplo:
elegir de entre una lista en lugar de teclear de nuevo).
q Proporcionar indicaciones visuales de dónde está el usuario, qué está
haciendo y qué puede hacer a continuación
q Proporcionar funciones deshacer, rehacer y acciones por defecto.
q Proporcionar atajos de teclado (iniciales en menús, teclas rápidas).
q Asociar acciones a los objetos (menú contextual).
q Presentar al usuario sólo la información que necesita (menús simples /
avanzados, wizards, asistentes).
q Hacer clara la presentación visual
Regla 3: Consistencia. Permite al usuario utilizar conocimiento
adquirido en otros programas consistentes con el nuevo programa. Ejemplo:
mostrar siempre el mismo mensaje ante un mismo tipo de situación, aunque
se produzca en distintos lugares. Principios:
q Consistencia en la realización de las tareas: proporcionar al usuario
indicaciones sobre el proceso que está siguiendo.
q Consistencia dentro del propio producto y de un producto a otro. La
consistencia se aplica a la presentación (lo que es igual debe aparecer
igual: color del texto estático), el comportamiento (un objeto se
Capitulo II
39
comporta igual en todas partes) y la interacción (los atajos y
operaciones con el ratón se mantienen; el usuario espera los mismos
resultados cuando interactúa de la misma forma con objetos distintos).
q Consistencia en los resultados de las interacciones: misma respuesta
ante la misma acción. Los elementos estándar del interfaz deben
comportarse siempre de la misma forma (las barras de menús
despliegan menús al seleccionarse).
q Consistencia de la apariencia estética (iconos, fuentes, colores,
distribución de pantallas).
q Fomentar la libre exploración de la interfaz, sin miedo a consecuencias
negativas.
Guías de diseño. Los estándares definen las características de los
objetos y sistemas que se usan cada día. Ejemplo: disposición de las teclas
en un teléfono. Existen estándares en muchas industrias, y también en la
informática.
Los principios anteriores no bastan para construir interfaces correctos.
Las guías de diseño de interfaces afectan a la presentación, el
comportamiento y la interacción de los elementos de la interfaz, y son reglas
e indicaciones a seguir en cuanto a la apariencia y comportamiento de estos.
Las guías de diseño abarcan tres áreas del diseño de la interfaz: física
(el hardware de la interfaz; por ejemplo, efecto de los botones de un ratón),
Capitulo II
40
sintáctica (presentación de la información y secuencia y orden de las
acciones del usuario para realizar una tarea, como por ejemplo imprimir) y
semántica (significado de los objetos y acciones, como por ejemplo el de las
palabras Exit y Cancel). Un aspecto que deben cuidar las guías de diseño es
el soporte para diversos lenguajes, con vistas al uso del producto a nivel
internacional.
7.7.- Proceso de diseño de interfaces de usuario
Según el autor Laudon y Laudon (1996), en el proceso de diseño de
una interfaz de usuario se pueden distinguir cuatro fases:
Reunir y analizar la información del usuario: qué tipo de usuarios van a
utilizar el programa, qué tareas van a realizar los usuarios y cómo las van a
realizar, qué exigen los usuarios del programa, en qué entorno se
desenvuelven los usuarios (físico, social, cultural).
Diseñar la interfaz de usuario. Es importante dedicar tiempo y recursos
a esta fase, antes de entrar en la codificación. En esta fase se definen los
objetivos de usabilidad del programa, las tareas del usuario, los objetos y
acciones de la interfaz, los iconos, vistas y representaciones visuales de los
objetos, los menús de los objetos y ventanas. Todos los elementos visuales
se pueden hacer primero a mano y luego refinar con las herramientas
adecuadas.
Capitulo II
41
Construir la interfaz de usuario. Es interesante realizar un prototipo
previo, una primera versión del programa que se realice rápidamente y
permita visualizar el producto para poderlo probar antes de codificarlo
definitivamente.
Validar la interfaz de usuario. Se deben realizar pruebas de usabilidad
del producto, a ser posible con los propios usuarios finales del mismo.
Es importante, en suma, realizar un diseño que parta del usuario, y no
del sistema.
7.8.- Prototipo
Según el autor antes mencionado, un prototipo es un modelo de un
producto o sistema. Dependiendo del propósito del prototipo y la naturaleza
del producto, el prototipo demostrará varios aspectos del producto como su
interfase, funcionalidad y otros. Los prototipos son una de las herramientas
utilizadas en Rapid Application Development (RAD) o Desarrollo rápido de
aplicaciones, un enfoque que permite a las organizaciones poner sus
productos en el mercado en el menor tiempo posible.
La elaboración de prototipos consiste en el desarrollo de un sistema
no funcional rápido y barato para que los usuarios finales los evalúen. Al
interactuar con el prototipo, los usuarios pueden tener una mejor idea de sus
Capitulo II
42
requerimientos de información. El prototipo avalado por los usuarios puede
ser usado cómo marco de referencia para crear el sistema definitivo.
Según los autores Laudon & Laudon el prototipo es una versión
operativa de un sistema de información o parte del sistema, pero se trata
sólo de un modelo preliminar. Una vez que opera, el prototipo será luego
mejorado hasta que se apegue exactamente a los requerimientos de los
usuarios. Para muchas aplicaciones, un prototipo puede ser extendido y
mejorado una y otra vez antes de aceptar el diseño final.
En el proceso de desarrollo de software tradicional, el sistema a ser
construido es primeramente analizado, después diseñado, después
codificado y por ultimo probado antes de ser entregado al cliente. En este
momento, si el cliente decide que los requerimientos eran errados o que han
cambiado, o que se necesitan nuevas funcionalidades es demasiado tarde
para lograr los cambios sin recurrir a gastos. El prototipo permite ver al
usuario, en una etapa temprana, cómo va a ser el sistema, lo que va a hacer
y cómo va a operar.
Las características de los prototipos dependen del sistema y el
propósito del prototipo. Generalmente se considera que los prototipos deben
ser construidos basados en la regla 20/80, esta regla dice que por lo general
20% de las funciones proveen el 80% de la funcionalidad que necesita o
quiere el usuario. El prototipo debe concentrarse en estas funciones
permitiéndole al usuario refinar sus especificaciones lo más pronto posible.
Capitulo II
43
Es posible que el prototipo sea un modelo completo y en este caso puede ser
utilizado en una situación real para ver cómo funciona en una situación real y
lo que los usuarios reales piensan de el.
La idea es apuntar al prototipo en una dirección que demuestre el
comportamiento funcional del sistema propuesto. El prototipo es utilizado
para intentar proveerle al cliente una representación concreta de las
percepciones del desarrollador y como un vehículo en el cual los
requerimientos del sistema puedan ser validados.
El desarrollador procede entonces a escoger un modelo para cada
problema en particular. Este proceso de selección tomará en cuenta la
naturaleza de los requerimientos.
Según los autores Laudon & Laudon el prototipo tiene en común con
otros tipos de desarrollo las etapas de vida del proyecto que indican las
tareas a ser llevadas a cabo durante el proceso de desarrollo.
1. Análisis de requerimientos. Incluye el entendimiento del contenido y la
naturaleza de los requerimientos iniciales del cliente. En esta etapa el
desarrollador debe determinar la funcionalidad que representará el prototipo,
aquí se debe poner particular atención a los requerimientos que no son muy
claros
2. Diseño. En esta etapa, el desarrollador deberá escoger un enfoque de
implementación apropiado. Además se debe derivar un diseño basado en los
resultados del análisis.
Capitulo II
44
3. Construcción del prototipo. En esta etapa se da la codificación del
prototipo.
7.8.1.- Tipos de prototipos
Según los autores Laudon & Laudon (1996), se considera que existen
cuatro o cinco tipos de prototipos: prototipo evolucionador, prototipo
desechable, prototipo incremental, prototipo rápido y prototipo Operativo.
1. Prototipo evolucionador es un intento de tomar en perspectiva un
numero de imperfecciones en el desarrollo de software y el papel del cambio.
Durante un proyecto de software, el director de desarrollo es la víctima de un
numero de circunstancias que requieren que el producto siendo desarrollado
cambie. Entre las razones de este cambio podemos citar:
q Serán descubiertos errores en las especificaciones del sistema.
q Se producirán cambios de parte del cliente de las especificaciones.
q Es difícil predecir la respuesta de sistemas de tiempo real y muchos
desarrolladores han adoptado una estrategia de ajustar los algoritmos una
vez que el sistema está construido.
El prototipo evolucionador involucra al desarrollador en producir un
prototipo al principio del proyecto y no descartarlo y utilizarlo como la base de
desarrollo y así durante el proyecto siempre existirá un prototipo del sistema
Capitulo II
45
lo que implica que el varias versiones ejecutables del sistema existirán en
diferentes etapas de evolución.
2.- Prototipo descartable consiste en desarrollar una versión rápida de
un sistema o paquete de software y seguidamente llevar a cabo un proceso
clínico de evaluación y modificación hasta que el cliente se declara contento
con lo que se ha desarrollado. En este punto el prototipo se congela y se
comienza el desarrollo del software. El objetivo es asegurarse de la
veracidad de las especificaciones de requerimientos por medio de la
validación por parte del cliente de las mismas. Se debe de estar claro de que
el prototipo será desechado después de esto y que por lo tanto la
implementación no deberá ser mantenible o eficiente.
3.- Prototipo incremental consiste en producir un número de versiones
de un sistema. Cada versión brinda mayor funcionalidad. Esto en realidad es
entrega incremental, su conexión con los prototipos es que el desarrollador
puede utilizar entregas tempranas del sistema como prototipo. Además
incluye la división de los requerimientos del usuario en funciones
independientes que no traslapan. El prototipo incremental incluye la entrega
de un sistema en etapas planeadas donde cada etapa implementa una de las
funciones.
4.- El prototipo rápido es un enfoque que permite obtener una
visualización temprana de cómo será el producto final. Esta visualización le
da al cliente una oportunidad de decidir si la idea del ingeniero de software
Capitulo II
46
es lo que él quiere y le da la oportunidad al equipo de software de cambiar el
diseño lo más pronto posible. Este enfoque es particularmente útil para
estudiar la interfase entre el usuario y el sistema y depende de la habilidad
del equipo desarrollador de crear de una manera rápida y barata un sistema
que se verá como lo que el cliente puede esperar.
5.- Prototipo Operativo es un sistema el cual permite ser evaluado con
datos reales involucrados directamente con procesos internos de una
Empresa. Permitiendo de esta manera comparar de manera efectiva los
resultados obtenidos por medio de este y el sistema antiguo, con el fin de
realizar una visualización temprana del producto final. Este enfoque es muy
útil para el desarrollo rápido de sistemas.
7.8.2.- Razones para usar un Prototipo
Según los autores Laudon & Laudon existen varias razones por las
cuales utilizar un prototipo entre las cuales encontramos el ser dinámico.
El desarrollo interactivo de programas – ya sea para una terminal tonta
o para una estación de trabajo inteligente – es utilizado generalmente como
un método dinámico de componer programas.
Para experimentar con la interfase entre el humano y la computadora.
Capitulo II
47
El usuario puede ver e identificar fácilmente áreas que no son tan
fáciles de utilizar como deberían de ser o muy complejas para ser utilizadas
eficientemente.
• Para descubrir requerimientos que han sido pasados por alto
Si el problema a resolver es comprendido y si el análisis de
requerimientos fue efectivo y si los usuarios y analistas se comunicaron
efectivamente, un modelo de requerimientos será certero y adecuado para
ser entregado a los diseñadores y programadores. Desafortunadamente esto
no es siempre el caso.
• Para probar el diseño
El prototipo ayudan a probar diseños candidatos, demostrarán si la
estimación (en papel) de los requerimientos de hardware es certera o no.
• Para darle al cliente una idea de lo que se está haciendo
El prototipo puede servir como una herramienta para asegurarle al
cliente que el diseño del sistema en realidad funciona.
7.8.3.-Ventajas y Desventajas de los Prototipos.
Capitulo II
48
Desventajas de la utilización de prototipos.
q Es difícil manejar la elaboración de prototipos como un proyecto
dentro de un esfuerzo de sistemas más grande.
q Los usuarios y analistas pueden adoptar a un prototipo como un
sistema terminado cuando esto es inadecuado.
Ventajas de la utilización de prototipos.
q Existe el potencial para hacer cambios en el sistema en las primeras
etapas de sus desarrollo.
q Existen oportunidades para detener el desarrollo de un sistema que no
es funcional.
q Puede atacar necesidades de usuario y expectativas más de cerca.
8.- DEFINICION DE TERMINOS BASICOS.
q Alocaciones: Cálculo que se realiza para estimar la producción de
cada pozo. (Empresa Merak, 2000)
q Base de Datos: Es una colección integral e inteligible de datos
organizados para evitar la duplicación de los mismos, permitiendo la
recuperación de información para satisfacer una amplia variedad de
necesidades del usuario. (1993, p.340).
Capitulo II
49
q Ethernet: Es la tecnología de red de área local más extendida en la
actualidad. Fue diseñado originalmente por Digital, Intel y Xerox por lo cual,
la especificación original se conoce como Ethernet DIX. Posteriormente en
1.983, fue formalizada por el IEEE como el estándar Ethernet 802.3. La
velocidad de transmisión de datos en Ethernet es de 10Mbits/s en las
configuraciones habituales pudiendo llegar a ser de 100Mbits/s en las
especificaciones Fast Ethernet. ( http:// nti.educa.rcanaria.es/conocernos_
mejor/apuntes/).
q Facilidades: Se define como cualquier sitio dentro de la aplicación
FieldView bien sea un Pozo, una Plataforma o un Manifold.(Empresa Merak,
2000)
q FieldView: Es una aplicación que permite recolectar la data
proveniente de la producción petrolera a través de ventanas de dialogo,
cuadros gráficos, reportes etc, de manera diaria. (Empresa Merak, 2000)
q Hardware: Es una denominación general de las unidades materiales
que componen un sistema informático, es el conjunto de aparatos y equipos
materiales. Candor (1994, p.195).
Capitulo II
50
q Informática: son todas las tecnologías, que colectivamente tratan de
la recopilación, procesamiento y transmisión de información con la ayuda de
computadoras. Tejera (1993, p.620).
q Manifold: Lugar donde concurren las conexiones de varios pozos y a
la cual llega el petróleo y redireccionado hacia la plataforma. (Empresa
Merak, 2000)
q ODBC (Object Data Base Connection): es un intermediario entre
bases de datos y aplicaciones, cuya tarea es sostener una conversación de
preguntas y respuestas entre dos computadores que no hablan el mismo
idioma y que gestionan sus recursos de forma diferente.
q OFM: (Oil Field Manager, Administrador del petróleo de campo). Es
una aplicación que permite el almacenamiento, acceso y análisis de la
producción y datos de pozos o reservorios de petróleo y gas. (Empresa
Merak, 2000)
q ORACLE: Manejador de base de datos.
q Plataforma: Receptor principal de petróleo y sitio de tratamiento del
mismo para luego ser redireccionado a los tanques de almacenamiento.
Capitulo II
51
q Procesamiento De Datos: Es el que se ejecuta por un sistema de
maquinas eléctricas o electrónicas interconectadas e interactuando de tal
forma que reducen a un mínimo la necesidad de la ayuda o intervención
del hombre. Khorth y Silberschatz (1992 p.1).
q Scritp o Query: Grupo de sentencias mediante las cuales se ejecutan
rutinas a una base de Datos bien sean Simples Select o Delete.
q Servidor: Es un computador en el cual funciona un software
administrativo que controla el acceso hacia todos los enlaces o partes de una
red así como también de sus recursos (como discos duros o impresoras) un
computador que actúa como un servidor permite que los recursos sean
accesibles para los computadores que trabajen como estaciones de trabajo.
q TCP/IP: Es realmente un conjunto de protocolos, donde los más
conocidos son TCP (Transmission Control Protocol o protocolo de control de
transmisión) e IP (Internet Protocol o protocolo Internet).( http://
nti.educa.rcanaria.es/conocernos_mejor/apuntes/).
9.- SISTEMA DE VARIABLES
Capitulo II
52
Para efectos de este proyecto investigativo las variables de estudio
involucradas en el mismo, tomando en cuenta a la Universidad de Yale y el
autor Michael Darnell son las siguientes : Interfaz de usuario y los Sistemas
de control estadísticos.
9.1.-Sistema de Control Estadístico
Según la Universidad de Yale, conceptualmente los sistemas de
control estadísticos, se refieren, a la aplicación de los principios de control de
todo el funcionamiento de una organización. Tiene como objetivo cerciorarse
de que los hechos vayan de acuerdo con los planes establecidos, señalar las
debilidades y errores a fin de rectificarlos e impedir que se produzcan
nuevamente, medir lo logrado en relación con el estándar.
Operacionalmente los sistemas de control estadísticos tienen sus
bases en relación al análisis de manera eficiente, garantizando la integridad
de la información concerniente al proceso de producción petrolera.
La creación de sistemas que permitan llevar de manera automática
procesos estadísticos relacionados los mismos con producción vienen dados
a la necesidad imperiosa de un cambio a nivel mundial para procesar los
datos provenientes de los campos o zonas geográficas en donde están
localizados los pozos petroleros. Esto permite que sistemas como FieldView
y OFM (Oil Field Manager) logren llevar de manera rápida el control diario o
Capitulo II
53
mensual de las diversas operaciones y valores concernientes al campo
petrolero imponiendo así un estándar a nivel mundial en cuanto a lo que se
refiere al manejo estadístico de la producción en el ámbito petrolero.
9.2.- Interfaz de Usuario
Según el autor Michael Darnell, conceptualmente las interfaces son un
conjunto de elementos a través de los cuales un usuario interactúa con un
objeto que realiza una tarea determinada. Asimismo, Es una herramienta la
cual permite realizar cualquier tipo de tarea de manera automatizada.
Operacionalmente hablando una interfaz tomando en cuenta el
proyecto, se refiere a la o las herramientas en las cuales diversas
operaciones pueden ser realizadas y se encuentran directamente
involucradas con tareas de producción petrolera concerniente a coordenadas
de pozos, gráficos, información histórica entre otros, pero jugando un papel
importante para la integración de dos aplicaciones como los son FieldView y
OFM, dando paso a un nuevo modo para el control del proceso productivo de
la empresa.