Upload
hugo-marquez
View
13
Download
3
Embed Size (px)
Citation preview
Definiciones de sistema de control I.
Sistema. Un sistema es un conjunto de partes o elementos organizados y relacionados que
interactúan entre sí para lograr un objetivo. Los sistemas reciben (entrada) datos, energía
o materia del ambiente y proveen (salida) información, energía o materia. Un sistema
puede ser físico o concreto (una computadora, un televisor, un humano) o puede ser
abstracto o conceptual (un software).
Control. La palabra control proviene del término francés contrôle y significa
comprobación, inspección, fiscalización o intervención. También puede hacer referencia al
dominio, mando y preponderancia, o a la regulación sobre un sistema.
Sistema de control. Un sistema está integrado por una serie de elementos que actúan
conjuntamente y que cumplen un cierto objetivo. Los elementos que componen un
sistema no son independientes, sino que están estrechamente relacionados entre sí, de
forma que las modificaciones que se producen en uno de ellos pueden influir en los
demás.
Sistema dinámico. Un sistema dinámico es un sistema físico cuyo estado evoluciona con el
tiempo. El comportamiento en dicho estado se puede caracterizar determinando los
límites del sistema, los elementos y sus relaciones; de esta forma se puede elaborar
modelos que buscan representar la estructura del mismo sistema.
Sistema Lineal. Los sistemas lineales se rigen por un conjunto de propiedades que facilitan
su estudio y análisis. Algunas de las características que cumplen los sistemas lineales son:
Homogeneidad: se refiere al hecho de que al haber un cambio en la entrada, en la
salida se refleja de forma proporcional.
Aditividad: Se dice que es aditivo cuando la suma de las diversas entradas es igual
a la suma de las diversas salidas.
Invariabilidad en el tiempo: Cualquier retardo en el tiempo en la señal de entrada
se debe ver reflejado de igual manera en la salida.
Sistema no Lineal. Un sistema de control no lineal es más complejo que uno lineal, un
sistema no lineal se trata de representar por medio de ecuaciones diferenciales no lineales
y por ello es más complicado el sistema.
Sistema invariante en el tiempo. Es aquel que no depende de cuando ocurre: la forma de
la salida no cambia con el retraso de la entrada. Además, cumple con algunas propiedades
que son llamadas: Linealidad e Invariabilidad.
Sistema variante en el tiempo. Así se le conoce al sistema que no es invariante en el
tiempo.
Sistemas determinísticos. Un sistema es determinista cuando su comportamiento futuro
puede predecirse y repetirse, para cada señal de entrada A hay una salida única B.
Sistemas no determinísticos. Es un sistema que no es determinístico.
Sistema de parámetros no concentrados. No es necesario considerar la distribución
espacial de sus parámetros (p.ej. la masa en un sistema mecánico) sino que se puede
considerar concentrados en un punto.
Sistema de parámetros distribuidos. Es necesario conocer la distribución espacial de sus
parámetros.
Sistema en tiempo continúo. En un sistema continuo todas las variables son función de un
tiempo continuo.
Sistemas en tiempo discreto. Los discretos se caracterizan por tener valores en instantes
fijos (el valor de la UF es discreto).
Entrada de referencia. Es la primer entrada que recibe un sistema de control, la cual al
paso del tiempo es transformada por el sistema.
Salida o respuesta. Es lo que entrega un sistema al final de un proceso, dependiendo de
cómo trabaja el sistema y además de la entrada que ha recibido.
Variable controlada. Variable dinámica (Parámetro físico que cambia espontáneamente o
por influencia externa. Algunas variables dinámicas pueden requerir regulación. Ejemplos:
temperatura, presión, voltaje, etc.) que se regula. Esta variable es medida por los
sensores.
Variable manipulada. Variable dinámica que cambia como función de la variable de
control y que modifica directamente la variable controlada. Por ejemplo, en el proceso de
calentamiento de un líquido la variable de control es el voltaje, el cual se aplica a una
resistencia, y la variable manipulada es el calor.
Proceso. Operación o desarrollo natural progresivamente continúo, marcado por una serie
de cambios graduales que se suceden uno al otro en una forma relativamente fija y que
conducen a un resultado o propósito determinados. Operación artificial o voluntaria
progresiva que consiste en una serie de acciones o movimientos controlados,
sistemáticamente dirigidos hacia un resultado o propósito determinados. Ejemplos:
procesos químicos, económicos y biológicos.
Planta. Parte de un equipo o un conjunto de las partes de una máquina que funcionan
juntas. Ejemplos: dispositivo mecánico, horno de calefacción, reactor químico, nave
espacial, etc.
Sensores. Conjunto de dispositivos que permiten obtener información más o menos
compleja de un entorno y, mediante un tratamiento adecuado de esa información,
interactuar con él o con un supervisor (generalmente un operario).
Actuador. Un actuador es un dispositivo capaz de transformar energía hidráulica,
neumática o eléctrica en la activación de un proceso con la finalidad de generar un efecto
sobre un proceso automatizado.
Controlador. Es un componente del sistema de control que detecta los desvíos existentes
entre el valor medido por un sensor y el valor deseado, programado por un operador,
emitiendo una señal de corrección hacia el actuador.
Proceso controlado. Es aquel en el que la entrada siempre es tratada de una forma fija ya
que el sistema está hecho para una tarea en especial, algunos son capaces de modificar su
comportamiento para poder dar una salida diferente.
Regulador. Proceso de control que hace que una variable dinámica permanezca fijo o
cercano a un valor deseado, por medio de una acción de control de lazo cerrado correctiva
constante. Ver principio de variedad necesaria.
Perturbación. Variable no deseada aplicada a un sistema y la cual tiende a afectar
adversamente el valor de una variable controlada. Si la perturbación se genera dentro del
sistema se denomina interna, en tanto que una perturbación externa se produce fuera del
sistema y es una entrada.
Sistemas de control en lazo abierto. Sistemas de lazo abierto o sistemas sin
realimentación. La salida no tiene efecto sobre el sistema.
Sistemas de control en lazo cerrado. Sistemas de lazo cerrado o sistemas con
realimentación o feedback. La toma de decisiones del sistema no depende sólo de la
entrada sino también de la salida.
Retroalimentación. Es un mecanismo de control de los sistemas dinámicos por el cual una
cierta proporción de la señal de salida se redirige a la entrada, y así regula su
comportamiento.
Detector de error. El comparador o detector de error es un dispositivo que compara la
señal de salida, captada por el sensor, con la señal de entrada. A partir de la diferencia
entre ambas, el comparador produce una señal de error, y la envía al controlador.
Trayecto directo. Es el camino que se sigue de la entrada hacia la salida de un sistema sin
pasar más de una vez por un nodo o elemento.
Sistema de control monovariable. Se les llama así a los sistemas de control que solo tienes
una variable de entrada y una sola variable de salida.
Sistema de control multivariable. Son sistemas de control que tienen múltiples variables
de entrada y múltiples variables de salida o múltiples variables de entrada y una sola
variable de salida o una sola variable de entrada y múltiples variables de salida.
Sistema de control óptimo. Es un sistema de control que tiene la capacidad de obtener la
mejor respuesta ante una entrada cualquiera, su función es dar los mejores resultados.
Sistema de control adaptivo. El control adaptativo consiste en la identificación de parámetros del proceso y el cálculo de un nuevo regulador, todo ello en tiempo real, siguiendo las variaciones de los parámetros y mientras se realiza el control.