4
Definiciones de sistema de control I. Sistema. Un sistema es un conjunto de partes o elementos organizados y relacionados que interactúan entre sí para lograr un objetivo. Los sistemas reciben (entrada) datos, energía o materia del ambiente y proveen (salida) información, energía o materia. Un sistema puede ser físico o concreto (una computadora, un televisor, un humano) o puede ser abstracto o conceptual (un software). Control. La palabra control proviene del término francés contrôle y significa comprobación, inspección, fiscalización o intervención. También puede hacer referencia al dominio, mando y preponderancia, o a la regulación sobre un sistema. Sistema de control. Un sistema está integrado por una serie de elementos que actúan conjuntamente y que cumplen un cierto objetivo. Los elementos que componen un sistema no son independientes, sino que están estrechamente relacionados entre sí, de forma que las modificaciones que se producen en uno de ellos pueden influir en los demás. Sistema dinámico. Un sistema dinámico es un sistema físico cuyo estado evoluciona con el tiempo. El comportamiento en dicho estado se puede caracterizar determinando los límites del sistema, los elementos y sus relaciones; de esta forma se puede elaborar modelos que buscan representar la estructura del mismo sistema. Sistema Lineal. Los sistemas lineales se rigen por un conjunto de propiedades que facilitan su estudio y análisis. Algunas de las características que cumplen los sistemas lineales son: Homogeneidad: se refiere al hecho de que al haber un cambio en la entrada, en la salida se refleja de forma proporcional. Aditividad: Se dice que es aditivo cuando la suma de las diversas entradas es igual a la suma de las diversas salidas. Invariabilidad en el tiempo: Cualquier retardo en el tiempo en la señal de entrada se debe ver reflejado de igual manera en la salida. Sistema no Lineal. Un sistema de control no lineal es más complejo que uno lineal, un sistema no lineal se trata de representar por medio de ecuaciones diferenciales no lineales y por ello es más complicado el sistema. Sistema invariante en el tiempo. Es aquel que no depende de cuando ocurre: la forma de la salida no cambia con el retraso de la entrada. Además, cumple con algunas propiedades que son llamadas: Linealidad e Invariabilidad.

Conceptos de Sistemas de Control

Embed Size (px)

Citation preview

Page 1: Conceptos de Sistemas de Control

Definiciones de sistema de control I.

Sistema. Un sistema es un conjunto de partes o elementos organizados y relacionados que

interactúan entre sí para lograr un objetivo. Los sistemas reciben (entrada) datos, energía

o materia del ambiente y proveen (salida) información, energía o materia. Un sistema

puede ser físico o concreto (una computadora, un televisor, un humano) o puede ser

abstracto o conceptual (un software).

Control. La palabra control proviene del término francés contrôle y significa

comprobación, inspección, fiscalización o intervención. También puede hacer referencia al

dominio, mando y preponderancia, o a la regulación sobre un sistema.

Sistema de control. Un sistema está integrado por una serie de elementos que actúan

conjuntamente y que cumplen un cierto objetivo. Los elementos que componen un

sistema no son independientes, sino que están estrechamente relacionados entre sí, de

forma que las modificaciones que se producen en uno de ellos pueden influir en los

demás.

Sistema dinámico. Un sistema dinámico es un sistema físico cuyo estado evoluciona con el

tiempo. El comportamiento en dicho estado se puede caracterizar determinando los

límites del sistema, los elementos y sus relaciones; de esta forma se puede elaborar

modelos que buscan representar la estructura del mismo sistema.

Sistema Lineal. Los sistemas lineales se rigen por un conjunto de propiedades que facilitan

su estudio y análisis. Algunas de las características que cumplen los sistemas lineales son:

Homogeneidad: se refiere al hecho de que al haber un cambio en la entrada, en la

salida se refleja de forma proporcional.

Aditividad: Se dice que es aditivo cuando la suma de las diversas entradas es igual

a la suma de las diversas salidas.

Invariabilidad en el tiempo: Cualquier retardo en el tiempo en la señal de entrada

se debe ver reflejado de igual manera en la salida.

Sistema no Lineal. Un sistema de control no lineal es más complejo que uno lineal, un

sistema no lineal se trata de representar por medio de ecuaciones diferenciales no lineales

y por ello es más complicado el sistema.

Sistema invariante en el tiempo. Es aquel que no depende de cuando ocurre: la forma de

la salida no cambia con el retraso de la entrada. Además, cumple con algunas propiedades

que son llamadas: Linealidad e Invariabilidad.

Page 2: Conceptos de Sistemas de Control

Sistema variante en el tiempo. Así se le conoce al sistema que no es invariante en el

tiempo.

Sistemas determinísticos. Un sistema es determinista cuando su comportamiento futuro

puede predecirse y repetirse, para cada señal de entrada A hay una salida única B.

Sistemas no determinísticos. Es un sistema que no es determinístico.

Sistema de parámetros no concentrados. No es necesario considerar la distribución

espacial de sus parámetros (p.ej. la masa en un sistema mecánico) sino que se puede

considerar concentrados en un punto.

Sistema de parámetros distribuidos. Es necesario conocer la distribución espacial de sus

parámetros.

Sistema en tiempo continúo. En un sistema continuo todas las variables son función de un

tiempo continuo.

Sistemas en tiempo discreto. Los discretos se caracterizan por tener valores en instantes

fijos (el valor de la UF es discreto).

Entrada de referencia. Es la primer entrada que recibe un sistema de control, la cual al

paso del tiempo es transformada por el sistema.

Salida o respuesta. Es lo que entrega un sistema al final de un proceso, dependiendo de

cómo trabaja el sistema y además de la entrada que ha recibido.

Variable controlada. Variable dinámica (Parámetro físico que cambia espontáneamente o

por influencia externa. Algunas variables dinámicas pueden requerir regulación. Ejemplos:

temperatura, presión, voltaje, etc.) que se regula. Esta variable es medida por los

sensores.

Variable manipulada. Variable dinámica que cambia como función de la variable de

control y que modifica directamente la variable controlada. Por ejemplo, en el proceso de

calentamiento de un líquido la variable de control es el voltaje, el cual se aplica a una

resistencia, y la variable manipulada es el calor.

Proceso. Operación o desarrollo natural progresivamente continúo, marcado por una serie

de cambios graduales que se suceden uno al otro en una forma relativamente fija y que

conducen a un resultado o propósito determinados. Operación artificial o voluntaria

progresiva que consiste en una serie de acciones o movimientos controlados,

sistemáticamente dirigidos hacia un resultado o propósito determinados. Ejemplos:

procesos químicos, económicos y biológicos.

Page 3: Conceptos de Sistemas de Control

Planta. Parte de un equipo o un conjunto de las partes de una máquina que funcionan

juntas. Ejemplos: dispositivo mecánico, horno de calefacción, reactor químico, nave

espacial, etc.

Sensores. Conjunto de dispositivos que permiten obtener información más o menos

compleja de un entorno y, mediante un tratamiento adecuado de esa información,

interactuar con él o con un supervisor (generalmente un operario).

Actuador. Un actuador es un dispositivo capaz de transformar energía hidráulica,

neumática o eléctrica en la activación de un proceso con la finalidad de generar un efecto

sobre un proceso automatizado.

Controlador. Es un componente del sistema de control que detecta los desvíos existentes

entre el valor medido por un sensor y el valor deseado, programado por un operador,

emitiendo una señal de corrección hacia el actuador.

Proceso controlado. Es aquel en el que la entrada siempre es tratada de una forma fija ya

que el sistema está hecho para una tarea en especial, algunos son capaces de modificar su

comportamiento para poder dar una salida diferente.

Regulador. Proceso de control que hace que una variable dinámica permanezca fijo o

cercano a un valor deseado, por medio de una acción de control de lazo cerrado correctiva

constante. Ver principio de variedad necesaria.

Perturbación. Variable no deseada aplicada a un sistema y la cual tiende a afectar

adversamente el valor de una variable controlada. Si la perturbación se genera dentro del

sistema se denomina interna, en tanto que una perturbación externa se produce fuera del

sistema y es una entrada.

Sistemas de control en lazo abierto. Sistemas de lazo abierto o sistemas sin

realimentación. La salida no tiene efecto sobre el sistema.

Sistemas de control en lazo cerrado. Sistemas de lazo cerrado o sistemas con

realimentación o feedback. La toma de decisiones del sistema no depende sólo de la

entrada sino también de la salida.

Retroalimentación. Es un mecanismo de control de los sistemas dinámicos por el cual una

cierta proporción de la señal de salida se redirige a la entrada, y así regula su

comportamiento.

Page 4: Conceptos de Sistemas de Control

Detector de error. El comparador o detector de error es un dispositivo que compara la

señal de salida, captada por el sensor, con la señal de entrada. A partir de la diferencia

entre ambas, el comparador produce una señal de error, y la envía al controlador.

Trayecto directo. Es el camino que se sigue de la entrada hacia la salida de un sistema sin

pasar más de una vez por un nodo o elemento.

Sistema de control monovariable. Se les llama así a los sistemas de control que solo tienes

una variable de entrada y una sola variable de salida.

Sistema de control multivariable. Son sistemas de control que tienen múltiples variables

de entrada y múltiples variables de salida o múltiples variables de entrada y una sola

variable de salida o una sola variable de entrada y múltiples variables de salida.

Sistema de control óptimo. Es un sistema de control que tiene la capacidad de obtener la

mejor respuesta ante una entrada cualquiera, su función es dar los mejores resultados.

Sistema de control adaptivo. El control adaptativo consiste en la identificación de parámetros del proceso y el cálculo de un nuevo regulador, todo ello en tiempo real, siguiendo las variaciones de los parámetros y mientras se realiza el control.