Desde el punto de vista teórico, la Ingeniería de Control se empieza a consolidar cuando se produce el traslado y aplicación de los conocimientos adquiridos en los problemas de amplificación de señales a los problemas de control industrial.
Estos estudios desembocan en la llamada Teoría Clásica de Control, en la cual se utililizaban como herramientas matemáticas los métodos de Transformación de Laplace y Fourier y la descripción externa de los sistemas.
Dos trabajos de singular importancia son los desarrollados por Minorsky y Hazen. En el trabajo de Minorsky "Directional Stability of Automatic Steered Bodies" [Thaler 74] de 1922, se reconoce la no-linealidad de los sistemas y aplica la linealización mediante el desarrollo en serie de Taylor a sistemas no-lineales correspondientes al movimiento angular de un buque. Estudia la estabilidad y los efectos de los retrasos de la información sobre las salidas de los Sistemas.
Hazen en su publicación "Theory of Servomechanism" (1934) [Thaler 74], analiza el funcionamiento de los servomecánismos utilizando en su análisis entradas típicas de escalón y rampa. Aparte de proponer un marco conceptual, Hazen utiliza herramientas matemáticas como el cálculo operacional de Heaviside. En sus trabajos estudia el diseño de servomecanismos para posicionar ejes.
El desarrollo de las técnicas frecuenciales:
El estudio de los servomecanismos y los reguladores en el dominio frecuencial se realiza al obtenerse resultados sobre el diseño de amplificadores de señal realimentados. Destacan los trabajos de Nyquist (1932), Black (1934) y Bode (1940).
El suceso que realmente marca época en el desarrollo de los métodos de respuesta en frecuencia es la aparición de trabajo clásico de Nyquist sobre la estabilidad de amplificadores realimentados. Nyquist presenta en este trabajo "Regeneration Theory" [Thaler 74], su celebre criterio de estabilidad. Su investigación surge de los problemas que presentaba la atenuación y distorsión de la señal en la telefonía a grandes distancias.
En 1915 la Bell System había finalizado un enlace telefónico experimental entre New York y San Francisco. Este enlace utilizó una línea aérea de cobre que pesaba 500 Kg/milla y fue cargado inductivamente para tener una frecuencia de corte de 1000 Hz. La atenuación de la señal a lo largo de las 3000 millas era de 60 dB, se redujo a 18dB utilizando seis amplificadores con una ganancia total de 42 dB.
Sin embargo el cambio a operaciones mediante cable, planteó serios problemas técnicos. Debido a la escasa sección de los cables la atenuación era grande y se requerían muchos amplificadores repetidores. Esto suponía que la señal al pasar por múltiples etapas amplificadoras, cada una con sus no-linealidades, se iba distorsionando. Para mantener la inteligibilidad de la señal de audio transmitida en distancias intercontinentales se requería una linealidad efectiva del amplificador muy lejos de la que la tecnología era capaz de dar ( una distorsión del orden del 0.005%).
Esta dificultad sólo se pudo vencer con el magnífico invento desarrollado por H. Black de los laboratorios Bell quien propuso la idea de un amplificador realimentado, en su trabajo "Stabilized Feedback Amplifiers" [Thaler 74] en 1934. El descubrimiento importante de Black fue que la elevada ganancia en un dispositivo amplificador no lineal y cuyos parámetros eran variables con el tiempo se podía negociar para conseguir una reducción en la distorsión no lineal de manera que el sistema se comportase como una ganancia lineal, estable y precisa. Black utiliza el criterio de Nyquist y llega a interpretar una serie de fenómenos que se producen en los sistemas realimentados.
El mecanismo era simplemente utilizar componentes pasivos lineales apropiados de gran precisión en el lazo de realimentación de un amplificador no lineal de elevada ganancia. Hacia 1932 Black y su equipo podían construir amplificadores que funcionaban razonablemente bien. Sin embargo presentaban una tendencia a inestabilizarse. Algunos lo hacían cuando aumentaba la ganancia del lazo del amplificador realimentado, lo cual se podía esperar, pero otros manifestaban estas características cuando la ganancia se disminuía y esto si que era completamente inesperado.
La situación era muy parecida a la asociada con los reguladores de velocidad del siglo XIX, que presentaban oscilaciones en la velocidad y cuya conducta no se podía explicar con las herramientas de análisis disponibles.
Los amplificadores realimentados de la época podían contener del orden de 50 elementos independientes almacenadores de energía (tales como condensadores, autoinducciones, etc.). Su descripción en términos de un conjunto de ecuaciones diferenciales, como en el análisis clásico de los sistemas de control automático de origen mecánico era casi una tarea imposible a la vista de las rudimentarias facilidades disponibles en esos años para la solución por computador de tales ecuaciones.
El famoso trabajo de Nyquist resolvió este misterio, abrió totalmente nuevas perspectivas en la teoría de los mecanismos realimentados y por lo tanto comenzó una nueva era en el Control Automático. Antes de 1932 el enfoque basado en las ecuaciones diferenciales había sido la gran herramienta del ingeniero del control; en la década que siguió a la contribución de Nyquist estas técnicas fueron casi completamente reemplazadas por métodos basados en la teoría de variable compleja los cuales fueron la consecuencia natural y directa de su nuevo planteamiento.
La solución del problema de la estabilidad de un sistema realimentado propuesta por Nyquist se basaba en la forma de la respuesta en frecuencia de la ganancia en lazo abierto y esto era de un valor práctico inmenso ya que se formulaba en términos de una cantidad (la ganancia) que era directamente medible. Este enlace directo con medidas experimentales era un desarrollo completamente nuevo en trabajos dinámicos de tipo aplicado.
La aplicación del criterio de estabilidad de Nyquist no dependía de la disponibilidad de un modelo del sistema en la forma de una ecuación diferencial. Más aún, el contorno del lugar de Nyquist daba una indicación inmediata de cómo se podía mejorar la conducta de un sistema realimentado que estaba muy poco amortiguado o que incluso era inestable simplemente modificando de una manera apropiada su característica de ganancia en lazo abierto en función de la frecuencia.
Con la perspectiva de hoy día puede resultarnos demasiado fácil subestimar la magnitud de la invención de Black y el logro teórico de Nyquist, sin embargo las cosas parecían muy diferentes en su tiempo. La concesión de una patente a Black por su amplificador tardó más de 9 años. La oficina de patentes de EEUU citaba trabajos técnicos que decían que la salida de un amplificador no se podía conectar a la entrada y permanecer estable a menos que la ganancia del lazo fuese menor que uno. La oficina de patentes británica, en palabras de Black, trató la aplicación "como si se tratase de una máquina de movimiento continuo".
El trabajo de Nyquist dejaba sin resolver como estaban relacionadas la amplitud y la fase en función de la frecuencia de la función de transferencia de la ganancia en lazo abierto. En otro de los trabajos clásicos que están en los fundamentos de la Teoría del Control, H. W. Bode realizó este análisis, extendiendo resultados previos de Lee y Wiener.
En el trabajo de Bode "Relations Between Attenuation and phase in Feedback Amplifier Design" [Thaler 74] de 1940, se presenta la definición de margen de fase y margen de ganancia y la definición de los diagramas logarítmicos de Bode.
Bode demostró que dada cualquier función de respuesta en frecuencia A (w) siendo A la amplitud de la ganancia en lazo abierto se le puede asociar una función F (w) siendo la fase mínima de dicha función de respuesta en frecuencia. De esta forma fue capaz de dar reglas para obtener la forma óptima de la ganancia del lazo en función de la frecuencia para un amplificador realimentado.
En la industria de los procesos químicos la introducción del control por realimentación tendió en un principio a desarrollarse de forma aislada de los desarrollos mecánicos y eléctricos. En estos procesos la evolución de la variable controlada era tan lenta ( y lo sigue siendo) que el control se hacia mediante realimentación manual. Los primeros pasos que se dan para controlar estos procesos son la incorporación de instrumentos para supervisar la operación y registradores de plumilla. El desarrollo natural fue utilizar el movimiento de la plumilla del registrador para efectuar una acción de realimentación sobre las válvulas de control en la planta utilizando líneas de transmisión, amplificadores y transductores neumáticos.
Los primeros controladores de temperatura, ofrecían una acción de control de tipo on-off por medio de un simple mecanismo conmutador o relé que pronto se reveló insuficiente para las exigencias planteadas en los procesos industriales, como por ejemplo en la industria láctea, el proceso de pasteurización de la leche. El siguiente desarrollo fueron los primeros reguladores con acción proporcional. En estos reguladores se manifestaba claramente el dilema de la automática: precisión frente estabilidad, si se desea un error estacionario pequeño, se debía aumentar la ganancia del regulador, o lo que es lo mismo disminuir la banda proporcional. Pero esto conllevaba que el proceso era sometido a fuertes oscilaciones en el transitorio. Y si se aumentaba la banda proporcional, disminuían las oscilaciones pero en caso de cambios en la carga aparecía un error estacionario apreciable. El máximo valor recomendado entonces para la banda proporcional era del cinco por ciento.
Harry Nyquist.
Hazen en su publicación "Theory of Servomechanism" (1934) [Thaler 74], analiza el funcionamiento de los servomecánismos utilizando en su análisis entradas típicas de escalón y rampa. Aparte de proponer un marco conceptual, Hazen utiliza herramientas matemáticas como el cálculo operacional de Heaviside. En sus trabajos estudia el diseño de servomecanismos para posicionar ejes.
El desarrollo de las técnicas frecuenciales:
El estudio de los servomecanismos y los reguladores en el dominio frecuencial se realiza al obtenerse resultados sobre el diseño de amplificadores de señal realimentados. Destacan los trabajos de Nyquist (1932), Black (1934) y Bode (1940).
El suceso que realmente marca época en el desarrollo de los métodos de respuesta en frecuencia es la aparición de trabajo clásico de Nyquist sobre la estabilidad de amplificadores realimentados. Nyquist presenta en este trabajo "Regeneration Theory" [Thaler 74], su celebre criterio de estabilidad. Su investigación surge de los problemas que presentaba la atenuación y distorsión de la señal en la telefonía a grandes distancias.
En 1915 la Bell System había finalizado un enlace telefónico experimental entre New York y San Francisco. Este enlace utilizó una línea aérea de cobre que pesaba 500 Kg/milla y fue cargado inductivamente para tener una frecuencia de corte de 1000 Hz. La atenuación de la señal a lo largo de las 3000 millas era de 60 dB, se redujo a 18dB utilizando seis amplificadores con una ganancia total de 42 dB.
Sin embargo el cambio a operaciones mediante cable, planteó serios problemas técnicos. Debido a la escasa sección de los cables la atenuación era grande y se requerían muchos amplificadores repetidores. Esto suponía que la señal al pasar por múltiples etapas amplificadoras, cada una con sus no-linealidades, se iba distorsionando. Para mantener la inteligibilidad de la señal de audio transmitida en distancias intercontinentales se requería una linealidad efectiva del amplificador muy lejos de la que la tecnología era capaz de dar ( una distorsión del orden del 0.005%).
Esta dificultad sólo se pudo vencer con el magnífico invento desarrollado por H. Black de los laboratorios Bell quien propuso la idea de un amplificador realimentado, en su trabajo "Stabilized Feedback Amplifiers" [Thaler 74] en 1934. El descubrimiento importante de Black fue que la elevada ganancia en un dispositivo amplificador no lineal y cuyos parámetros eran variables con el tiempo se podía negociar para conseguir una reducción en la distorsión no lineal de manera que el sistema se comportase como una ganancia lineal, estable y precisa. Black utiliza el criterio de Nyquist y llega a interpretar una serie de fenómenos que se producen en los sistemas realimentados.
El mecanismo era simplemente utilizar componentes pasivos lineales apropiados de gran precisión en el lazo de realimentación de un amplificador no lineal de elevada ganancia. Hacia 1932 Black y su equipo podían construir amplificadores que funcionaban razonablemente bien. Sin embargo presentaban una tendencia a inestabilizarse. Algunos lo hacían cuando aumentaba la ganancia del lazo del amplificador realimentado, lo cual se podía esperar, pero otros manifestaban estas características cuando la ganancia se disminuía y esto si que era completamente inesperado.
La situación era muy parecida a la asociada con los reguladores de velocidad del siglo XIX, que presentaban oscilaciones en la velocidad y cuya conducta no se podía explicar con las herramientas de análisis disponibles.
Los amplificadores realimentados de la época podían contener del orden de 50 elementos independientes almacenadores de energía (tales como condensadores, autoinducciones, etc.). Su descripción en términos de un conjunto de ecuaciones diferenciales, como en el análisis clásico de los sistemas de control automático de origen mecánico era casi una tarea imposible a la vista de las rudimentarias facilidades disponibles en esos años para la solución por computador de tales ecuaciones.
El famoso trabajo de Nyquist resolvió este misterio, abrió totalmente nuevas perspectivas en la teoría de los mecanismos realimentados y por lo tanto comenzó una nueva era en el Control Automático. Antes de 1932 el enfoque basado en las ecuaciones diferenciales había sido la gran herramienta del ingeniero del control; en la década que siguió a la contribución de Nyquist estas técnicas fueron casi completamente reemplazadas por métodos basados en la teoría de variable compleja los cuales fueron la consecuencia natural y directa de su nuevo planteamiento.
La solución del problema de la estabilidad de un sistema realimentado propuesta por Nyquist se basaba en la forma de la respuesta en frecuencia de la ganancia en lazo abierto y esto era de un valor práctico inmenso ya que se formulaba en términos de una cantidad (la ganancia) que era directamente medible. Este enlace directo con medidas experimentales era un desarrollo completamente nuevo en trabajos dinámicos de tipo aplicado.
La aplicación del criterio de estabilidad de Nyquist no dependía de la disponibilidad de un modelo del sistema en la forma de una ecuación diferencial. Más aún, el contorno del lugar de Nyquist daba una indicación inmediata de cómo se podía mejorar la conducta de un sistema realimentado que estaba muy poco amortiguado o que incluso era inestable simplemente modificando de una manera apropiada su característica de ganancia en lazo abierto en función de la frecuencia.
Con la perspectiva de hoy día puede resultarnos demasiado fácil subestimar la magnitud de la invención de Black y el logro teórico de Nyquist, sin embargo las cosas parecían muy diferentes en su tiempo. La concesión de una patente a Black por su amplificador tardó más de 9 años. La oficina de patentes de EEUU citaba trabajos técnicos que decían que la salida de un amplificador no se podía conectar a la entrada y permanecer estable a menos que la ganancia del lazo fuese menor que uno. La oficina de patentes británica, en palabras de Black, trató la aplicación "como si se tratase de una máquina de movimiento continuo".
El trabajo de Nyquist dejaba sin resolver como estaban relacionadas la amplitud y la fase en función de la frecuencia de la función de transferencia de la ganancia en lazo abierto. En otro de los trabajos clásicos que están en los fundamentos de la Teoría del Control, H. W. Bode realizó este análisis, extendiendo resultados previos de Lee y Wiener.
En el trabajo de Bode "Relations Between Attenuation and phase in Feedback Amplifier Design" [Thaler 74] de 1940, se presenta la definición de margen de fase y margen de ganancia y la definición de los diagramas logarítmicos de Bode.
Bode demostró que dada cualquier función de respuesta en frecuencia A (w) siendo A la amplitud de la ganancia en lazo abierto se le puede asociar una función F (w) siendo la fase mínima de dicha función de respuesta en frecuencia. De esta forma fue capaz de dar reglas para obtener la forma óptima de la ganancia del lazo en función de la frecuencia para un amplificador realimentado.
En la industria de los procesos químicos la introducción del control por realimentación tendió en un principio a desarrollarse de forma aislada de los desarrollos mecánicos y eléctricos. En estos procesos la evolución de la variable controlada era tan lenta ( y lo sigue siendo) que el control se hacia mediante realimentación manual. Los primeros pasos que se dan para controlar estos procesos son la incorporación de instrumentos para supervisar la operación y registradores de plumilla. El desarrollo natural fue utilizar el movimiento de la plumilla del registrador para efectuar una acción de realimentación sobre las válvulas de control en la planta utilizando líneas de transmisión, amplificadores y transductores neumáticos.
Los primeros controladores de temperatura, ofrecían una acción de control de tipo on-off por medio de un simple mecanismo conmutador o relé que pronto se reveló insuficiente para las exigencias planteadas en los procesos industriales, como por ejemplo en la industria láctea, el proceso de pasteurización de la leche. El siguiente desarrollo fueron los primeros reguladores con acción proporcional. En estos reguladores se manifestaba claramente el dilema de la automática: precisión frente estabilidad, si se desea un error estacionario pequeño, se debía aumentar la ganancia del regulador, o lo que es lo mismo disminuir la banda proporcional. Pero esto conllevaba que el proceso era sometido a fuertes oscilaciones en el transitorio. Y si se aumentaba la banda proporcional, disminuían las oscilaciones pero en caso de cambios en la carga aparecía un error estacionario apreciable. El máximo valor recomendado entonces para la banda proporcional era del cinco por ciento.
Foxboro Stabilog
Durante los años 30 se desarrollaron completamente estos reguladores neumáticos y se transfirió a este campo del control la idea de utilizar el término de acción integral que se venía empleando desde tiempo en los sistemas mecánicos. El primer regulador de temperatura con acción proporcional integral fue el Foxboro Stabilog patentado por Mason en 1931. En este regulador neumático, se incorporaba amplificación lineal, basada en el principio de la realimentación negativa (al igual que Black en los amplificadores de señal realimentados) y acción integral (reset). Hay que hacer constar que en un principio el Stabilog no tuvo mucho éxito comercial, debido entre otras cosas a su precio y a que no era comprendido su funcionamiento.
A finales de los años 30 se introdujo la acción derivativa en estos controladores neumáticos dando lugar así al regulador PID de 3 términos (Proporcional, Integral y Derivativo).
Un paso crucial en la transferencia de las técnicas utilizadas en el análisis de los amplificadores realimentados de los sistemas de telefonía a otras clases de sistemas fue realizada por H. Harris del MIT en su trabajo "The analisys and design of servomechanics" [Harris 42], en el cual introduce el uso de funciones de transferencia en el análisis de un sistema realimentado general. Esto permitió que un servomecanismo mecánico o un sistema de control de un proceso químico se representasen mediante diagramas de bloques y utilizasen las técnicas del dominio frecuencial.
Avances durante la Segunda Guerra Mundial:
Con el objetivo fundamental de investigar y avanzar en los problemas de control del radar y de control de tiro, en marzo de 1942, de una manera informal se constituyó un grupo que posteriormente sería denominado el "Servo-Panel". Su principal función consistió en organizar encuentros, proporcionar información y servir de nexo de comunicación entre diferentes grupos de investigación.
El gobierno americano al intentar desarrollar los sistemas de control automático de tiro se enfrentó con el problema de que aunque había una considerable experiencia en temas de control, ésta se encontraba dispersa entre muchas ramas de la ingeniería y faltaba el atributo unificador de una terminología en común. La reacción no se hizo esperar, con la formación en 1940 bajo la dirección del Dr. Vannevar Bush del Comité de Investigación de Defensa Nacional (NDRC).
Entre los muchos comités del NDRC estaba el de Contro1 de Tiro que bajo el liderazgo de Warren Weaver coordinó el trabajo de los servicios, laboratorios industriales y universidades. El comité era responsable de la dirección de la investigación y de la circulación de informes reservados a los grupos apropiados.
Los informes de Brown, Harris, Hall, Wiener, Phillips y Weis entre otros, fueron emitidos bajo los auspicios del NDRC y su contenido no fue conocido hasta finales de los años 40. Los siguientes trabajos han sido recogidos en la colección [Thaler 74]:
Albores de la era espacial:
Desde siempre los procesos más complejos comandados por computador han sido las aplicaciones de control de vuelo aerospaciales. Sin disponer de las tecnologías del control automático y los computadores, hubiera sido imposible que el hombre hubiera viajado al espacio. Los pioneros en esta aplicación fueron, además de otros, el ruso Constantin E. Tsiolkovsky (1857-1935), y el alemán Hermann Ganswindt (1856-1934) que criticaron a los astrónomos y matemáticos de la época que aseguraban que nunca jamás el ser humano poseería los medios para conseguir el control, la precisión y la velocidad necesaria para los vuelos en el espacio.
Uno de los primeros trabajos en este campo se debe al alemán Hermann Orberth, que en su articulo "Die Rakete zu den Planetenräumen" (Cohetes en el espacio interplanetario) publicado en 1923, afirma que para poder efectuar vuelos en el espacio, el hombre debe acceder a técnicas de control automático mucho más sofisticadas que las disponibles entonces. En su trabajo de 1929 "Wege zur Raumschiffahrt" (Métodos para volar en el espacio) predice que el desarrollo de cohetes que dispongan de la suficiente fuerza propulsiva llevará largo tiempo y lo mismo sucederá con la necesaria tecnología de control automático. Asimismo un elemento fundamental en la navegación espacial será la precisión a la hora de maniobrar dado que las velocidades y las distancias implicadas son enormes (evidentemente astronómicas). Para colocar un satélite orbitando sobre la tierra es necesaria una velocidad mínima de 7,904 kilómetros por segundo. Para poder escapar de la tierra y navegar por el espacio interestelar es necesaria una velocidad mínima de 11,178 Km./seg. conocida como la velocidad de escape. Estas velocidades resultaban difíciles de imaginar para la época cuando un coche que circulaba a 100 Km./hora necesitaba cinco minutos para recorrer la distancia de ocho kilómetros. En otras palabras el cohete debía ir a una velocidad trescientas veces superior a la del coche.
La falta de oxigeno en el espacio exterior conllevaba la imposibilidad de realizar la combustión en las turbinas de los cohetes. Robert H. Goddard publica en 1919 el primer trabajo "A Method of Reaching Extreme Altitudes" donde se describen cohetes cuya combustión se basaba en oxígeno líquido.
Las mayores contribuciones al campo de la navegación espacial que posibilitaron que el hombre llegara a la luna en 1969 se realizaron en la base alemana de Peenemünde situada en la isla de Usedom del mar Báltico. La base fue construida entre 1936 y 1940. Las investigaciones y desarrollos realizados ahí constituyen uno de los capítulos más excitantes de la historia de la ciencia y la técnica.
Las primeras unidades desarrolladas para el ejercito alemán, las denominadas A1 y A2, fueron destinadas principalmente al ensayo de sistemas de propulsión y control de cohetes. Una vez se dispuso de unidades en funcionamiento, enseguida se observo que el principal problema a solucionar era mantener el sistema estable. Según palabras de Willy Ley [Willy 44] los conocimientos que se poseían entonces sobre la estabilidad de los cohetes "se podían escribir en una postal, dejando alguna parte en blanco".
Para el desarrollo del tercer ingenio, la A3, la marina Alemana envió a un reconocido especialista en el problema de estabilización y alineamiento de las torretas de tiro, el clásico problema del control de la segunda guerra mundial. Sin embargo este ingenio no se terminó de construir dado que el mecanismo de control se revelo inadecuado. Después de lo cual se desarrolla un nuevo sistema de control bastante avanzado para la época. Este sistema utilizaba giróscopos y acelerómetros como elementos sensores y disponía de servomotores eléctricos que podían efectuar pequeños y precisos movimientos, construidos en molibdeno, un material resistente a altas temperaturas, y encargados de controlar el suministro de gas a las turbinas del cohete.
Para estudiar la dinámica del sistema se construyo un simulador mecánico, cuyo diseño se basó en los registros obtenidos de los vuelos de los primeros ensayos mediante radiotelemetría (otro desarrollo pionero). En este momento, Willy Ley hubiera necesitado al menos doce docenas de postales.
Esta concentración de esfuerzos en resolver los problemas de control y estabilidad condujo al desarrollo de la unidad A4, que Goebbels después denominaría V2–V de Vergeltungswaffe (misil de justo castigo o pena merecida). Ya en las primeras pruebas efectuadas por este misil se le equipó con un potente equipo de radio con el objetivo de realizar medidas mediante telemetría y también disponía de un sistema de radiocontrol en fase de pruebas. En 1943 un misil A4 se estrelló en la zona de Borholm en Dinamarca, siendo recuperados sus restos por agentes de aquel país que se encargaron de enviar fotografías y dibujos a Inglaterra vía Estocolmo. En el verano de 1944 otro misil se estrelló al sur de Suecia, este fue entregado a los aliados, los cuales se alarmaron ante lo que se veía venir. Los aliados concluyeron erróneamente que estos ingenios estaban guiados por radio. Nada más lejos de la realidad, las pruebas realizadas por los investigadores alemanes afirmaban que les era imposible controlar los misiles con la debida precisión. Los ingenios eran alineados hacia su objetivo (primero fue París y después Londres), pero una vez habían sido lanzados era imposible modificar la trayectoria del misil.
Durante las últimas fases de la segunda guerra mundial en la base de Peenemünde se llegaron a realizar proyectos sobre misiles transatlánticos (la unidad A6)…Incluso la Gestapo llego a arrestar a Wernher Von Braun por haber hablado abiertamente de la posibilidad de enviar objetos al espacio. Fue liberado gracias a la mediación del director de la base de Peenemünde, que explicó a altos oficiales de la Gestapo que las ideas de von Braun contribuían a la creación de nuevos y más potentes misiles de justo castigo. Cuando Alemania esta ya prácticamente derrotada, en mayo de 1945, la base de Peenemünde junto con todo su arsenal de cohetes cayó en manos de los aliados, y en Julio de ese mismo año trescientos vagones de tren cargados de cohetes A4 llegaron a una base de Nuevo Méjico. También se traslado allí todo el equipo científico alemán que continuó con su labor de investigación.
El resto de la historia es de sobra conocida por todos nosotros. ¿Llegará alguno de nuestros hijos al Planeta Rojo?
Los años clásicos: 1945-1955:
Desde el punto de vista del desarrollo de las técnicas de diseño de control automático, el principal resultado de este gran esfuerzo y experiencia fue extender rápidamente la utilización de las ideas de respuesta en frecuencia a todos los campos y producir así una teoría unificada y coherente para los sistemas realimentados con un único lazo.
Coincidiendo con la segunda guerra mundial, el matemático Wiener desarrolla la teoría estocástica clásica, la cual tuvo su inicio en el estudio del problema de automatización de un cañón aéreo. En este trabajo se da un enfoque radicalmente distinto del estudio del problema del control, y supone el inicio de la conocida como teoría estocástica clásica. Las aportaciones de Wiener consisten en considerar la presencia de ruidos en las señales, e introduce también el concepto de control óptimo, cuyo objetivo consiste en minimizar un determinado criterio que define la calidad del control, en este caso minimiza la superficie de error cuadrático [Wiener 49].
Wiener también establece la relación entre estos ingenios autogobernados y determinados procesos que suceden en los seres vivos. Todo ello, conduce a la formulación de lo que se denominaría cibernética en su trabajo "Cybernetics" de 1948 publicado por el MIT press [Wiener 48].
A finales de la década de los cuarenta, surgen otras dos vías de desarrollo de la teoría de control: el Método del modelo de Truxal [Truxal 54] y el método del lugar de las Raíces, de Evans. Se presentan también aportaciones como la extensión de los métodos frecuenciales a sistemas no-lineales y a sistemas estocásticos.
El método del modelo es una adaptación del método de Guillemin desarrollado inicialmente para el diseño de redes pasivas. Partiendo de las especificaciones deseadas se obtiene la función de transferencia que debe seguir el sistema de control. El cálculo de la función de transferencia del regulador se realiza fácilmente por medio de operaciones álgebraicas. Este método resultaba atractivo dado que no utiliza la técnica de prueba y error. Pero se manifestaban en él algunas dificultades prácticas como podían ser la complejidad de los correctores que se obtienen, que dejaban de tener la estructura clásica PID.
Los trabajos de Evans:
El método de Evans cuenta con el handicap de no poder abordar el análisis de sistemas con retraso puro y la difícil estimación de la respuesta temporal de sistemas con distribuciones dispersas de polos y ceros. A su favor, aporta un método gráfico de estimar la influencia de variaciones en los parámetros del sistema o del regulador sobre la estabilidad y el comportamiento dinámico de los sistemas.
David Moreno
17812731
EES
A finales de los años 30 se introdujo la acción derivativa en estos controladores neumáticos dando lugar así al regulador PID de 3 términos (Proporcional, Integral y Derivativo).
En 1942 Ziegler y Nichols, ingenieros de Taylor Instruments hicieron un estudio importante que condujo a fórmulas empíricas para sintonizar el regulador PID al proceso. Este estudio " Optimum Settings for Automatic Controllers" [Thaler 74] fue presentado en el "ASME Winter Anual Meeting". Los coeficientes de las distintas acciones proporcional, integral y derivada, se podían determinar de valores medidos experimentalmente del proceso que se deseaba controlar. La importancia de estas reglas de ajuste óptimo de controladores es enorme, siguen siendo vigentes y profusamente usadas en el ámbito del control de procesos industriales.
El trabajo de Ziegler y Nichols es pionero en el desarrollo de la idea de control óptimo, aunque su criterio de optimización, que consiste en minimizar la superficie de error absoluto, no se puede tratar analíticamente.Un paso crucial en la transferencia de las técnicas utilizadas en el análisis de los amplificadores realimentados de los sistemas de telefonía a otras clases de sistemas fue realizada por H. Harris del MIT en su trabajo "The analisys and design of servomechanics" [Harris 42], en el cual introduce el uso de funciones de transferencia en el análisis de un sistema realimentado general. Esto permitió que un servomecanismo mecánico o un sistema de control de un proceso químico se representasen mediante diagramas de bloques y utilizasen las técnicas del dominio frecuencial.
Avances durante la Segunda Guerra Mundial:
Un gran estímulo para el desarrollo de la técnica lo constituyen las guerras. La Segunda Guerra Mundial supuso un gran impulso al desarrollo teórico y mucho más al desarrollo práctico, dada la fuerte necesidad de sistemas de control que funcionarán como los servos de los radares y el posicionamiento de cañones.
La Segunda Guerra Mundial creó una necesidad urgente para diseñar servomecanismos de altas prestaciones y condujo a grandes avances en la forma de construir sistemas de control realimentados. Las exigencias de la guerra enfocaron la atención sobre un problema importante: el llamado problema de control de tiro, proporcionando una cadena automática de órdenes entre la detección del blanco, el apuntamiento del arma y el disparo. Este problema tiene tres etapas:- Detección y seguimiento del blanco.
- Predicción.
- Colocación del cañón en posición de disparo.
Con el objetivo fundamental de investigar y avanzar en los problemas de control del radar y de control de tiro, en marzo de 1942, de una manera informal se constituyó un grupo que posteriormente sería denominado el "Servo-Panel". Su principal función consistió en organizar encuentros, proporcionar información y servir de nexo de comunicación entre diferentes grupos de investigación.
El gobierno americano al intentar desarrollar los sistemas de control automático de tiro se enfrentó con el problema de que aunque había una considerable experiencia en temas de control, ésta se encontraba dispersa entre muchas ramas de la ingeniería y faltaba el atributo unificador de una terminología en común. La reacción no se hizo esperar, con la formación en 1940 bajo la dirección del Dr. Vannevar Bush del Comité de Investigación de Defensa Nacional (NDRC).
Entre los muchos comités del NDRC estaba el de Contro1 de Tiro que bajo el liderazgo de Warren Weaver coordinó el trabajo de los servicios, laboratorios industriales y universidades. El comité era responsable de la dirección de la investigación y de la circulación de informes reservados a los grupos apropiados.
Los informes de Brown, Harris, Hall, Wiener, Phillips y Weis entre otros, fueron emitidos bajo los auspicios del NDRC y su contenido no fue conocido hasta finales de los años 40. Los siguientes trabajos han sido recogidos en la colección [Thaler 74]:
- Brown, G.S., and A.C. Hall: Dynamic Behavior and Design of Servomechanism. [Brown 46].
- Harris, H. JR: The frecuency Response of Automatic Control. [Harris 46].
- Hall, A.C: Aplication of Circuit Theory to the Design of Servomechanisms. [Hall 46].
- Weiss, H.K.: Constant Speed Control Theory. [Weiss 39].
Albores de la era espacial:
Desde siempre los procesos más complejos comandados por computador han sido las aplicaciones de control de vuelo aerospaciales. Sin disponer de las tecnologías del control automático y los computadores, hubiera sido imposible que el hombre hubiera viajado al espacio. Los pioneros en esta aplicación fueron, además de otros, el ruso Constantin E. Tsiolkovsky (1857-1935), y el alemán Hermann Ganswindt (1856-1934) que criticaron a los astrónomos y matemáticos de la época que aseguraban que nunca jamás el ser humano poseería los medios para conseguir el control, la precisión y la velocidad necesaria para los vuelos en el espacio.
Uno de los primeros trabajos en este campo se debe al alemán Hermann Orberth, que en su articulo "Die Rakete zu den Planetenräumen" (Cohetes en el espacio interplanetario) publicado en 1923, afirma que para poder efectuar vuelos en el espacio, el hombre debe acceder a técnicas de control automático mucho más sofisticadas que las disponibles entonces. En su trabajo de 1929 "Wege zur Raumschiffahrt" (Métodos para volar en el espacio) predice que el desarrollo de cohetes que dispongan de la suficiente fuerza propulsiva llevará largo tiempo y lo mismo sucederá con la necesaria tecnología de control automático. Asimismo un elemento fundamental en la navegación espacial será la precisión a la hora de maniobrar dado que las velocidades y las distancias implicadas son enormes (evidentemente astronómicas). Para colocar un satélite orbitando sobre la tierra es necesaria una velocidad mínima de 7,904 kilómetros por segundo. Para poder escapar de la tierra y navegar por el espacio interestelar es necesaria una velocidad mínima de 11,178 Km./seg. conocida como la velocidad de escape. Estas velocidades resultaban difíciles de imaginar para la época cuando un coche que circulaba a 100 Km./hora necesitaba cinco minutos para recorrer la distancia de ocho kilómetros. En otras palabras el cohete debía ir a una velocidad trescientas veces superior a la del coche.
La falta de oxigeno en el espacio exterior conllevaba la imposibilidad de realizar la combustión en las turbinas de los cohetes. Robert H. Goddard publica en 1919 el primer trabajo "A Method of Reaching Extreme Altitudes" donde se describen cohetes cuya combustión se basaba en oxígeno líquido.
Las mayores contribuciones al campo de la navegación espacial que posibilitaron que el hombre llegara a la luna en 1969 se realizaron en la base alemana de Peenemünde situada en la isla de Usedom del mar Báltico. La base fue construida entre 1936 y 1940. Las investigaciones y desarrollos realizados ahí constituyen uno de los capítulos más excitantes de la historia de la ciencia y la técnica.
Las primeras unidades desarrolladas para el ejercito alemán, las denominadas A1 y A2, fueron destinadas principalmente al ensayo de sistemas de propulsión y control de cohetes. Una vez se dispuso de unidades en funcionamiento, enseguida se observo que el principal problema a solucionar era mantener el sistema estable. Según palabras de Willy Ley [Willy 44] los conocimientos que se poseían entonces sobre la estabilidad de los cohetes "se podían escribir en una postal, dejando alguna parte en blanco".
Para el desarrollo del tercer ingenio, la A3, la marina Alemana envió a un reconocido especialista en el problema de estabilización y alineamiento de las torretas de tiro, el clásico problema del control de la segunda guerra mundial. Sin embargo este ingenio no se terminó de construir dado que el mecanismo de control se revelo inadecuado. Después de lo cual se desarrolla un nuevo sistema de control bastante avanzado para la época. Este sistema utilizaba giróscopos y acelerómetros como elementos sensores y disponía de servomotores eléctricos que podían efectuar pequeños y precisos movimientos, construidos en molibdeno, un material resistente a altas temperaturas, y encargados de controlar el suministro de gas a las turbinas del cohete.
Para estudiar la dinámica del sistema se construyo un simulador mecánico, cuyo diseño se basó en los registros obtenidos de los vuelos de los primeros ensayos mediante radiotelemetría (otro desarrollo pionero). En este momento, Willy Ley hubiera necesitado al menos doce docenas de postales.
Esta concentración de esfuerzos en resolver los problemas de control y estabilidad condujo al desarrollo de la unidad A4, que Goebbels después denominaría V2–V de Vergeltungswaffe (misil de justo castigo o pena merecida). Ya en las primeras pruebas efectuadas por este misil se le equipó con un potente equipo de radio con el objetivo de realizar medidas mediante telemetría y también disponía de un sistema de radiocontrol en fase de pruebas. En 1943 un misil A4 se estrelló en la zona de Borholm en Dinamarca, siendo recuperados sus restos por agentes de aquel país que se encargaron de enviar fotografías y dibujos a Inglaterra vía Estocolmo. En el verano de 1944 otro misil se estrelló al sur de Suecia, este fue entregado a los aliados, los cuales se alarmaron ante lo que se veía venir. Los aliados concluyeron erróneamente que estos ingenios estaban guiados por radio. Nada más lejos de la realidad, las pruebas realizadas por los investigadores alemanes afirmaban que les era imposible controlar los misiles con la debida precisión. Los ingenios eran alineados hacia su objetivo (primero fue París y después Londres), pero una vez habían sido lanzados era imposible modificar la trayectoria del misil.
Durante las últimas fases de la segunda guerra mundial en la base de Peenemünde se llegaron a realizar proyectos sobre misiles transatlánticos (la unidad A6)…Incluso la Gestapo llego a arrestar a Wernher Von Braun por haber hablado abiertamente de la posibilidad de enviar objetos al espacio. Fue liberado gracias a la mediación del director de la base de Peenemünde, que explicó a altos oficiales de la Gestapo que las ideas de von Braun contribuían a la creación de nuevos y más potentes misiles de justo castigo. Cuando Alemania esta ya prácticamente derrotada, en mayo de 1945, la base de Peenemünde junto con todo su arsenal de cohetes cayó en manos de los aliados, y en Julio de ese mismo año trescientos vagones de tren cargados de cohetes A4 llegaron a una base de Nuevo Méjico. También se traslado allí todo el equipo científico alemán que continuó con su labor de investigación.
El resto de la historia es de sobra conocida por todos nosotros. ¿Llegará alguno de nuestros hijos al Planeta Rojo?
Los años clásicos: 1945-1955:
Desde el punto de vista del desarrollo de las técnicas de diseño de control automático, el principal resultado de este gran esfuerzo y experiencia fue extender rápidamente la utilización de las ideas de respuesta en frecuencia a todos los campos y producir así una teoría unificada y coherente para los sistemas realimentados con un único lazo.
Coincidiendo con la segunda guerra mundial, el matemático Wiener desarrolla la teoría estocástica clásica, la cual tuvo su inicio en el estudio del problema de automatización de un cañón aéreo. En este trabajo se da un enfoque radicalmente distinto del estudio del problema del control, y supone el inicio de la conocida como teoría estocástica clásica. Las aportaciones de Wiener consisten en considerar la presencia de ruidos en las señales, e introduce también el concepto de control óptimo, cuyo objetivo consiste en minimizar un determinado criterio que define la calidad del control, en este caso minimiza la superficie de error cuadrático [Wiener 49].
Wiener también establece la relación entre estos ingenios autogobernados y determinados procesos que suceden en los seres vivos. Todo ello, conduce a la formulación de lo que se denominaría cibernética en su trabajo "Cybernetics" de 1948 publicado por el MIT press [Wiener 48].
A finales de la década de los cuarenta, surgen otras dos vías de desarrollo de la teoría de control: el Método del modelo de Truxal [Truxal 54] y el método del lugar de las Raíces, de Evans. Se presentan también aportaciones como la extensión de los métodos frecuenciales a sistemas no-lineales y a sistemas estocásticos.
El método del modelo es una adaptación del método de Guillemin desarrollado inicialmente para el diseño de redes pasivas. Partiendo de las especificaciones deseadas se obtiene la función de transferencia que debe seguir el sistema de control. El cálculo de la función de transferencia del regulador se realiza fácilmente por medio de operaciones álgebraicas. Este método resultaba atractivo dado que no utiliza la técnica de prueba y error. Pero se manifestaban en él algunas dificultades prácticas como podían ser la complejidad de los correctores que se obtienen, que dejaban de tener la estructura clásica PID.
Los trabajos de Evans:
"Graphical Analysis of Control Systems" [Evans 48].ambos recogidos en [Thaler 74], constituyen la última gran contribución a la teoría clásica de control. En palabras del propio autor "el lugar de las raíces determina todas las raíces de la ecuación diferencial de un sistema de control por medio de una representación gráfica, la cual permite una síntesis rápida de la respuesta transitoria o frecuencial deseada".
"Control System Synthesis by Root Locus Method" [Evans 50].
El método de Evans cuenta con el handicap de no poder abordar el análisis de sistemas con retraso puro y la difícil estimación de la respuesta temporal de sistemas con distribuciones dispersas de polos y ceros. A su favor, aporta un método gráfico de estimar la influencia de variaciones en los parámetros del sistema o del regulador sobre la estabilidad y el comportamiento dinámico de los sistemas.
David Moreno
17812731
EES
No hay comentarios:
Publicar un comentario