tag:blogger.com,1999:blog-68480529309158657242024-03-08T18:35:54.767-04:0026 Frequency Response and Stability of Feedback Amplifiers - conocimientos.com.veFrequency Response and Stability of Feedback Amplifiers. Relation Between Gain and Bandwidth in Feedback Amplifiers. Instability and the Nyquist Criterion. Compensation. Theory of Compensation. Methods of Compensation. Compensation. Compensation of Single-Stage CMOS OP Amps. Nested Miller Compensation. Root-Locus Techniques. Root Locus for a Three-Pole Transfer Function. Rules for Root-Locus Constructio. Root Locus for Dominant-Pole Compensation.Tecnología en Telecomunicaciones - conocimientos.com.vehttp://www.blogger.com/profile/13517798918797491823noreply@blogger.comBlogger57125tag:blogger.com,1999:blog-6848052930915865724.post-79326968133199310072010-07-26T22:21:00.001-04:302010-07-27T17:48:24.970-04:30India desarrolla el portátil más barato del mundo a 35 dólares<div class="mod" id="ynw-breaking"><br />
</div><img alt="http://www.microsblog.com/photos/800/871/001_small.jpg" src="http://www.microsblog.com/photos/800/871/001_small.jpg" /><br />
<br />
<div class="ynw-article-body mod"><div class="ynw-standfirst">India ha desarrollado el ordenador portátil más barato del mundo, que cuenta con una pantalla táctil y cuesta 35 dólares (unos 27 euros).<a class="offscreen" href="http://es.noticias.yahoo.com/10/20100723/ttc-oesen-tecnologia-india-laptop-fe50bdd.html#ynw-article-part2"></a></div><div id="ynw-article-part2">El ministro de Desarrollo de Recursos Humanos de India, Kapil Sibal, presentó esta semana el dispositivo de bajo coste, que fue diseñada para estudiantes, y dijo que su ministerio ha comenzado a negociar con fabricantes internacionales para iniciar su producción a gran escala.</div>"Hemos alcanzado una etapa (de desarrollo) en la que hoy, la placa base, su chip, el procesador, la conectividad, todos ellos cuestan de manera acumulativa cerca de 35 dólares, incluida la memoria, la pantalla, todo", dijo Sibal en una conferencia de prensa.<br />
Añadió que la computadora contiene navegadores de Internet, un lector de archivos en formato PDF y soporte informático para videoconferencias, pero su hardware fue creado con la suficiente flexibilidad para incorporar nuevos componentes según las necesidades del usuario.<br />
Sibal explicó que el ordenador, que funciona con el sistema operativo Linux, sería introducido en instituciones de educación superior desde 2011, pero que se buscaría reducir aún más su precio, primero a 20 dólares y finalmente a 10 dólares.<br />
El aparato fue desarrollado por equipos de investigación en los dos principales institutos tecnológicos de India, el Instituto Indio de Tecnología y el Instituto Indio de Ciencias.<br />
India gasta cerca de un 3 por ciento de su prepuesto anual en educación escolar y ha mejorado sus tasas de alfabetización por encima del 64 por ciento de su población de 1.200 millones de habitantes.<br />
Sin embargo, algunas informaciones han mostrado que muchos estudiantes tienen dificultades para leer o escribir, y la mayor parte de las escuelas estatales tiene instalaciones inadecuadas.<br />
David Moreno<br />
17812731<br />
ees<br />
</div>Tecnología en Telecomunicaciones - conocimientos.com.vehttp://www.blogger.com/profile/13517798918797491823noreply@blogger.com0tag:blogger.com,1999:blog-6848052930915865724.post-906534151090712832010-07-25T23:09:00.001-04:302010-07-27T17:48:07.056-04:30Avances tecnologicos<div class="itemhead"><h2>Cañón láser capaz de derribar un avión</h2><div class="chronodata"><br />
</div></div><div class="alignleft"></div><div style="text-align: center;"><img alt="" class="alignnone size-medium wp-image-6198" height="181" src="http://tecnomagazine.net/wp-content/imagenes/2010/07/Ca%C3%B1%C3%B3n-l%C3%A1ser-300x181.jpg" title="Cañón láser" width="300" /></div>Finalmente vivimos en un mundo en que un cañón láser es capaz de destruir un avión. Esto ha sido un sueño por años, y ahora la moderna <strong>tecnología</strong> lo hace posible con las aplicaciones de la compañía <strong>Raytheon</strong>.<br />
Denominado <strong>Laser Close-In Weapon System</strong>, la compañía lo ha revelado recientemente en una exposición en Inglaterra. Con su rayo de 50 kW ha derribado aviones no tripulados satisfactoriamente. De seguro que nadie quiere recibir un disparo de estos.<br />
<div class="itemhead"><h2>Impresionante escáner de próxima generación</h2><div class="chronodata"><br />
</div></div><div class="alignleft"></div><div style="text-align: center;"><img alt="" class="alignnone size-medium wp-image-6176" height="199" src="http://tecnomagazine.net/wp-content/imagenes/2010/07/ThruVision-TS4-300x199.jpg" title="ThruVision TS4" width="300" /></div>Hay dos problemas cuando la gente se va a hacer un escaneo (o una placa), obviamente la radiación es uno, y el otro es si el aparato revelará los detalles del cuerpo de la persona. Por esto, una compañía llamada <strong>ThruVision</strong> está desarrollando un sistema de próxima generación, moderna <strong>tecnología</strong> y libre de radiación… y además no revela ciertos detalles.<br />
Lo que único que el <strong>ThruVision TS4</strong> hace es buscar el calor corporal. Suena simple, pero podría ser muy bien usado en lugares como aeropuertos o cortes como detector de metales. Incluso es capaz de revelar armas o bombas mostrándolos como un punto negro, por lo que también será útil para combatir el tráfico de armas.<br />
<div class="itemhead"><h2>Kanguru lanza nueva línea de pendrives</h2></div><div class="alignleft"></div><div style="text-align: center;"><img alt="" class="alignnone size-full wp-image-6185" height="99" src="http://tecnomagazine.net/wp-content/imagenes/2010/07/Defender-Basic.jpg" title="Defender Basic" width="300" /></div><strong>Kanguru</strong> ha lanzado una nueva línea de dispositivos USB para el mercado, conocida como <strong>Defender Basic</strong>. Viene con capacidades de entre 2 GB y 128 GB, cuenta con interfaz USB 2.0 y tiene una velocidad de transferencia de 480 MB/s.<br />
<br />
<br />
<div class="itemhead"><h2>Vehículo 4×4 se transforma en helicóptero en menos de 1 minuto</h2><div class="chronodata"><br />
</div></div><div class="alignleft"></div><div style="text-align: center;"><img alt="" class="alignnone size-full wp-image-6144" height="275" src="http://tecnomagazine.net/wp-content/imagenes/2010/07/Auto-helic%C3%B3ptero.jpg" title="Auto-helicóptero" width="450" /></div>Los militares aveces tiene ideas tontas y aveces idea geniales, como esta. Una compañía de Texas (<strong>AVX Aircraft</strong>) ha desarrollado este <strong>vehículo 4×4 que es capaz de transformarse en un helicóptero</strong> en menos tiempo del que lleva fritar un huevo. Además es capaz de atravesar 400 kilómetros por tierra y aire con un tanque de combustible. Las palas tampoco son un problema si hay que pasar por un camino estrecho.<br />
<div style="text-align: center;"><img alt="" class="alignnone size-full wp-image-6145" height="301" src="http://tecnomagazine.net/wp-content/imagenes/2010/07/Auto-helic%C3%B3ptero-2.jpg" title="Auto-helicóptero - 2" width="450" /></div><ins style="border: medium none; display: inline-table; height: 250px; margin: 0pt; padding: 0pt; position: relative; visibility: visible; width: 250px;"></ins><ins style="border: medium none; display: inline-table; height: 250px; margin: 0pt; padding: 0pt; position: relative; visibility: visible; width: 250px;"></ins><br />
<br />
<div class="itemhead"><h2>Edificio que enciende sus luces para mostrar el clima de mañana </h2></div><div class="alignleft"></div><div style="text-align: center;"><img alt="" class="alignnone size-medium wp-image-6124" height="239" src="http://tecnomagazine.net/wp-content/imagenes/2010/07/Dexia-Tower-300x239.jpg" title="Dexia Tower" width="300" /></div>Ya no es necesario ver cómo estará el clima mañana por medio de las noticias o enterarte por tu móvil, mejor <strong>mira un edificio de 6000 ventanas con 72000 luces LED</strong>. Si estás cerca de la <strong>Dexia Tower</strong> en Bruselas sólo necesitas darle una ojeada a los colores y sabrás como estará el tiempo mañana.<br />
Tan pronto los residentes locales aprendan el código podrán saber la temperatura, humedad, velocidad del viento y precipitaciones de mañana. El código es un misterio para mí, si alguien lo conoce por favor escribirlo en un comentario.<br />
<div class="itemhead"><h2>ADB provee a China e India con $2,25 billones de dólares para desarrollo de energía solar</h2></div><div class="alignleft"></div><div style="text-align: center;"><img alt="" class="alignnone size-full wp-image-6102" height="681" src="http://tecnomagazine.net/wp-content/imagenes/2010/07/Iniciativa-de-energ%C3%ADa-solar-en-Asia.jpg" title="Iniciativa de energía solar en Asia" width="450" /></div>Los países que están cercanos al ecuador suelen recibir más rayos solares que los que están más alejados. Y como varios países asiáticos se encuentran un poco cerca de dicha línea, podrían producir energía solar eficientemente. Y para eso, para alimentar esos países con energía solar, el <strong>Banco de Desarrollo Asiático</strong> (<strong>ADB</strong> por sus siglas en inglés), ha puesto $2,25 billones de dólares a disposición de China e India hasta 2013 para ayudar en el desarrollo de energía solar.<br />
Ya son varios los países del mundo que están empezando a emplear la <strong>tecnología</strong> de los paneles solares como fuente alternativa de energía.<br />
David Moreno<br />
17812731<br />
EESTecnología en Telecomunicaciones - conocimientos.com.vehttp://www.blogger.com/profile/13517798918797491823noreply@blogger.com0tag:blogger.com,1999:blog-6848052930915865724.post-90511295888838297362010-07-25T23:02:00.002-04:302010-07-27T17:47:50.961-04:30Represa de Itaipú (Brasil - Paraguay)<table class="infobox_v2" style="line-height: 1.4em; padding: 0.23em; text-align: left; width: 22.7em;"><tbody>
<tr> <th class="cabecera puente" colspan="2" style="background-color: #cedaf2; text-align: center;">Represa de Itaipú</th> </tr>
<tr> <td class="" colspan="2" style="text-align: center;"><img alt="ItaipuAerea2AAL.jpg" height="163" src="http://upload.wikimedia.org/wikipedia/commons/thumb/b/b8/ItaipuAerea2AAL.jpg/250px-ItaipuAerea2AAL.jpg" width="250" /></td> </tr>
<tr> <th class="" colspan="2" style="background-color: #cedaf2; text-align: center;">Características del embalse</th> </tr>
<tr class=""> <td style="font-weight: bold; text-align: left;">Capacidad</td> <td class="">29000 Hm³</td> </tr>
</tbody></table><div class="thumb tright"><div class="thumbinner" style="width: 270px;"><img alt="" class="thumbimage" height="201" src="http://upload.wikimedia.org/wikipedia/commons/thumb/b/b5/Itaipu_noche.JPG/268px-Itaipu_noche.JPG" width="268" /> <br />
<div class="thumbcaption"><div class="magnify"><br />
</div>Itaipú, iluminada de noche.</div></div></div>La <b>represa hidroeléctrica de Itaipú</b> (del guaraní, «piedra que suena»), es una empresa binacional entre Paraguay y Brasil. Está ubicada sobre el río Paraná en la frontera entre estos dos países, <span class="plainlinksneverexpand"><img alt="" class="noprint" src="http://upload.wikimedia.org/wikipedia/commons/thumb/9/9a/Erioll_world.svg/15px-Erioll_world.svg.png" style="cursor: pointer; padding: 0px 3px 0px 0px;" title="mostrar el lugar en un mapa interactivo" /><span class="geo-default"><span class="geo-dms" title="Mapas, fotos y otros datos de 25°24′S 54°35′O"><span class="latitude">25°24′S</span> <span class="longitude">54°35′O</span></span></span><span class="geo-multi-punct"> / </span><span class="geo-nondefault"><span class="geo-dec geo" title="Fotos, mapas y otros datos de -25.4 -54.583"><span class="latitude">-25.4</span>, <span class="longitude">-54.583</span></span></span></span><span id="coordinates">Coordenadas: <span class="plainlinksneverexpand"><img alt="" class="noprint" src="http://upload.wikimedia.org/wikipedia/commons/thumb/9/9a/Erioll_world.svg/15px-Erioll_world.svg.png" style="cursor: pointer; padding: 0px 3px 0px 0px;" title="mostrar el lugar en un mapa interactivo" /><span class="geo-default"><span class="geo-dms" title="Mapas, fotos y otros datos de 25°24′S 54°35′O"><span class="latitude">25°24′S</span> <span class="longitude">54°35′O</span></span></span><span class="geo-multi-punct"> / </span><span class="geo-nondefault"><span class="geo-dec geo" title="Fotos, mapas y otros datos de -25.4 -54.583"><span class="latitude">-25.4</span>, <span class="longitude">-54.583</span></span></span></span></span> en la ciudad de Hernandarias, a 14 km al norte del Puente de la Amistad. Es la Central Hidroeléctrica más grande del mundo, y según algunos expertos, sera difícil superarla.<br />
El área implicada en el proyecto se extiende desde Foz do Iguaçu, en el Brasil, y Ciudad del Este, en el Paraguay, al sur, hasta Guaíra (Brasil) y Salto del Guairá (Paraguay), al norte. El lago artificial de la represa contiene 29000 Hm³ de agua, con unos 200 km de extensión en línea recta, y un área aproximada de 1400 km².<br />
La potencia de generación electrohidráulica instalada es de 14 GW, con 20 turbinas generadoras de 700 MW. En el año 2000 tuvo su récord de producción con 93400 de GWh, generando el 95% de la energía eléctrica consumida en Paraguay y el 24% de la de Brasil.<br />
La energía generada por Itaipú destinada al Brasil es distribuida por la empresa Furnas Centrales Eléctricas S.A., y la energía destinada a Paraguay es distribuida por la Administración Nacional De Electricidad (ANDE).<br />
<table class="toc" id="toc"><tbody>
<tr> <td><br />
</td> </tr>
</tbody></table><h2><span class="editsection"></span><span class="mw-headline" id="Historia">Historia</span></h2><h3><span class="editsection"></span><span class="mw-headline" id="Negociaciones_entre_Brasil_y_Paraguay">Negociaciones entre Brasil y Paraguay</span></h3><div class="thumb tright"><div class="thumbinner" style="width: 270px;"><img alt="" class="thumbimage" height="176" src="http://upload.wikimedia.org/wikipedia/commons/thumb/6/69/Itaipu_35552.jpg/268px-Itaipu_35552.jpg" width="268" /> <br />
<div class="thumbcaption"><div class="magnify"><br />
</div>CCR - Central Control Room (Cuarto Central de Control)</div></div></div>La represa de Itaipú es el resultado de intensas negociaciones entre los dos países durante la década del 1960. El 22 de junio de 1966, el ministro de Relaciones Exteriores del Brasil (Juracy Magalhães) y el de Paraguay (Sapena Pastor), firmaron el «Acta de Iguazú», una declaración conjunta que manifiesta la predisposición para estudiar el aprovechamiento de los recursos hídricos pertenecientes a los dos países, en el trecho del Río Paraná «desde e inclusive el Salto de Sete Quedas hasta el estuario del Río Iguazú». Una de las cláusulas del proyecto firmado por ambos países prevé que el excedente de energía que no es utilizado por uno de los países será vendida en exclusividad al otro país participante del proyecto.<br />
<h3><span class="editsection">I</span><span class="mw-headline" id="Inicio_de_la_obra">nicio de la obra</span></h3>En 1970 el consorcio formado por las empresas Industrial Electric Company (IECO) de los Estados Unidos y ELC Electroconsult S.p.A. de Italia ganaron el concurso internacional para la realización de los estudios de probabilidades y para la elaboración del proyecto de la obra. El inicio del trabajo se dio en febrero de 1971. El 26 de abril de 1973, Brasil y Paraguay firmaron el Tratado de Itaipú, instrumento legal para el aprovechamiento hidroeléctrico del río Paraná por los dos países. El 17 de mayo de 1974, fue creada la entidad binacional Itaipú, para la administración de la construcción de la represa. El inicio efectivo de las obras ocurrió en enero del año siguiente.<br />
<h3><span class="editsection"></span><span class="mw-headline" id="Desv.C3.ADo_del_R.C3.ADo_Paran.C3.A1">Desvío del Río Paraná</span></h3><div class="thumb tright"><div class="thumbinner" style="width: 270px;"><img alt="UsinaItaipu2005.jpg" class="thumbimage" height="195" src="http://upload.wikimedia.org/wikipedia/commons/thumb/c/c3/UsinaItaipu2005.jpg/268px-UsinaItaipu2005.jpg" width="268" /> <br />
<div class="thumbcaption"><div class="magnify"><br />
</div></div></div></div>El 14 de octubre de 1978 fue abierto el canal de desvío del río Paraná, que permitió secar el trecho del lecho original del río para poder ahí construir la represa principal, en hormigón.<br />
<h3><span class="editsection"></span> <span class="mw-headline" id="Acuerdo_entre_Brasil.2C_Paraguay_y_Argentina">Acuerdo entre Brasil, Paraguay y Argentina</span></h3>Otro marco importante, en lo que respecta a la diplomacia, fue la firma del Acuerdo Tripartito entre Brasil, Paraguay y Argentina, el 19 de octubre de 1979, para el aprovechamiento de recursos hidroeléctricos en el trecho del río Paraná desde las Siete Quedas hasta el estuario del Río de la Plata. Este acuerdo estableció los niveles del río y las variaciones permitidas para los diferentes emprendimientos hidroeléctricos para los tres países. En aquella época en la que los tres países eran gobernados por dictaduras militares, había temor en la Argentina de que en un eventual conflicto con el Brasil se abriesen las compuertas de Itaipú, inundando la ciudad de Buenos Aires.<br />
<h3><span class="editsection"></span><span class="mw-headline" id="Surgimiento_de_la_reserva">Surgimiento de la reserva</span></h3><div class="thumb tright"><div class="thumbinner" style="width: 270px;"><img alt="" class="thumbimage" height="182" src="http://upload.wikimedia.org/wikipedia/commons/thumb/e/ea/Medio_ambiente_-_Itaip%C3%BA.jpg/268px-Medio_ambiente_-_Itaip%C3%BA.jpg" width="268" /> <br />
<div class="thumbcaption"><div class="magnify"><br />
</div>Vista aérea de parte de la represa</div></div></div>La reserva de la represa comenzó a ser creada el 16 de octubre de 1979, cuando fueron concluidas las primeras obras de la represa y las compuertas del canal de desvío fueron cerradas. En ese tiempo las aguas subieron 100 m y llegaron a las compuertas del viaducto, a las 10.00 del 27 de octubre, debido a las fuertes e incesantes lluvias ocurridas en aquella época.<br />
Cabe mencionar que con la formación del embalse, desaparecieron los Saltos del Guairá en el curso medio del río Paraná.<br />
<h3><span class="editsection"></span><span class="mw-headline" id="Inicio_de_las_operaciones">Inicio de las operaciones</span></h3>El 5 de mayo de 1984, entró en operación la primera turbina de Itaipú, y se prosiguió con la instalación al ritmo de dos a tres por año.<br />
<h3><span class="editsection"></span><span class="mw-headline" id="Aumento_de_la_capacidad_proyectado_para_el_2007">Aumento de la capacidad proyectado para el 2007</span></h3>La represa amplió su capacidad instalada de 12.600 MW a 14.000, con la entrada en operación de las dos últimas unidades generadoras 9A y 18A a inicios de 2007, completando el proyecto original de 20 turbinas.<br />
Itaipú produce en promedio 90 millones de megavatios-hora (MWh) por año, aunque con el aumento de la capacidad y en condiciones favorables del río Paraná (la hidrología y el consumo en Brasil, principalmente durante los fines de semana y festivos, días en que actualmente se produce una caída muy grande) se puede llegar a incrementar esa cantidad. Itaipú ostenta el récord mundial de 94,7 millones de MWh.<br />
El aumento de la capacidad permite que 18 de las 20 turbinas instaladas funcionen constantemente, mientras dos permanecen en mantenimiento.<br />
<h2><span class="editsection"></span><span class="mw-headline" id="Datos_t.C3.A9cnicos">Datos técnicos</span></h2><div class="thumb" style="width: 100%;"><div class="thumbinner"><div style="overflow-x: scroll; overflow-y: hidden;"><img alt="Vista panorámica de la Represa (Las compuertas del vertedero se encontraban cerradas en esta ocasión)." height="180" src="http://upload.wikimedia.org/wikipedia/commons/thumb/4/4e/Itaipu_D%C3%A9cembre_2007_-_Vue_G%C3%A9n%C3%A9rale.jpg/1500px-Itaipu_D%C3%A9cembre_2007_-_Vue_G%C3%A9n%C3%A9rale.jpg" width="1500" /></div><div class="thumbcaption">Vista panorámica de la Represa (Las compuertas del vertedero se encontraban cerradas en esta ocasión).</div></div></div><h3><span class="editsection"></span><span class="mw-headline" id="Represa">Represa</span></h3>La represa, de 7.700 m, está hecha de concreto, roca y tierra.<br />
<h3><span class="editsection"></span><span class="mw-headline" id="Unidades_generadoras">Unidades generadoras</span></h3><div class="thumb tright"><div class="thumbinner" style="width: 211px;"><img alt="" class="thumbimage" height="320" src="http://upload.wikimedia.org/wikipedia/commons/8/8c/Itaipu_35551.jpg" width="209" /> <br />
<div class="thumbcaption"><div class="magnify"><br />
Interior de una turbina</div></div></div></div><ul><li>Existen 20 unidades generadoras, estando diez en la frecuencia de la red eléctrica paraguaya (50 Hz) y diez en la frecuencia de la red eléctrica brasileña (60 Hz).</li>
<li>Las unidades de 50 Hz tienen una potencia nominal de 823,6 MVA, factor de potencia de 0,85 y peso de 3.343 t.</li>
<li>Las unidades de 60 Hz tienen potencia nominal de 737,0 MVA, factor de potencia de 0,95 y peso de 3.242 t</li>
<li>Todas las unidades tienen tensión nominal de 18 kV.</li>
<li>Las turbinas U07 son del tipo turbina Francis, con potencia nominal de 715 MW y caudal nominal de 645 m³/s</li>
</ul><h3><span class="editsection"></span><span class="mw-headline" id="Subestaci.C3.B3n">Subestación</span></h3>La subestación de la represa está aislada por el gas hexafluoruro de azufre (<b>SF<sub>6</sub></b>), que permite una gran compactación del proyecto. Para cada grupo generador existe un banco de transformadores monofásicos, elevando la tensión de 18 kV a 500 kV.<br />
<h3><span class="editsection"></span><span class="mw-headline" id="Sistema_de_transmisi.C3.B3n">Sistema de transmisión</span></h3><h4><span class="editsection"></span><span class="mw-headline" id="Salida_de_la_represa">Salida de la represa</span></h4><ul><li><b>Itaipú - SE Foz do Iguaçu</b>: 4 líneas de transmisión de 500 kV transmiten toda la energía del sector de 60 Hz, con 8 km de extensión. La subestación de Foz do Iguaçu eleva la tensión a 750 kV.</li>
<li><b>Itaipú - SE Margen derecha</b>: 2 líneas de transmisión de 500 kV, 2 km.</li>
<li><b>SE margen derecha - Foz do Iguaçu</b>: 2 líneas de transmisión de 500 kV, 9 km. Transmite la reventa del Paraguay al Brasil.</li>
<li><b>Itaipu - SE Foz do Iguaçu</b>: 2 líneas de transmisión de 500 kV, 11 km. Transmite directamente parte del sector de 50 Hz al Brasil.</li>
</ul><h4><span class="editsection"></span><span class="mw-headline" id="Subestaci.C3.B3n_Foz_do_Igua.C3.A7u">Subestación Foz do Iguaçu</span></h4>Pertenciente a Furnas, está dividida en dos sectores:<br />
<ul><li>El patio de corriente alterna, que recibe la energía en 60 Hz y la eleva a 750 kV, saliendo tres líneas de transmisión. Es el nivel de tensión más elevado de Brasil.</li>
<li>El patio de corriente continua, que recibe la energía en 50 Hz. Debido a la incompatibilidad entre las frecuencias, y las ventajas de la transmisión en grandes distancias, la energía es convertida a través de circuitos rectificadores para ±600 kV es transmitida por dos líneas hasta Ibiúna (En el estado de São Paulo, Brasil). En Ibiúna la energía es convertida a 60 Hz, conectándose al sistema de la Región Sudeste del Brasil.</li>
</ul><h2><span class="editsection"></span><span class="mw-headline" id="Compensaciones_financieras">Compensaciones financieras</span></h2><div class="thumb tright"><div class="thumbinner" style="width: 270px;"><img alt="Itaipu 35557.jpg" class="thumbimage" height="176" src="http://upload.wikimedia.org/wikipedia/commons/thumb/4/47/Itaipu_35557.jpg/268px-Itaipu_35557.jpg" width="268" /> <br />
<div class="thumbcaption"><div class="magnify"><br />
</div></div></div></div>En los 170 km de extensión, entre Foz do Iguaçu y Guaíra, la Reserva de Itaipú se extiende por 16 municipios de Brasil, de los cuales 15 están en el estado de Paraná y uno en el de Mato Grosso do Sul. Itaipú paga como compensación a estos municipios, proporcionalmente al área de tierra inundada. También reciben compensaciones los gobiernos de estos dos estados y diversos órganos federales. En cuanto a Paraguay, la compensación la recibe íntegramente el Estado.<br />
Con base en la llamada "Ley de los Royalties", promulgada en 1991, Itaipú ha pagado hasta hoy más de 3.130 millones en royalties, de los cuales cerca de 75% fueron pagados en el estado de Paraná, (a partes iguales entre el gobierno del Estado y los municipios)<sup class="reference" id="cite_ref-0">.<a href="http://es.wikipedia.org/wiki/Itaipu#cite_note-0"><span class="corchete-llamada"></span><span class="corchete-llamada"></span></a></sup><br />
<br />
<br />
<h2><span class="editsection"></span><span class="mw-headline" id="Maravilla_de_la_ingenier.C3.ADa">Maravilla de la ingeniería</span></h2><div class="thumb tright"><div class="thumbinner" style="width: 270px;"><img alt="" class="thumbimage" height="201" src="http://upload.wikimedia.org/wikipedia/commons/thumb/d/d0/Itaipu.jpg/268px-Itaipu.jpg" width="268" /> <br />
<div class="thumbcaption"><div class="magnify"><br />
</div>Represa de Itaipú desde el lado brasileño.</div></div></div>La Represa Hidroeléctrica de Itaipú forma parte de la lista de las Siete Maravillas del Mundo moderno,<sup class="reference" id="cite_ref-1"><span class="corchete-llamada"> </span><span class="corchete-llamada"></span></sup>elaborada en 1995 por la revista <i>Popular Mechanics</i>, de Estados Unidos. Esta lista fue hecha a base de una investigación realizada por la American Society of Civil Engineers (ASCE) en 1994 entre ingenieros de los más diversos países.considerada además como la Represa más grande del mundo el cual no pudo ser superada por la Presa de las Tres Gargantas , China<br />
Además de Itaipú, forman parte de la lista: el Puente Golden Gate (EE.UU.); el Canal de Panamá, que une el Océano Atlántico con el Pacífico; el Eurotúnel, que une Francia e Inglaterra en el Canal de la Mancha; los Proyectos del Mar del Norte para el Control de las Aguas (Países Bajos); el Edificio Empire State (EE.UU.); y la Torre de Canadian National (<i>CN Tower</i>) en Canadá.<br />
<h2><span class="editsection"></span><span class="mw-headline" id="Datos_curiosos">Datos curiosos</span></h2><h3><span class="editsection"></span><span class="mw-headline" id="Hormig.C3.B3n">Hormigón</span></h3>La cantidad de hormigón usada en la construcción de la represa hidroeléctrica de Itaipú es el equivalente a 210 estadios de fútbol del tamaño del Maracaná, de Brasil. La colosal obra del Puente de la Amistad fue concluida en 1962 e inaugurada el 27 de marzo de 1965.<br />
<h3><span class="editsection"></span><span class="mw-headline" id=".22Salve_animales.22"></span><span class="editsection"></span><span class="mw-headline" id="Dimensiones">Dimensiones</span></h3><div class="thumb tright"><div class="thumbinner" style="width: 270px;"><img alt="" class="thumbimage" height="176" src="http://upload.wikimedia.org/wikipedia/commons/thumb/2/25/Itaipu_35556.jpg/268px-Itaipu_35556.jpg" width="268" /> <br />
<div class="thumbcaption"><div class="magnify"><br />
</div>Vista de las tuberías forzadas</div></div></div>La altura de la represa es el equivalente a un edificio de 65 pisos.<br />
<h3><span class="editsection"></span><span class="mw-headline" id="Trabajadores">Trabajadores</span></h3>La construcción involucró directamente a 40.000 personas.<br />
<h3><span class="editsection"></span><span class="mw-headline" id="Moviendo_monta.C3.B1as">Moviendo montañas</span></h3>En la construcción fue necesario extraer más de 50 millones de toneladas entre tierra y piedras.<br />
<h2><span class="editsection"></span><span class="mw-headline" id="Brasiguayos">Brasiguayos</span></h2>La laguna de la represa inundó diversas propiedades de habitantes del extremo oeste del estado brasileño de Paraná. Las indemnizaciones no fueron suficientes para que los agricultores compraran tierras nuevas en el Brasil. Siendo las tierras más económicas en el Paraguay, miles de ellos emigraron para ese país, creando el fenómeno social conocido como los brasiguayos – brasileños con sus familias que residen en tierras paraguayas en la frontera con el Brasil.<br />
<h2><span class="editsection"></span><span class="mw-headline" id="Tabla_de_generaci.C3.B3n_por_a.C3.B1o">Tabla de generación por año</span></h2><div class="thumb tright"><div class="thumbinner" style="width: 302px;"><img alt="" class="thumbimage" height="225" src="http://upload.wikimedia.org/wikipedia/commons/thumb/b/b2/Itaipu_171.jpg/300px-Itaipu_171.jpg" width="300" /> <br />
<div class="thumbcaption"><div class="magnify"><br />
</div>El vertedero en acción</div></div></div><div class="thumb tright"><div class="thumbinner" style="width: 252px;"><img alt="" class="thumbimage" height="203" src="http://upload.wikimedia.org/wikipedia/commons/thumb/a/a2/Parag.1973yr.Itaip%C3%BA.jpeg/250px-Parag.1973yr.Itaip%C3%BA.jpeg" width="250" /> <br />
<div class="thumbcaption"><div class="magnify"><br />
</div>Sello de correos con la imagen de la represa de Itaipú</div></div></div><table class="wikitable" style="text-align: right;"><caption>Producción anual de energía</caption> <tbody>
<tr> <th>Año</th> <th>Número de<br />
unidades instaladas</th> <th>GWh</th> </tr>
<tr> <td>1984</td> <td>0–2</td> <td>276</td> </tr>
<tr> <td>1985</td> <td>2–3</td> <td>6.327</td> </tr>
<tr> <td>1986</td> <td>3–6</td> <td>21.853</td> </tr>
<tr> <td>1987</td> <td>6–9</td> <td>35.807</td> </tr>
<tr> <td>1988</td> <td>9–12</td> <td>38.508</td> </tr>
<tr> <td>1989</td> <td>12–15</td> <td>47.230</td> </tr>
<tr> <td>1990</td> <td>15–16</td> <td>53.090</td> </tr>
<tr> <td>1991</td> <td>16–18</td> <td>57.517</td> </tr>
<tr> <td>1992</td> <td>18</td> <td>52.268</td> </tr>
<tr> <td>1993</td> <td>18</td> <td>59.997</td> </tr>
<tr> <td>1994</td> <td>18</td> <td>69.394</td> </tr>
<tr> <td>1995</td> <td>18</td> <td>77.212</td> </tr>
<tr> <td>1996</td> <td>18</td> <td>81.654</td> </tr>
<tr> <td>1997</td> <td>18</td> <td>89.237</td> </tr>
<tr> <td>1998</td> <td>18</td> <td>87.845</td> </tr>
<tr> <td>1999</td> <td>18</td> <td>90.001</td> </tr>
<tr> <td>2000</td> <td>18</td> <td><b>93.428</b></td> </tr>
<tr> <td>2001</td> <td>18</td> <td>79.307</td> </tr>
<tr> <td>2002</td> <td>18</td> <td>82.914</td> </tr>
<tr> <td>2003</td> <td>18</td> <td>89.151</td> </tr>
<tr> <td>2004</td> <td>18</td> <td>89.911</td> </tr>
<tr> <td>2005</td> <td>18</td> <td>87.971</td> </tr>
<tr> <td>2006</td> <td>19</td> <td>92.690</td> </tr>
<tr> <td>2007</td> <td>20</td> <td>90.620</td> </tr>
<tr> <td>2008</td> <td>20</td> <td><b>94.685</b></td> </tr>
<tr style="background-color: #ccccff;"> <td>Total</td> <td>20</td> <td>1.668.894</td> </tr>
</tbody></table><h3><span class="editsection"></span><span class="mw-headline" id="Itaip.C3.BA_con_nuevo_r.C3.A9cord_hist.C3.B3rico_de_producci.C3.B3n_en_el_2008">Itaipú con nuevo récord histórico de producción en el 2008</span></h3><div class="thumb tright"><div class="thumbinner" style="width: 352px;"><img alt="" class="thumbimage" height="233" src="http://upload.wikimedia.org/wikipedia/commons/thumb/1/1c/Itaipu_1172.JPG/350px-Itaipu_1172.JPG" width="350" /> <br />
<div class="thumbcaption"><div class="magnify"><br />
</div>Paraguayos y brasileños trabajan juntos para lograr un nuevo record para la mayor hidroeléctrica del mundo en producción de energía.</div></div></div>En el 2008, la represa de Itaipú alcanzó un nuevo récord histórico de producción de energía, con la generación de 94.684.781 MWh. El récord anterior era en el 2000, cuando Itaipú generó 93.427.598 MWh.<sup class="reference" id="cite_ref-3"><span class="corchete-llamada"></span><span class="corchete-llamada"></span></sup><br />
Esta cantidad de energía nunca ha sido alcanzado por ninguna otra represa hidroeléctrica en el mundo. La Presa de las Tres Gargantas, que se encuentra en la China sobre el río Yang Tse, no podrá exceder a Itaipú en la producción de energía. Cuando esté terminada, la planta china tendrá 22400 MW de capacidad instalada, en comparación con 14 mil megavatios de Itaipú. La ventaja que posee Itaipú sobre las Tres Gargantas es la situación del agua: el Río Paraná, donde se encuentra la Itaipú, tiene un gran volumen de agua todo el año.<sup class="reference" id="cite_ref-4"><a href="http://es.wikipedia.org/wiki/Itaipu#cite_note-4"><span class="corchete-llamada"></span><span class="corchete-llamada"></span></a></sup><br />
La energía producida por Itaipú en el 2008 sería suficiente para abastecer el consumo de electricidad de todo el mundo durante dos días; o para satisfacer por un año un país como la Argentina, y a Paraguay para abastecerlo durante once años. Por otra parte, durante un año podría satisfacer el consumo de electricidad de veintitrés ciudades del tamaño de Curitiba. Para llegar a esta producción, según explicó el ingeniero Ramón Sienra, se tuvo que optimizar al máximo la producción mediante un eficiente mantenimiento de las máquinas y el control permanente del sistema de generación de energía.<br />
El director paraguayo de la Binacional Itaipú, Carlos Mateo Balmelli se mostró muy contento por el nuevo récord "Igualmente hemos tenido la importante ayuda de la naturaleza que nos brindó el caudal suficiente de agua, ya que de nada hubiera servido tener las mejores máquinas sin combustible", especificó.<br />
Ratificó que la hidroeléctrica ostenta el récord mundial desde el 2000 y ahora se supera a sí misma con esta nueva marca "que constituye un orgullo para los dos países y, en especial, para una pequeña nación como el Paraguay".<br />
Resaltó además la gestión operativa de los técnicos paraguayos y brasileños que están trabajando diariamente en la usina.<br />
<h2><span class="editsection"></span><span class="mw-headline" id="Ranking_de_pa.C3.ADses_con_mayor_n.C3.BAmero_de_visitantes.">Ranking de países con mayor número de visitantes a la represa.<br />
</span></h2><table class="wikitable" style="text-align: right;"><caption>Tabla de visitantes por países.</caption> <tbody>
<tr> <th>Puesto</th> <th>País</th> <th>personas</th> </tr>
<tr> <td>1º</td> <td>Brasil</td> <td>6.753.989</td> </tr>
<tr> <td>2º</td> <td>Argentina</td> <td>3.506.539</td> </tr>
<tr> <td>3º</td> <td>Paraguay</td> <td>1.936.748</td> </tr>
<tr> <td>4º</td> <td>Alemania</td> <td>326.442</td> </tr>
<tr> <td>5º</td> <td>Uruguay</td> <td>254.409</td> </tr>
<tr> <td>6º</td> <td>Chile</td> <td>236.162</td> </tr>
<tr> <td>7º</td> <td>España</td> <td>232.218</td> </tr>
<tr> <td>8º</td> <td>EE.UU.</td> <td>213.202</td> </tr>
<tr> <td>9º</td> <td>Francia</td> <td>173.860</td> </tr>
<tr> <td>10º</td> <td>Italia</td> <td>152.160</td> </tr>
<tr> <td>11º</td> <td>Japón</td> <td>144.519</td> </tr>
<tr> <td>12º</td> <td>China</td> <td>101.652</td> </tr>
<tr> <td>13º</td> <td>Suiza</td> <td>85.720</td> </tr>
<tr> <td>14º</td> <td>Reino Unido</td> <td>67.982</td> </tr>
<tr> <td>15º</td> <td>Corea del Sur</td> <td>61.503</td> </tr>
<tr> <td>16º</td> <td>Colombia</td> <td>59.022</td> </tr>
<tr> <td>17º</td> <td>Holanda</td> <td>58.772</td> </tr>
<tr> <td>18º</td> <td>Perú</td> <td>53.055</td> </tr>
<tr> <td>19º</td> <td>México</td> <td>49.085</td> </tr>
<tr> <td>20º</td> <td>Portugal</td> <td>45.862</td> </tr>
<tr> <td>21º</td> <td>Otros países</td> <td>425.117</td> </tr>
<tr> <td><br />
</td> <td>Total de visitantes</td> <td>15.000.000<br />
<br />
<br />
<br />
<br />
DAVID MORENO<br />
17812731<br />
EES</td></tr>
</tbody></table>Tecnología en Telecomunicaciones - conocimientos.com.vehttp://www.blogger.com/profile/13517798918797491823noreply@blogger.com0tag:blogger.com,1999:blog-6848052930915865724.post-39987480832917542142010-07-25T21:07:00.001-04:302010-07-27T17:47:31.187-04:30Diez avances tecnológicos que cambiarán su vida<h1><span style="font-size: xx-small;"><b>_</b></span><br />
</h1>Comienza 2010 y las promesas tecnológicas son muchas y variadas. Será el año de la televisión en tres dimensiones, la consolidación de Google como el rey de la Red o la esperada llegada del tablet de Apple. La información que hasta ahora guardábamos en los ordenadores pasará a formar parte de una gran red o "nube" y las pantallas táctiles o los lectores de libros electrónicos intentarán desbancar a los antiguos monitores y al papel tradicional.<br />
Estas son los diez avances tecnológicos que esperamos tener a lo largo de este año:<br />
<strong>La información en la red: Cloud computing</strong><br />
El año que comienza será el definitivo para la implantación del "Cloud Computing", un nuevo servicio que va a revolucionar el almacenamiento de datos y relaciones. Gran parte de la información que hasta ahora guardábamos en nuestros equipos y que dependían del sistema operativo, pasarán a formar parte de la red (the cloud, las nubes).<br />
<div class="izquierda"><div class="columnasumario"><div class="foto" style="width: 400px;"><img alt="[foto de la noticia]" border="0" height="300" src="http://estaticos01.expansion.com/imagenes/2010/01/15/1263578984_extras_ladillos_3_0.jpg" width="400" /></div></div></div>La posibilidad de contar con servicios "en la nube" serán palpables en el 2010 con las apuestas de empresas como Google y Microsoft. El buscador presentará su sistema operativo Google Chrome que mantendrá almacenada en un espacio virtual la información que tienen los usuarios en sus computadoras. Microsoft, por su parte, acaba de anunciar que el próximo febrero comenzará la comercialización de Azure, plataforma con la que pretende colarse en los servicios de cloud computing.<br />
<strong>Apple y su esperado Tablet</strong><br />
Poco se puede decir del anunciado Tablet de Apple, a pesar de que en el último año se ha hablado largo y tendido del gran lanzamiento de la compañía de Steve Jobs. Desde 2009 los rumores sobre su fecha de lanzamientos han sido constantes, pero Apple no ha confirmado nada al respecto.<br />
En principio se trataría de un gadget que cubriría el espacio existente entre el iPhone y el Macbook, siendo una fusión entre ambos. Se espera que el nuevo juguete sea algo revolucionario, pero, ¿podrá Apple repetir el éxito del iPhone con su Tablet?<br />
<strong>Google, rey de redes</strong><br />
Hace tan sólo unas semanas Google lanzaba el primer teléfono móvil de la compañía, el Nexus One. Diseñado por la empresa taiwanesa HTC, el celular cuenta con múltiples funciones y avances que suponen una competencia directa para la Blackberry y el iPhone. Pero 2010 supone para Google otro gran paso hacia delante, su incursión definitiva en el mundo del 'hardware' y nada menos que con un 'netbook'. Por el momento el buscador no va a comenzar a ensamblar portátiles, pero ya está confirmado que está colaborando con varios fabricantes de computadores para producir netbooks que funcionen con el sistema operativo Google Chrome OS.<br />
La principal novedad que presentaría el sistema operativo de Google, según los blogs tecnológicos, es la ausencia de disco duro tradicional, ya que se servirá de memoria flash y de Internet para almacenar toda la información (Cloud Computing) evitando así filtraciones o mal funcionamiento de los programas, y permitiendo una mejor actualización de ellos.<br />
<strong>Televisión en tres dimensiones</strong><br />
Los avances tecnológicos en el área audiovisual no cesan y 2010 se presenta como el año de la imagen en 3D en casa. Grandes compañías electrónicas como Sony, Panasonic o Philips se están preparando para lanzar televisores de pantalla plana con capacidad para mostrar películas y videojuegos en alta definición en 3D.<br />
<div class="derecha"><div class="columnasumario"><div class="foto" style="width: 400px;"><img alt="[foto de la noticia]" border="0" height="300" src="http://estaticos02.expansion.com/imagenes/2010/01/15/1263578984_extras_ladillos_2_2.jpg" width="400" /></div></div></div>El nuevo aparato de televisión incorporará un método de pantalla 3D que genera versiones alternativas de la imagen para los ojos izquierdo y derecho, por lo que se necesitarán unas sencillas gafas sincronizadas que mostrarán la imagen completa de la pantalla. Pero incluso la necesidad de gafas 3D puede desaparecer el próximo año, pues Samsung ya ha presentado un prototipo para el que no se necesitarían.<br />
<strong>Monitores táctiles para el ordenador</strong><br />
Una de las estrellas de CES (Consumer Electronic Show), la feria de tecnología celebrada a principios de enero en Las Vegas fueron los monitores táctiles. Hewlett-Packard, Dell, Motorola y Lenovo están entre las empresas que presentaron dispositivos ultradelgados de pantalla táctil en la Feria Electrónica. Una avalancha de este nuevo concepto de ordenadores que pretenden hacer frente al esperado lanzamiento del Tablet de Apple.<br />
Estos nuevos dispositivos portátiles están repletos de recursos multimedia y de navegación por Internet, que pretenden ofrecer un producto a mitad de camino entre los teléfonos inteligentes y los ordenadores portátiles. Ya Windows 7 viene preparado para ello, así como otros sistemas operativos, pero es pronto para saber si conseguirán convencer a los consumidores.<br />
<strong>Papel electrónico flexible</strong><br />
Para los amantes del papel, el lector de libros electrónico es toda una amenaza, pero el avance en esta tecnología pretende decididamente sustituir a la celulosa. También anunciado y usado en forma limitada, muchos apuntan a 2010 como el año del despegue definitivo y parece que así va a ser. Durante la Feria Electrónica de las Vegas se presentó el Skiff Reader, una nueva opción de papel electrónico que tiene solo seis milímetros de grueso, una pantalla similar a las hojas tamaño carta, un peso de 450 gramos y, además, es flexible.<br />
Pero no ha sido el único. El fabricante surcoreano LG Display ha anunciado el lanzamiento de la pantalla electrónica flexible más fina y de mayor tamaño desarrollada hasta el momento, 19 pulgadas llamadas a ser el futuro de la lectura electrónica. El nuevo papel digital, de 0,3 milímetros de grosor (como tres billetes de 20 euros superpuestos), tiene las mismas dimensiones de un folio tamaño DINA3 y es ocho veces más grande que un libro electrónico, lo que permite transmitir la misma sensación de un periódico tradicional en blanco y negro.<br />
<strong>El cuerpo entero, el nuevo mando de videoconsola con el Proyecto Natal</strong><br />
La revolución en los videojuegos llega con el Proyecto Natal. Si la Wii introdujo movimientos del cuerpo para jugar, Microsoft quiere usar el cuerpo entero. Su lema es "el mando eres tú". La consola llevaría incorporada un dispositivo con videocámara y micrófono que reconoce al jugador, cómo se mueve y lo que dice, para una interactuación total.<br />
<div class="izquierda"><div class="columnasumario"><div class="foto" style="width: 281px;"><img alt="La nueva pantalla electrónica de LG tiene un grosor de 0,3mm" border="0" height="510" src="http://estaticos03.expansion.com/imagenes/2010/01/15/1263578984_extras_ladillos_1_0.jpg" width="281" /><br />
La nueva pantalla electrónica de LG tiene un grosor de 0,3mm</div></div></div>La compañía de Redmond propone una extensión para la Xbox 360 capaz de escanear lo que tiene enfrente, analizar y reproducir los movimientos que ve y de reconocer voces. Toda una revolución en la forma de jugar que deja atrás al revolucionario mando de la Wii y al ya completamente obsoleto "EyeToy" de Sony.<br />
<strong>Aumenta la velocidad con el USB 3.0.</strong><br />
La Feria Electrónica de Las Vegas también fue el escenario perfecto para la presentación del USB 3.0, una nueva versión ampliada de la tecnología USB que permite la transmisión de archivos hasta diez veces más rápido que con el actual USB 2.0.<br />
Además, es un puerto de alimentación inteligente -los dispositivos pasan a un estado de bajo consumo cuando no se necesitan- , funciona con un tercio de la energía que necesita el actual USB y es compatible con periféricos basados en la anterior generación. Ya hay varios fabricantes comprometidos en su instalación. Western Digital y Seagate, han anunciado discos externos equipados con USB 3.0. Asus, Fujitsu y HP tiene listos modelos de portátiles con el nuevo USB.<br />
<strong>Sin baterías, dispositivos móviles con hidrógeno</strong><br />
La falta de batería puede dejar de ser un problema a partir de 2010. Aunque no está muy claro su funcionamiento, se puede anticipar que la batería de hidrógeno para móviles ofrecerá el doble de capacidad que las convencionales y se cargará en menos de diez minutos.<br />
Aunque suene a ciencia ficción, la empresa Angstrom Power se encuentra en pleno desarrollo de estas baterías con hidrógeno que alcanzarán estas cifras.<br />
<strong>La llave inteligente MyKey</strong><br />
Ford presenta esta llave para el automóvil con tres objetivos fundamentales: permitir a los padres limitar la velocidad final del vehículo a 120 Km/h, limitar el volumen del equipo de sonido a un 44% de su capacidad y encender una alarma de seguridad cuando los cinturones no se estén utilizando. Además de ello, tambien puede activar automáticamente el ESP y emitir alarmas acústicas cuando se alcanzan los 72, 88 y 104 Km/h.<br />
El sistema MyKey se introducirá de serie este año en el Ford Focus Coupé estadounidense y rápidamente se ofrecerá en el resto de la gama.<br />
David Moreno<br />
17812731<br />
EESTecnología en Telecomunicaciones - conocimientos.com.vehttp://www.blogger.com/profile/13517798918797491823noreply@blogger.com0tag:blogger.com,1999:blog-6848052930915865724.post-30310540312875243292010-07-18T20:59:00.002-04:302010-07-25T08:53:03.161-04:30Avances Electronicos<h3 class="storytitle" id="post-3151" style="color: #009900;">Un transistor de 7 átomos operativo</h3><strong>Consiguen un transistor funcional compuesto por siete átomos que es diez veces más pequeño que los comerciales. </strong><br />
<table align="left" border="0" cellpadding="0" cellspacing="0" style="width: 270px;"><tbody>
<tr> <td><img alt="Foto" border="0" hspace="10" src="http://neofronteras.com/wp-content/photos/transistor_7_atomos.jpg" vspace="5" /> </td> </tr>
<tr> <td><table align="center" border="0" cellpadding="2" cellspacing="0"><tbody>
<tr> <td align="justify">Imagen de la plantilla del punto cuántico que muestra el agujero central donde van los siete átomos de fósforo. En la diagonal se aprecian los conectores que van al punto cuántico.</td> </tr>
</tbody></table></td> </tr>
</tbody></table>Hasta unas pocas décadas no habíamos visto los átomos. Sabíamos que existían, podíamos inferir su existencia pero no los podíamos ver directamente. Con la llegada de los microscopios electrónicos de cientos de kiloelectrón-voltios fue posible ver columnas de átomos y con los microscopios de fuerza atómica y efecto túnel fue posible palparlos y colocarlos donde quisiéramos. Han pasado ya 20 años desde que Don Eigler y Erhard Schweizer, del centro de investigación Almaden de IBM en San José, usaran un microscopio de efecto túnel para dibujar el logotipo de la compañía usando átomos individuales de xenón sobre una superficie de níquel. Es algo que Demócrito de Abdera ni siquiera era capaz de soñar. <span id="more-3151"></span><br />
Ahora, cuando estamos alcanzando los límites de la electrónica convencional de silicio empezamos a desarrollar la computación a escala prácticamente atómica. Recientemente científicos de University of Wisconsin-Madison y University of New South Wales han conseguido desarrollar un transistor compuesto por siete átomos. El descubriendo fue publicado en Nature Nanotechnology.<br />
El transistor está formado por un punto cuántico de siete átomos de fósforo embebido en un cristal de silicio. Pese a su tamaño este punto cuántico actúa como un dispositivo electrónico, siendo el primero en su género. Puede ser utilizado en el control y regulación de pequeñas corrientes eléctricas al igual que los transistores convencionales. Este logro representa un paso más en la miniaturización hasta la escala atómica de procesadores más rápidos y poderosos.<br />
Según Michelle Simmons, no solamente estamos moviendo átomos y mirándolos con microscopio, sino que estamos manipulando átomos individuales y colocándolos con precisión para realizar con ellos dispositivos electrónicos funcionales. El equipo de investigadores ha sido capaz de fabricar el dispositivo a partir de un cristal de silicio y colocar exactamente siete átomos de fósforo en el lugar deseado.<br />
Según este científico este logro tecnológico es un paso más hacia la demostración de que es posible la construcción del computador definitivo: un computador cuántico en silicio.<br />
La tecnología para colocar átomos en una superficie con un microscopio de efecto túnel ha estado presente durante dos décadas, pero nadie hasta ahora habría sido capaz de hacer dispositivos de escala atómica capaces de procesar señales electrónicas procedentes del mundo macroscópico.<br />
"Estamos comprobando los límites de cómo de pequeño puede ser un dispositivo electrónico", dice Simmons. Las primeras computadoras ocupaban salas enteras, pero ahora tenemos sistemas computacionales que caben en la palma de la mano y cuyos componentes son 1000 veces más pequeños que el grosor de un cabello humano. Este proceso de miniaturización ha estado presente en los últimos 50 años, permitiendo aumentar el crecimiento económico en la economía global. Según Simmons, este último logro demuestra que el proceso puede continuar.<br />
La meta principal de este equipo es crear un computador cuántico en silicio y este transistor demuestra que la tecnología para la fabricación a escala atómica acaba de llegar.<br />
En la actualidad el tamaño de un transistor de puerta comercial, que permite al mismo actuar como amplificador o interruptor de corrientes eléctricas, mide unos 40 nanometros. Este transistor de 7 átomos mide 10 veces menos: sólo 4 nanometros.<br />
En el artículo se exponen las posibilidades de esta tecnología y, aunque los investigadores añaden alguna nota de precaución al respecto, concluyen que la perspectiva de disponer de circuitos electrónicos, u otro tipo de dispositivos, a escala atómica es ahora un poco menos remota. <br />
<br />
<h3 class="storytitle" id="post-3138" style="color: #009900;">¿Futuros microprocesadores de ADN?</h3><strong>Proponen el uso de ADN para la producción masiva de chips computacionales y sensores médicos baratos.</strong><br />
<table align="right" border="0" cellpadding="0" cellspacing="0" style="width: 270px;"><tbody>
<tr> <td><img alt="Foto" border="0" hspace="10" src="http://neofronteras.com/wp-content/photos/galleta_de_adn.jpg" vspace="5" /> </td> </tr>
<tr> <td><table align="center" border="0" cellpadding="2" cellspacing="0"><tbody>
<tr> <td align="center">Galleta de ADN. Fuente: Chris Dwyer.</td> </tr>
</tbody></table></td> </tr>
</tbody></table>Desde hace unos pocos años se viene anunciando el efecto beneficioso que tendrá sobre la economía y nuestras vidas la nanotecnología. Obviamente no hemos visto avances espectaculares en este campo, pero sí resultados interesantes. Lo más difícil de conseguir en este campo probablemente sea la capacidad de conseguir estructuras auto-ensamblantes y que éstas estructuras hagan algo interesante. El resultado que vamos a relatar y los dos descritos en la noticia inmediatamente anterior son bastante interesantes.<br />
Un buen logro es el que está alcanzando Chris Dwyer, un ingeniero de la Universidad de Duke, pues en sólo un día es capaz de conseguir en su laboratorio más circuitos lógicos con ADN que el resto del mundo con silicio. <span id="more-3138"></span><br />
Cree que la próxima generación de circuitos lógicos que se usarán en el corazón de las computadoras futuras se podrán producir de manera barata en cantidades ilimitadas. El secreto es que en lugar de estar hechos de silicio estén hechos de ADN.<br />
En su último conjunto de experimentos Dwyer ha demostrado que se pueden crear miles de millones de estructuras idénticas con aspecto de galleta que se pueden autoemsamblar de manera eficiente. Si se añaden moléculas sensibles a la luz a la receta, las galletas exhiben propiedades de programación que pueden ser utilizadas. Con luz se pueden excitar estas moléculas (cromóforos) y crear puertas lógicas simples o interruptores.<br />
Estas nanoestructuras pueden usarse para construir bloques para una gran variedad de aplicaciones que van desde las biomédicas a las computacionales.<br />
Su funcionamiento es comos sigue. Cuando la luz ilumina una cromóforo la absorbe y sus electrones se excitan. La energía que liberan después, al desexcitarse, pasa a un cromóforo cercano que la absorbe y entonces emite luz con una longitud de onda distinta. Esta diferencia significa que, usando un detector, la luz de salida pude diferenciarse fácilmente de la luz de entrada. En lugar de circuitos eléctricos convencionales en los que la corriente rápidamente cambia entre ceros y unos, la luz puede ser usada para estimular respuestas similares de una manera mucho más rápida en interruptores basados en ADN.<br />
Según Dwyer esto constituye la primera demostración de un sistema rápido de procesamiento a nivel molecular. Añade que la tecnología convencional está alcanzando sus límites y que la capacidad de producir de manera barata un suministro ilimitado de esta nueva clase de circuitos parece el paso próximo más lógico. Se conoce muy bien la molécula de ADN y puede ser sintetizada muy fácilmente.<br />
Dwyer se aprovecha de la capacidad de unirse entre ellos que tienen los nucleótidos de ADN para autoensamblar sus circuitos. Es como arrojar las piezas de un rompecabezas a una caja. Agitando la caja, cada pieza encuentra a su vecina y se une a ella hasta que se completa el rompecabezas. En este caso se trata de miles de millones de "piezas" (trozos de ADN) que se ensamblan en miles de millones de "rompecabezas" (galletas de ADN).<br />
En el último experimento la galleta constaba de 16 piezas con los cromóforos localizados sobre el borde superior de la galleta. Pueden crearse circuitos más complejos uniendo varios de estos componentes o construyendo galletas más grandes. Según Dwyer las posibilidades son ilimitadas.<br />
Además de uso en computación este tipo de nanoestructuras se podrían usar como sensores, sobre todo en biomedicina. Este tipo de sistemas podrían responder a la presencia de diferentes proteínas que sirvan de marcadores para diferentes enfermedades, algo para lo que bastaría una gota de sangre. <br />
<br />
<h3 class="storytitle" id="post-2968" style="color: #009900;">¿Futuros microprocesadores líquidos?</h3><strong>Intentan remedar con gotitas de disoluciones químicas recubiertas de lípidos una red neuronal con capacidad de procesamiento de información. </strong><br />
<table align="right" border="0" cellpadding="0" cellspacing="0" style="width: 270px;"><tbody>
<tr> <td><img alt="Foto" border="0" hspace="10" src="http://neofronteras.com/wp-content/photos/red_neuronal_humeda.jpg" vspace="5" /> </td> </tr>
<tr> <td><table align="center" border="0" cellpadding="2" cellspacing="0"><tbody>
<tr> <td align="justify">Esquema de red neuronal húmeda basada de gotitas recubiertas de lípidos.</td> </tr>
</tbody></table></td> </tr>
</tbody></table>Se está investigando una nueva clase de tecnología de procesamiento de información inspirada por los procesos químicos que se dan en los sistemas biológicos.<br />
Maurits de Planque y Klaus-Peter Zauner (bioquímico y científico de la computación respectivamente) acaban de recibir una subvención de la Unión Europea de 1,8 millones de euros para investigar en este sentido.<br />
La idea de estos investigadores es adaptar los procesos cerebrales a un escenario de procesamiento 'húmedo' de la información. Lo harán mediante el uso de disoluciones de sustancias químicas que se comporten como los transistores de un microchip. <span id="more-2968"></span><br />
Según Zauner lo que están tratando de desarrollar es un cerebro líquido mínimo que dé lugar finalmente a un computador 'húmedo'. "La gente se da cuenta ahora que el mejor procesamiento de información que tenemos son nuestros cerebros y, como estamos encontrando con que el silicio tiene sus limitaciones en términos de procesamiento de información, necesitamos explorar otras aproximaciones, que es exactamente lo que estamos haciendo nosotros aquí", añade Zauner.<br />
El proyecto, en el que participan varias instituciones internacionales, durará tres años y comprende tres objetivos complementarios.<br />
El primer objetivo es desarrollar la ingeniería necesaria para crear gotitas recubiertas de lípidos (grasas) inspiradas en las células biológicas, que contendrían un medio químico excitable, y conectarlas en una red de comunicación a través de la cual puedan pasarse una señal química unas a otras.<br />
El segundo objetivo es diseñar una arquitectura de procesamiento de información basada en este sistema y demostrar la capacidad de la misma a la hora de procesar información.<br />
El tercer objetivo es establecer y explorar el potencial y limitaciones de esta arquitectura de gotitas.<br />
"Nuestro sistema copia algunas características clave de las redes neuronales del cerebro y se excitará, se autorreparará y se autoensamblará", dice Planque.<br />
Les quedan tres años por delante. A ver si hay suerte y tienen éxito.<br />
David Moreno<br />
17812731<br />
EESTecnología en Telecomunicaciones - conocimientos.com.vehttp://www.blogger.com/profile/13517798918797491823noreply@blogger.com0tag:blogger.com,1999:blog-6848052930915865724.post-3443818315278869242010-07-18T20:51:00.002-04:302010-07-25T08:52:43.699-04:30Avances en la electrónica del grafeno<div style="color: #009900;"><strong>Nuevos avances en la confección de circuitos electrónicos realizados en grafeno nos dicen que algún día contaremos con una nueva nanoelectrónica. </strong></div><table align="left" border="0" cellpadding="0" cellspacing="0" style="width: 270px;"><tbody>
<tr> <td><img alt="Foto" border="0" hspace="10" src="http://neofronteras.com/wp-content/photos/grafeno_ibm.jpg" vspace="5" /> </td> </tr>
<tr> <td><table align="center" border="0" cellpadding="2" cellspacing="0"><tbody>
<tr> <td align="justify">Ilustración del transistor de grafeno. Fuente: IBM.</td> </tr>
</tbody></table></td> </tr>
</tbody></table>Hace no tantos años describíamos en NeoFronteras los primeros pasos del grafeno, que son las láminas de grosor atómico constituidas por carbono que forman el grafito. Antes de esa época no se sabía siquiera que el grafeno pudiera existir de forma aislada y estable. Los primeros experimentos de extracción de grafeno se basaban en sistemas tan rudimentarios como pegar una lámina de cinta adhesiva sobre un trozo de grafito y retirarla de él con la esperanza de haberse llevado alguna lámina de grafeno. Mucho se ha avanzado desde entonces en el campo. Las esperanzas una vez depositadas en este material como substrato para una electrónica avanzada nanotecnológica parece que se van cumpliendo. <span id="more-2997"></span><br />
El grafeno tiene propiedades eléctricas, ópticas, térmicas y mecánicas únicas. Los átomos de carbono se disponen en el grafeno en forma de una red hexagonal. Por esa monocapa los electrones pueden circular a 1.000.000 m/s, mucho más rápido que en el silicio y una fracción importante de la velocidad de la luz*, lo que le hace candidato a una electrónica rápida, unas 100 ó 1000 veces más rápida que la basada en silicio. Si esta tecnología se puede al final desarrollar el negocio podría ser multimillonario. <br />
En los últimos días se han producido un par de noticias al respecto. En un primer caso, investigadores de Penn State han conseguido "obleas" de 100 mm de diámetro sobre las que han podido grabar múltiples circuitos. Para sintetizar estas obleas utilizan un proceso de sublimación de silicio, que en definitiva se basa en calentar una lámina de carburo de silicio en la que los átomos de silicio de la superficie escapan de ella hasta que sobre la misma sólo queda una monocapa o bicapa de carbono que finalmente forma el grafeno. La plusmarca de 10 cm de diámetro dobla la marca anterior y se espera llegar a los 20 cm pronto. <br />
<table align="center" border="0" cellpadding="0" cellspacing="0" style="width: 470px;"><tbody>
<tr> <td><img alt="Foto" border="0" hspace="10" src="http://neofronteras.com/wp-content/photos/circuitos_de_grapheno_combi.jpg" vspace="5" /> </td> </tr>
<tr> <td><table align="center" border="0" cellpadding="2" cellspacing="0"><tbody>
<tr> <td align="justify">La oblea en cuestión y un detalle de su superficie que muestra los circuitos. Fuente: Penn State.</td> </tr>
</tbody></table></td> </tr>
</tbody></table>Pero son los investigadores de IBM los que parecen haber confeccionado con tanto éxito transistores basados en grafeno que han pulverizado el record en frecuencia de reloj. Un transistor de radiofrecuencia fabricado por esta compañía ha alcanzado los 100 GHz (100.000 millones de ciclos por segundo). Al parecer DARPA está muy interesada en este tipo de aplicaciones para la nueva generación de dispositivos de comunicación.<br />
En este caso el grafeno se hace crecer por epitaxia usando un proceso compatible con el empleado en la fabricación de dispositivos de silicio. IBM espera también emplear este tipo de electrónica en nuevos circuitos integrados.<br />
El nuevo transistor utiliza una arquitectura de puerta metálica superior y un aislante basado en polímeros y óxido de alta constante dieléctrica (los detalles dados por IBM son un tanto vagos por obvias razones). La longitud de la puerta es modesta, de 240 nm, dejando amplia libertad para la optimización de su comportamiento y a su miniaturización.<br />
Pero la frecuencia alcanzada excede la mejor lograda en silicio, situada en los 40 GHz. En otros transistores basados en grafeno se habían obtenido marcas de sólo 26 GHz. <br />
David Moreno<br />
17812731<br />
EESTecnología en Telecomunicaciones - conocimientos.com.vehttp://www.blogger.com/profile/13517798918797491823noreply@blogger.com0tag:blogger.com,1999:blog-6848052930915865724.post-10990966015480649622010-07-18T18:42:00.002-04:302010-07-25T08:52:23.824-04:30Avances Electronicos<div class="content"><h1><u><span style="color: #009900; font-size: x-small;">Lenovo IdeaPad S10-3t ya esta en el mercado</span></u> <br />
</h1><div style="background-color: transparent; border: medium none; color: black; overflow: hidden; text-align: left; text-decoration: none;"><br />
</div><div style="text-align: center;"><img alt="" class="size-full wp-image-2092 aligncenter" height="366" src="http://www.avancestecnologicos.org/wp-content/uploads/2010/02/Lenovo-IdeaPad-S10-3t-esta-mercado.jpg" title="Lenovo-IdeaPad-S10-3t-esta-mercado" width="500" /></div><div style="text-align: justify;">El <strong>Lenovo S10-3t</strong> ya se encuentra disponible para adquirir en la web de <strong>Lenovo</strong>. Si recuerdas bien, esta Netbook con pantalla giratoria multitáctil (10,1″) fue anunciada por primera vez en el <strong>CES 2010</strong> y ahora por fin se deja ver por la tienda online.</div><div style="text-align: justify;">En la tienda online de Lenovo se estan mostrando las dos versiones de este nuevo juguete, uno con procesador<strong> Atom N470</strong> y el otro <strong>Atom N450</strong>. Veamos:</div><div style="text-align: justify;"><strong>Lenovo S10-3t Atom N470</strong>:</div><ul><li>2 GB de RAM</li>
<li>250 GB de disco duro</li>
<li>Sistema Operativo Windows 7 Home Premium</li>
</ul><strong>Lenovo S10-3t Atom N450</strong>:<br />
<ul><li>1 GB de RAM</li>
<li>160 GB de disco duro</li>
<li>Sistema Operativo Windows 7 Starter</li>
</ul><div style="text-align: justify;">Ambos modelos están por el momento únicamente disponibles en el mercado estadounidense, aunque esperamos que no tarden demasiado en llegar al resto de países y tienen un costo de 649 dólares y 549 dólares, respectivamente.</div></div><div style="background-color: transparent; border: medium none; color: black; overflow: hidden; text-align: left; text-decoration: none;"><u><b style="color: #009900;">Air Mouse</b></u><br />
<div class="content"><div style="text-align: center;"><img alt="" class="size-full wp-image-2041 aligncenter" height="354" src="http://www.avancestecnologicos.org/wp-content/uploads/2010/01/AirMouse.jpg" title="AirMouse" width="450" /></div><div style="text-align: justify;">Siempre tenemos problemas, por que el mouse se cae al suelo por empujarlo sin querer, que tienes que destaparlo cada 3 o 4 meses para limpiarlo para que no de mas de un clic o la peor es que trabajas 8 horas en el computador y te están dando los principios del túnel del carpo. Entonces este novedoso gadget es para ti.</div><div style="text-align: justify;">El <strong>AirMouse</strong> en un ratón (mouse) que no necesitas coger. ¿Cómo así? si no lo necesitas agarrar por que es un guante que se sostiene por la muñeca que tiene tres sensores, uno en el dedo indice, el otro se encuentra en el dedo del medio y el último sensor esta en la palma de la mano. Pero ¿cómo hacemos cuando estamos usando el teclado? el AirMouse se activa cuando el sensor de la palma se encuentra en una superficie plana para no interrumpir la actividad con el teclado.</div><div style="text-align: justify;">El AirMouse tendra un costo de 130 dolares y estará disponible para el tercer trimestre del 2010.</div><h1 style="color: #009900;"><u><span style="font-size: x-small;">LG presenta su panel flexible E-Link</span></u></h1></div><div style="background-color: transparent; border: medium none; color: black; overflow: hidden; text-align: left; text-decoration: none;"><br />
<div style="text-align: center;"><img alt="" class="aligncenter size-full wp-image-1872" height="395" src="http://www.avancestecnologicos.org/wp-content/uploads/2010/01/touch-imac.jpg" title="touch-imac" width="500" /></div>La mayoría de los usuarios que cuentan con una buena PC siempre han querido probar uno de los clásicos <strong>iMacs de Apple</strong>, no solamente por sus excelentes críticas sino también por una cuestión de tradición.<br />
De todas formas, hay algo que estos monitores no tienen: una <strong>pantalla táctil</strong> para ir en sintonía con las distintas funciones que la empresa de la manzana les ha dado a sus productos.<br />
Pero para suerte de los usuarios maqueros, Apple ha estado considerando la posibilidad de lanzar durante este 2010 una nueva línea de iMacs con <strong>pantalla táctil de 22 pulgadas</strong>.<br />
Este rumor ha sido tomado por el diario Commercial Times en China y originado desde Quanta y <strong>Sinket Photronic</strong>, quien se supone será el encargado de distribuir los nuevos monitores de Apple con pantalla táctil.<br />
Con este ya son dos los rumores que recorren el mundo de la manzana desde hace un par de días. El primero empezó con la noticia de que el iPhone de cuarta generación probablemente tenga una estética parecida al magic mouse que la compañía lanzó el año pasado.<br />
<br />
<h1 style="color: #009900;"><u><span style="font-size: x-small;">CES 2010: display Samsung de 6 pantallas</span></u></h1><div class="content"><div style="text-align: center;"><img alt="" class="aligncenter size-full wp-image-1670" height="329" src="http://www.avancestecnologicos.org/wp-content/uploads/2010/01/samsung-display-01.jpg" width="495" /></div>Así como hay muchas novedades acerca de lectores de libros electrónicos y tablets de distintas empresas intentando hacerse un lugar en el mercado, también encontramos distintos lanzamientos relacionados con los paneles de televisión o los displays.<br />
En este caso, la empresa <strong>Samsung</strong> nos ha mostrado su nuevo <strong>display exclusivo para gamers</strong> que necesitan tener una pantalla enorme delante suyo a la hora de probar los últimos videojuegos del mercado.<br />
<strong>SyncMaster MD230</strong> es un display que <strong>cuenta con 3 pantallas y hasta con 6</strong> para mejorar la experiencia visual del usuario y ampliar el marco de juego de todo gamer.<br />
En colaboración con AMD-ATI, este display cuenta con la <strong>tecnología Eyefinity</strong> y tiene apenas 10 milímetros en todos sus lados, siendo el primero en contar con una <strong>resolución de 5,760 x 2,160 pixeles</strong> cuando se usa en su versión de 6 pantallas.<br />
<div style="text-align: center;"><img alt="" class="aligncenter size-full wp-image-1671" height="282" src="http://www.avancestecnologicos.org/wp-content/uploads/2010/01/samsung-display-02.jpg" width="495" /></div>El nuevo SyncMaster MD230 costará <strong>3,099 dólares</strong> si queremos experimentar con sus seis pantallas, pero nos dolerá un total de <strong>1,899 si decidimos únicamente usar tres</strong> de ellas. Como pueden ver en las imágenes, el display es realmente enorme y la experiencia de juego debe ser extraordinaria.</div>David Moreno<br />
17812731<br />
EES</div><br />
</div>Tecnología en Telecomunicaciones - conocimientos.com.vehttp://www.blogger.com/profile/13517798918797491823noreply@blogger.com0tag:blogger.com,1999:blog-6848052930915865724.post-56852633460916927042010-07-18T18:17:00.002-04:302010-07-25T08:52:00.817-04:30Represas Tocoma y CaruachiEl cuarto y último desarrollo hidroeléctrico para el aprovechamiento potencial del Bajo Caroní se estima que esté concluido para el año 2012. El desarrollo hidroeléctrico de Tocoma será el último a ser construído dentro de los aprovechamientos contemplados en el bajo Caroní. Su ubicación se encuentra a unos 18 kilómetros aguas abajo de Guri en las cercanías de la desembocadura del río Claro en el río Caroní. En el área del proyecto el río discurre sobre un lecho de gneis granístico, característico de la formación Imataca y su anchura es de 2.000 metros. En el inicio del año 2001 se iniciaron los trabajos de identificación de sitios para la ubicación de oficinas para el inicio del proyecto. Igualmente, en el año 2002 se inicia la construcción de oficinas de campo y vía de penetración para la facilidad de acceso hacia las diferentes empresas contratistas encargadas de la construcción de la Represa Tocoma.<br />
<br />
La central hidroeléctrica de Tocoma tendrá una capacidad de generación alrededor de 2.260 megavatios con doce (12) unidades generadoras.<br />
<br />
El desarrollo de Tocoma formará conjuntamente con Guri, Macagua y Caruachi, el complejo hidroeléctrico del bajo Caroní. Las características energéticas sobresalientes del proyecto, están predeterminadas por la descarga regulada del proyecto Guri.<br />
<b><span style="font-size: medium;"><span style="color: navy;"><br />
<br />
<span style="color: #009900;">Renders de la Represa</span><br />
<img alt="" border="0" src="http://i133.photobucket.com/albums/q63/Guayana/Presas24-18.jpg?t=1167318711" /><br />
<br />
<br />
<img alt="" border="0" src="http://www.minci.gob.ve/img/maqueta-de-tocoma.jpg" /><br />
</span></span></b><span style="font-family: 'Century Gothic';"><span style="font-size: large;"><b><span style="color: navy;"><br />
<img alt="" border="0" src="http://www.ingenieria3d.com/images/TOC-C.jpg" /><br />
<br />
<img alt="" border="0" src="http://www.ingenieria3d.com/images/TOC-B.jpg" /><br />
<br />
<img alt="" border="0" src="http://www.ingenieria3d.com/images/Toc-OUT-B.jpg" /><br />
<br />
<img alt="" border="0" src="http://www.ingenieria3d.com/images/Toc-OUT-A.jpg" /><br />
<br />
<img alt="" border="0" src="http://www.ingenieria3d.com/images/Toc-IN.jpg" /></span></b></span></span><br />
<b><span style="font-size: medium;"><span style="color: navy;"> <span style="color: #009900;"><br />
Vista inicial del Sitio de la construccion </span><br />
<img alt="" border="0" height="551" src="http://i133.photobucket.com/albums/q63/Guayana/Presas24-16.jpg?t=1167325841" width="800" /><br />
<br />
<b style="color: #009900;">Voladura en Enero de 2002</b><br />
<img alt="" border="0" src="http://www.minci.gob.ve/img/voladura-enero2002.jpg" /><br />
<br />
<span style="color: #009900;">Conclusión de la primera etapa de Tocoma, con la colocación de las</span><br style="color: #009900;" /><span style="color: #009900;"> fundaciones para la Casa de Máquinas y los Aliviaderos en Julio de 2002</span><br />
<img alt="" border="0" src="http://i133.photobucket.com/albums/q63/Guayana/Presas24-17.jpg?t=1167318687" /><br />
<br />
<span style="color: #009900;">Trabajos en 2006<br />
<br />
</span> <img alt="" border="0" src="http://www.minci.gob.ve/img/tocoma.jpg" /><br />
<br />
</span></span></b>El Complejo Hidroeléctrico Manuel Piar, ubicado en Tocoma, estado Bolívar, comenzará a generar electricidad para el segundo semestre de 2012, año en el cual entrará en funcionamiento la primera de diez unidades que conforman esta represa.<br />
<br />
La información la dio a conocer el gerente general de este proyecto, Ángel Lombano, durante el acto de juramentación de la nueva junta directiva de la Corporación Eléctrica Nacional (Corpoelec), desde la represa La Vueltosa, en la confluencia de los estado Táchira, Mérida y Barinas, por parte del presidente de la República Bolivariana de Venezuela, Hugo Chávez Frías.<br />
<br />
Esta central hidroeléctrica se ubica 15 kilómetros del Complejo Hidroeléctrico El Guri, entre los distritos Leoni y Piar, convirtiéndose en el cuarto y último gran proyecto de desarrollo del Bajo Caroní.<br />
<br />
El ministro del Poder Popular para la Energía y Petróleo informó que el monto total de la inversión sobrepasa los 3 mil millones de dolares, de los cuales hasta el momento se han invertido 360 millones.<br />
<br />
Lombano indicó que esta central producirá 12 mil megavatios hora/año, la cantidad que consume Caracas en un año, y cuatro veces la del estado Lara, lo cual generará un ahorro energético de 70 mil barriles de petróleo.<br />
<br />
"El avance hasta el 30 de abril del presente año es de 15,9%, del cual un 12,6% corresponde a obras civiles. Nuestra aspiración y meta es culminar el proyecto y entregarlo para el segundo semestre del año 2012", manifestó el gerente de la obra.<br />
<br />
Actualmente la obra proporciona empleo a 3 mil 400 trabajadores, de los cuales 2 mil 700 son personal obrero y 700 son empleados. "Sin embargo, cuando el proyecto entre en su punto más alto, habrá 4 mil 800 trabajadores directos y más de 9 mil indirectos".<br />
<br />
<span style="color: royalblue;"><b><span style="font-size: medium;">Macrocomponentes</span></b></span><br />
<br />
Los componentes principales que conforman el Proyecto Manuel Piar en<br />
Tocoma son los siguientes, incluyendo todos los equipos electromecánicos<br />
asociados:<br />
· Presas de Transición Izquierda, Intermedia y Derecha<b><br />
</b>· Presa de Tierra y Enrocamiento.<br />
· Presa de Enrocamiento con pantalla de concreto.<br />
· Casa de Máquinas integrada a la Estructura de Toma, Nave de<br />
Montaje y Sala de Control.<br />
· Aliviadero<br />
· Obras Exteriores. <br />
<br />
<b style="color: #009900;"><span style="font-size: medium;"><br />
Represa de Caruachi Generalisimo Francisco de Miranda- 2500 millones de dolares:</span></b><br />
<img alt="" border="0" src="http://img334.imageshack.us/img334/9048/aliviadero3cu.jpg" /><br />
<br />
<img alt="" border="0" src="http://www.gobiernoenlinea.ve/miscelaneas/fotos-caruachi/caruachi-2.jpg" /><br />
<br />
<div class="textoCaribana"><img align="left" hspace="10" src="http://www.gobiernoenlinea.ve/miscelaneas/fotos-caruachi/caruachi-1.jpg" width="300" />Las 12 turbinas están a punto de arrancar para que una maravilla de la ingeniería, como es la "Central Hidroeléctrica Caruachi", entre en pleno funcionamiento, y así generar 2 mil 196 megavatios, que significarán el ahorro de 74.500 barriles diarios de petróleo.</div><div class="textoCaribana">Hace diez años comenzó el proyecto ubicado 59 kilómetros aguas abajo del embalse de Guri y 25 kilómetros aguas arriba del embalse Macagua. El 1999 al llegar al poder la Revolución Bolivariana, se retoma con fuerza, como la del río Caroní, el proyecto hidroeléctrico de Caruachi, que hoy permite mostrar al país y al mundo un complejo de alta tecnología, conformado por 250 kilómetros cuadrado, 12 unidades generadoras, una presa principal con una longitud de 360 kilómetros de largo y 13 proyectos ambientales, entre otras maravillas.</div><div class="textoCaribana">Desde el mirador del edificio principal donde funciona la Gerencia de Planta Caruachi, se contempla la magnitud y belleza de la obra, que nos hace imaginar a esos 10 mil hombres y mujeres, que con dedicación, constancia y devoción brindaron su esfuerzo para que hoy se haga realidad un proyecto cuya inversión sobrepasa los 2 mil 500 millones de dólares.</div><div class="subCaribana"><b><span style="color: #009900;">Un gigante en funcionamiento</span></b></div><div class="textoCaribana"><img align="left" hspace="10" src="http://www.gobiernoenlinea.ve/miscelaneas/fotos-caruachi/caruachi-3.jpg" width="250" />La hidroeléctrica Caruachi aportará el 12 por ciento de la demanda de energía eléctrica a nivel nacional. Es más pequeña que Guri, pero mucho más grande que Macagua, y se convierte en la tercera central que se construye en el cause del hermoso Caroní. En ese lugar el río tiene 1.700 metros de ancho y se ubica a 55 metros sobre el nivel del mar.</div><div class="textoCaribana">Su primera unidad generadora entró en servicio en abril del año 2003. Al comenzar a trabajar a plena capacidad a partir su inauguración, estará en capacidad de alimentar de energía eléctrica a toda la Gran Caracas, así como a los estados Zulia y Nueva Esparta. Junto con Guri y Macagua, generará más del 75 por ciento de la energía que se consume en el país. La energía generada se distribuirá a todas las grandes empresas del territorio nacional y cubrirá la demanda de los próximos años, explicó el ingeniero Gustavo Andara Peña, gerente de División de Planta Caruachi.</div><div class="subCaribana"><b style="color: #009900;">Energía y turismo</b></div><div class="textoCaribana">Los 250 kilómetros del embalse serán atravesados por un puente de 2 kilómetros y medio de largo, actualmente en construcción, permitirá un enlace fácil y cómodo a la central hidroeléctrica, y además de ello, se tiene previsto que se enlace con el segundo puente sobre el Orinoco. La idea es lograr motivar y brindar facilidades a un importante flujo de turistas regionales, nacionales e internacionales, para que puedan apreciar y disfrutar de este impresionante monumento. Entre los atractivos están tres playas artificiales para el disfrute de los visitantes.</div><div class="textoCaribana">Explicó Andara, que en relación al gran potencial turístico de la Central Hidroeléctrica Caruachi, CVG Edelca maneja un plan rector que se cumplirá por etapas, para poner al servicio de los visitantes áreas de visitas, como se ha hecho con Macagua y Guri, lugares de gran preferencia entre los turistas que visitan el estado Bolívar.</div><div class="subCaribana" style="color: #009900;"><b>Flora, fauna y tesoros arqueológicos</b></div><div class="textoCaribana">CVG Edelca ante el alto impacto ambiental que significó la construcción de la tercera hidrológica en el Caroní, trabajó conjuntamente con el Ministerio del Ambiente, para el rescate de la flora, la fauna y valiosos tesoros arqueológicos que se encontraron en la región y que hoy son exhibidos de manera permanente en el Ecomuseo del Caroní.</div><div class="subCaribana" style="color: #009900;"><b>Recuerdo a nuestros ancestros</b></div><div class="textoCaribana">La imponente sala de maquinas de la Central Hidroeléctrica de Caruachi no se conforma solamente con sus 12 generadores. Allí están presentes nuestros ancestros, en honor a los primeros pobladores de Guayana.</div>Los generadores están recubiertos de reproducciones de cestas de la etnia Ye'Kuana. Cada turbina representa los mitos de la tribu cubriendo un espacio de 16 metros de diámetro para cubrir toda la turbina. Mientras las paredes lucen reproducciones de gran tamaño de 13 petroglifos indígenas de distintas regiones de Guayana y Venezuela.<br />
<br />
David Moreno<br />
17812731<br />
EESTecnología en Telecomunicaciones - conocimientos.com.vehttp://www.blogger.com/profile/13517798918797491823noreply@blogger.com1tag:blogger.com,1999:blog-6848052930915865724.post-74386632301069452702010-07-08T14:24:00.002-04:302010-07-09T19:55:56.746-04:30Amplificadores Retroalimentados (Ejercicios)<b><br />
</b><br />
En su búsqueda de métodos para el diseño de amplificadores con ganancia estable para el uso de los repetidores telefónicos Harold Black, un ingeniero de electrónica de la compañía Western Electric inventó el amplificador retroalimentado en 1928.<br />
Desde entonces esta técnica se ha ocupado tan ampliamente que es casi imposible pensar en los circuitos electrónicos sin alguna forma de retroalimentación, tanto implícita como explícita; la mayor parte de los sistemas físicos incluyen alguna forma de retroalimentación. Más aún el concepto de la retroalimentación y su teoría asociada es utilizado corrien-temente en áreas diferentes de la Ingeniería, como el modelo de sistemas biológicos.<br />
La retroalimentación puede ser tanto positiva como negativa (regenerativa,degenerativa). Es interesante notar, sin embargo, que los ingenieros en electrónica han desarro-llado la teoría de la retroalimentación negativa.<br />
En el diseño de los amplificadores la retroalimentación se aplica para el efecto de una o más de las propiedades siguientes:<br />
-Desensibiliza la ganancia- esto es, hace el valor de la menos sensible a las variaciones en el valor de los componentes del circuito, tales como las variaciones que podrían provocar las variaciones en la temperatura.<br />
-Reduce la distorsión no lineal- es decir, hace la salida proporcional a la entrada (en otras palabras hace a la ganancia del valor de nivel de señal).<br />
-Reduce el efecto del ruido- señales eléctricas indeseables generadas por los componentes del circuito y de la interfe-rencia externa.<br />
-Controla las impedancias de entrada y de salida- al selec-cionar una topología de retroalimentación apropiada, puede hacerse que las impedancias de entrada y de salida aumenten o disminuyan según se desee.<br />
-Extensión del ancho de banda del amplificador- Todas las propiedades deseables anteriores se obtienen a expensas de una reducción de ganancia, y al factor de reducción de ganan-cia se le llama magnitud de retroalimentación, es el factor por el cual el circuito se desensibiliza, mediante el cual el ancho de banda se extiende, la impedancia de entrada de un amplificador de voltaje se incrementa y así sucesivamente. <br />
En síntesis, la idea básica de la retroalimentación negativa es cambiar ganancia por otras propiedades deseables.<br />
Bajo ciertas condiciones la retroalimentación puede volverse positiva y de tal magnitud que cause oscilaciones.<br />
Sin embargo, no debe implicarse que la retroalimentación positiva lleva a la inestabilidad, esta es útil en cierto número de aplicaciones tales como el diseño de los filtros activos.<br />
Para hablar de amplificadores retroalimentados primero debemos citar todos las partes que componen un amplificador retroalimentado, así tenemos un amplificador básico, cualquier tipo de amplificador básico como los vistos en electrónica 2, una red de retroalimentación, esta red puede estar formada por elementos activos o pasivos, una red para muestrear la variable de salida y una red mezcladora que se utiliza para sumar la variable de entrada con la variable de retroalimentación. Consideremos la configuración inversora en la cual la variable de retroalimentación está desfasada 180 grados respecto a la entrada, si está en fase se dice que tenemos retroalimentación positiva.<br />
Hay cuatro distintas combinaciones de transferencia en los amplificadores retroalimentados.<br />
Avf= <u>Xo </u> = <u>voltaje de salida</u><br />
Xi voltaje de entrada AMPLIFICADOR DE VOLTAJE<br />
Aif= <u>Xo</u> = <u>corriente de salida</u> AMPLIFICADOR DE VOLTAJE<br />
Xi corriente de entrada<br />
Gif =<u>Xo</u> = <u>corriente de salida</u> <a href="http://amplif.de/">AMPLIF.DE</a> TRANSADMITANCIA <br />
Xi voltaje de entrada<br />
Rmf= <u>Xo </u>= <u>voltaje de entrada </u> <a href="http://amplif.de/">AMPLIF.DE</a> TRANSIMPEDANCIA<br />
Xi corriente de entrada<br />
TOPOLOGIAS BASICAS<br />
Amplificadores de voltaje (retroalimentación en serie y derivación), se requiere impedancia de entrada alta e impedancia de salida baja. Muestrea voltaje y suma voltaje.<br />
Amplificadores de corriente (retroalimentación en derivación y serie). Impedancia de entrada baja y de salida alta. Muestrea corriente y suma corriente.<br />
Amplificadores de transcoductancia (retroalimentación serie-serie). Muestrea corriente y suma voltaje.<br />
Amplificadores de transimpedancia (retroalimentación derivación-derivación). Muestrea voltaje y suma corriente.<br />
Si consideramos la realimentación negativa conectando la resistencia Rf entre la salida y la entrada. La comparación real de la salida y la entrada tiene lugar combinando las corrientes i1 e i2 en el nodo de entra-<br />
da, por lo que se le llama diferenciación de corriente. Para facilitar el análisis se puede sustituir la resistencia de realimentación por el circuito equivalente representado en la figura <a href="http://1.1.si/">1.1.Si</a> se desea un circuito equivalente general se tiene el de la figura 1.2<br />
Según el señor Schilling un amplificador diferenciador de corriente negativa comprende conceptualmente tres secciones.<br />
<br />
<li value="1"> <br />
Un amplificador al que se le aplica la realimentación <br />
</li><br />
<br />
<br />
<li value="2"> <br />
Una red de realimentación que puede contener desde una sola resistencia hasta un circuito con elementos no lineales.<br />
</li><br />
<br />
<br />
<li value="3"> <br />
Un circuito diferenciador (o sumador) en que la salida se compara con la entrada.<br />
</li><br />
<br />
<div style="color: #009900;"><b>DIFERENCIADOR DE TENSION</b></div>El circuito diferenciador de tensión difiere del circuito diferenciador de corriente en que la salida de la red de realimentación está en serie con la resistencia de entrada. Aquí la comparación de la salida y la entrada se realiza por medio de la adición de tensiones.<br />
Para mayor claridad se muestra a continuación la figura de un circuito diferenciador de tensión.<br />
La figura muestra la estructura básica al final de la página de un amplificador de retroalimentación. Más que mostrar voltajes y corrientes esta figura es un diagrama de flujo de señal en donde cada una de las señales puede representar tanto una señal de voltaje como una señal de corriente. El amplificador de lazo abierto tiene una ganancia A; de esta manera su salida "x se relaciona con la entrada xo mediante:<br />
A=Xo/Xi<br />
La salida x se alimenta tanto a la salida del amplificador básico como a la entrada del circuito de retroalimentación el cual produce una muestra de salida. Esta muestra de salida xo se relaciona con xo mediante la relación con el factor de retroalimentaci6n (Beta).<br />
Xf=BXo<br />
La señal de retroalimentación se resta de la señal de la fuente Xs que es la entrada al amplificador de retroalimentación completo para producir una señal X i que es la entrada del amplificador básico. <br />
Xi=Xs-BXo<br />
Esta es la sustracción que hace negativa la retroalimen-tación. En esencia la retroalimentación negativa reduce la seña que aparece a la entrada del amplificador básico.<br />
En la descripción anterior va implícito que la fuente, la carga y el circuito de retroalimentación no cargan al amplificador básico esto es, la ganancia A no depende de ninguno de estos circuitos. En la práctica éste no será el caso y se tendrá que encontrar un método para formar un circuito real de la estructura ideal.<br />
Este nuevo diagrama permitirá observar que la transmisión directa ocurre enteramente a través del amplificador básico y la transmisión inversa sucede enteramente a través del circuito de retroalimentación. D2e las ecuaciones Xo y X s podemos obtener la ganancia del amplificador retroalimentado así:<br />
A=X0/Xi= <u> Xo </u>= <u> Xo/Xi </u>= <u> Af </u><br />
Xi-Bxo 1-BXO/Xi 1-AfB <br />
A la cantidad AB se le llama ganancia de lazo 5 de bucle, y 1 + AB se llama cantidad o magnitud de retroalimentación.<br />
Si, como en el caso de muchos circuitos, la ganancia de lazo AB grande.<br />
entonces se deduce <br />
AB»1<br />
A f = 1/B<br />
es decir, la ganancia del amplificador de retroalimentación se determina casi por completo por el circuito de retroali-mentación. Ya que el circuito de retroalimentación usualmente consta de componentes pasivos tan precisos como se desee, la ventaja de la retroalimentación negativa al obtener ganancia precisa, predecible y estable resulta evidente. En otras palabras, la ganancia total tendrá muy poca dependencia de la ganancia del amplificador básico. Esta es una propiedad deseable ya que la ganancia A es usualmente una función de muchos parámetros, algunos de los cuales pueden tener amplias tolerancias.<br />
Si se emplea una gran magnitud de retroalimentación negativa, la señal de retroalimentación X f se vuelve una réplica casi exacta de la señal de entrada X S . Un resultado de esta propiedad es el seguimiento de las dos terminales de entrada de un amplificador op. de diferencia entre X S y X f que es Xi se conoce a veces como la señal de error.<br />
<div style="color: #009900;"><b>DESARROLLO</b></div>Proponiendo<br />
Vcc= 12v<br />
ICQ= 10 mA<br />
Rs= 8.2 K<br />
RL= 15 K<br />
Rf= 15K<br />
Si analizamos el circuito utilizado para esta práctica tendremos que<br />
Re= 1/ICQ= 1/10mA= 100 ohms<br />
Rc= 5V/10mA= 500 ohms<br />
R1= Rb/(1-Vbb/Vcc)= 1K/(1-1.7/12)=1.2K comercial<br />
R2= Rb(Vcc/Vbb)= 1K(12/1.7)= 6.8K<br />
Modelando la red de retroalimentación con parámetros h, debido a que es un serie paralelo y si utilizamos la técnica de reflejos de impedancia como hemos venido haciendo para todo tipo de problemas de este tipo:<br />
Para poder obtener nuestra relación Vo/Vs obtenemos las siguientes rela- ciones de nuestro cto. anterior.<br />
ib1/Vs = 10.025x10-6<br />
ib2/ib1= -321.74(5.7 + Ze)<br />
si Io= -2.59 ib2 y Vo=-Iox15K entonces<br />
Vo/ib2=44.25K<br />
Realizando la multiplicación de los cocientes anteriores tenemos:<br />
Vo/Vs= 142.72/(5.7 + Ze)<br />
Como Ze= Re/(sCRe+1)<br />
S= ((5.7+Re)/(5.7CeRe)<br />
Si Re=100 ohms, ahora calculamos el valor de Ce de la ecuación característica.<br />
Para un polo a 15 KHz<br />
Wp=1/5.4Ce<br />
Ce=1.96uF<br />
Con un valor comercial de 1.68uF el polo del circuito se encontrará a 17.5 KHz<br />
El cálculo de los demás capacitores de acoplamiento se realiza utilizando el método que nos dió el Ing. Yanga llamado método rápido<br />
W=1/CxRx donde Cx es el capacitor duscado<br />
Rx es la resistencia vista por el capacitor<br />
Obtenemos los siguientes valores de los capacitores<br />
C1=0.22uF c2=1uF c3=0.1uF<br />
Si hacemos que s tienda a infinito en nuestra ecuación de transferencia de voltaje, obtenemos nuestra ganancia en frecuencia media. <br />
Av= (ib1/Vs)(ib2/ib1)(vo/ib2)<br />
Donde obtenemos la ganancia del básico que es Av=24.98<br />
Para hallar el lazo hacemos cero la excitación y abrimos el lazo colocando una fuente auxiliar llamada Vo´<br />
L=(ib1/Vo´)(ib2/ib1)(vo/ib2)<br />
Calculando para la frecuencia media haciendo s a infinito tenemos:<br />
L=1.475<br />
Para calcular la ganancia del amplificador retroalimentado <br />
Avf= Av/(1-L)= 10.092<br />
La impedancia de entrada del amplificador<br />
Ri=9.126K<br />
Y l2a impedancia de entrada del amplificador retroalimentado<br />
Rif=9.126K(1+1.475)=22.58K como notamos la impedancia de entrada se hizo más grande por ser un amplificador serie.<br />
La resistencia del amplificador básico<br />
Ro= 455.8/15000=442.35<br />
Para la impedancia de salida del amplificador retroalimentado <br />
Rof= 442.35/(1+1.475)=178.72 ohms<br />
De la ecuación característica poemos obtener la sensitividad<br />
Swl Ce =1<br />
Para aterrizar todos estos conocimientos ncesitamos llevarlos al laboratorio, he aquí los resultados en el laboratorio:<br />
Av=24<br />
Avf=9.55<br />
Lazo=1.5<br />
Ro=419.04 ohms<br />
Rof=191.3 ohms<br />
Frecuencia del polo 17.8 KHz<br />
Sensitividad=1<br />
<img alt="Amplificadores retroalimentados" height="145" src="http://html.rincondelvago.com/000261490.png" width="368" /><br />
<br />
<img alt="Amplificadores retroalimentados" height="361" src="http://html.rincondelvago.com/000261491.png" width="398" /><br />
<br />
<img alt="Amplificadores retroalimentados" height="220" src="http://html.rincondelvago.com/000261492.png" width="388" /><br />
<br />
<img alt="Amplificadores retroalimentados" height="326" src="http://html.rincondelvago.com/000261493.png" width="551" /><br />
<br />
<img alt="Amplificadores retroalimentados" height="359" src="http://html.rincondelvago.com/000261494.png" width="710" />Tecnología en Telecomunicaciones - conocimientos.com.vehttp://www.blogger.com/profile/13517798918797491823noreply@blogger.com0tag:blogger.com,1999:blog-6848052930915865724.post-27282992010655304522010-07-07T18:05:00.002-04:302010-07-09T19:55:39.627-04:30Tutorial sobre Lugar Geometrico de las Raices<center style="color: #009900;"> <b style="color: #009900;"><br />
</b><br />
<div style="text-align: left;"><b style="color: #009900;">Polos de lazo cerrado</b></div></center> <br />
El Lugar Geometrico de las Raices (L.G.R.) de una funcion de lazo cerrado H(s) representa todas las posiciones posibles de los polos de lazo cerrado de un sistema con ganancia proporcional k y realimentacion unitaria: <br />
<br />
<center><img src="http://www.ing.una.py/DIREC_PPAL/ACADEMICO/APOYO/CONTROL%20CON%20SCILAB/rlocus/bdiag.GIF" /></center> <br />
La funcion de transferencia de lazo cerrado sera asi:<br />
<br />
<br />
<center><img src="http://www.ing.una.py/DIREC_PPAL/ACADEMICO/APOYO/CONTROL%20CON%20SCILAB/rlocus/rlocus2.gif" /></center><br />
De este modo, los polos de lazo cerrado del sistema son aquellos que verifican la ecuacion<b>1 + K H(s) = 0</b>. <br />
Si se expresa <b> H(s) = b(s)/a(s)</b>, la ecuacion anterior tendra la forma: <br />
<br />
<br />
<center><img src="http://www.ing.una.py/DIREC_PPAL/ACADEMICO/APOYO/CONTROL%20CON%20SCILAB/rlocus/rlocus3.gif" /></center> <br />
Sea n el orden de a(s) y m el orden de b(s). <br />
Seran considerados todos los valores positivos de k. En el limite, a mendida que k tiende a cero, los polos del sistema de lazo cerrado son a(s) = 0, es decir, los polos de H(s) (polos de lazo abierto). Cuando k tiende a infinito, los polos de lazo cerrado verifican b(s) = 0, es decir, son los ceros de H(s) (ceros de lazo cerrado). <br />
Independientemente del valor de k seleccionado, <b>el sistema de lazo cerrado debera poseer siempre n polos</b>, donde n es el numero de polos de H(s). <b>El L.G.R. debera tener n ramas</b>, y cada una de ellas se inicia en un polo de H(s) y termina en un cero de H(s). Si H(s) posee mayor cantidad de polos que ceros (como a menudo es el caso), m < n y decimos asi que H(s) posee <b>ceros en el infinito</b>. En este caso, el limite de H(s) cuando s tiende a infinito es igual a cero. El numero de ceros en el infinito es igual a n-m, la diferencia entre los numeros de polos y ceros, y corresponde al numero de ramas del L.G.R. que van hacia el infinito (asintotas) <br />
Considerando que el L.G.R. indica en realidad todas las posibles ubicaciones de los polos de lazo cerrado, del mismo podriamos seleccionar una ganancia tal de modo que nuestro sistema de lazo cerrado se comporte del modo deseado. Si alguno de los polos seleccionados se encuentra en el semiplano derecho, el sistema sera inestable. Los polos que se encuentran mas cercanos al eje imaginario poseen gran influencia en la respuesta de lazo cerrado, de modo tal que, aun cuando un sistema posea 3 o 4 polos, el mismo podria comportarse como un sistema de primer o segundo orden, dependiendo de la ubicacion de los polos (o el polo) dominante. <br />
<a href="" name="Example"></a> <br />
<h2 style="color: #009900;">Grafico del L.G.R. de una funcion de transferencia</h2>Considerese un sistema de lazo abierto cuya funcion de transferencia sea la siguiente:<br />
<br />
<br />
<center><img src="http://www.ing.una.py/DIREC_PPAL/ACADEMICO/APOYO/CONTROL%20CON%20SCILAB/rlocus/rlocus4.gif" /></center> <br />
Cual es el procedimiento para disenhar un controlador de realimentacion por el metodo de L.G.R.? Como ejemplo, establezcamos como criterio un sobrepico de 5% un tiempo de crecimiento de 1 segundo. Crearemos un archivo llamado "<a href="http://www.ing.una.py/DIREC_PPAL/ACADEMICO/APOYO/CONTROL%20CON%20SCILAB/rlocus/lger.sce">lgr.sce</a>". En este archivo, introduciremos la funcion de transferencia y el comando de graficacion de L.G.R. como se muestra: <br />
<br />
// Definicion del sistema<br />
s=poly(0,"s");<br />
num=poly([7 1],"s","coeff");<br />
fac1=poly([5 1],"s","coeff");<br />
fac2=poly([15 1],"s","coeff");<br />
fac3=poly([<span style="font-family: arial, helvetica, sans-serif;">20 1],"s","coeff");</span><br />
<span style="font-family: arial, helvetica, sans-serif;"> fac4=poly([0 1],"s","coeff");</span><br />
<span style="font-family: arial, helvetica, sans-serif;"> den=fac1*fac2*fac3*fac4;</span><br />
[sistema1]=syslin('c',num/den);<br />
evans(sistema1,10000);<br />
<br />
<strong>Nota:</strong> el valor 10000, que indica la maxima ganancia a ser considerada para el grafico, es particularmente importante, ya que valores pequenhos pueden llevar a un grafico no ilustrativo. Se aconseja probar. <br />
<pre><ul><img src="http://www.ing.una.py/DIREC_PPAL/ACADEMICO/APOYO/CONTROL%20CON%20SCILAB/rlocus/Olocus1.gif" /></ul><a href="" name="K"></a>
<h2 style="color: #009900;">Seleccionando un valor de K a partir del L.G.R.</h2><span style="font-family: arial, helvetica, sans-serif; font-size: x-small;">El grafico mostrado mas arriba muestra todas las posibles ubicaciones de los polos de lazo cerrado para un controlado puramente proporciona. Obviamente, no todos estos posibles polos satisfaran nuestros requerimientos de disenho.
Para determinar cual es la region aceptable, puede usarse el comando <strong>sgrid</strong>(Zeta,Wn)
para graficar lineas de tasa de amortiguamiento constante y frecuencia natural constante. Sus 2 argumentos son la tasa de amortiguamiento (Zeta) y la frecuencia natural (Wn).
Para nuestro problema, deseamos un sobrepico menor que 5% (que es lo mismo que decir una tasa de amortiguamiento mayor que 0.7) y un tiempo de crecimiento de 1 segundo (que quiere decir una frecuencia natural mayor que 1.8). Por lo tanto, el comando a ser agragaod en nuestro archivo sera:
sgrid(0.7,1.8);</span>
<center><img src="http://www.ing.una.py/DIREC_PPAL/ACADEMICO/APOYO/CONTROL%20CON%20SCILAB/rlocus/Olocus2.gif" /></center>
<span style="font-size: x-small;"><span style="font-family: arial, helvetica, sans-serif;">En el grafico, las lineas a aproximadamente 45 grados indican ubicaciones de polos donde Zeta = 0.7; entre ambas lineas, los polos tendran Zeta > 0.7 y fuera de ellas < 0.7. El semicirculo indica ubicaciones de polos con una frecuencia natural Wn = 1.8; </span>
<span style="font-family: arial, helvetica, sans-serif;">siendo dentro del circulo Wn < 1.8 y fuera del mismo Wn > 1.8. </span></span>
<div style="font-family: arial,helvetica,sans-serif;"><span style="font-size: x-small;">
Volviendo al problema original, para hacer que el sobrepico sea menor que 5%, los polos deberan estar ubicados entre ambas lineas, y para hacer que el tiempo de crecimiento sea menor que 1 segundo, los mismos deberan estar ubicados fuera del semicirculo. De este modo podemos identificar el area donde los polos poseen un comportamiento aceptable. Como todos los puntos de esta area se encuentran en el semiplano izquierdo, el sistema de lazo cerrado sera estable.
</span></div><div style="font-family: arial,helvetica,sans-serif;"><span style="font-size: x-small;">
Del dibujo podemos ver que parte del L.G.R. se encuentra dentro de la region aceptable. Entonces, <strong>para este caso, solo es necesario un controlador proporcional</strong>.
Para identificar el valor de ganancia k necesario para ubicar los polos en un lugar determinado, puede usarse la siguiente secuencia de comandos:
// Identificacion del valor de ganancia para los polos deseados
// hacer click con el boton DERECHO del raton. Una vez seleccionado
// el punto, hacer click con el boton izquierdo
x=locate(1)
polo=x(1)+%i*x(2);
num_eval=horner(num,polo);
den_eval=horner(den,polo);
k=abs(-1/(num_eval/den_eval));
</span></div><div style="font-family: arial,helvetica,sans-serif;"><span style="font-size: x-small;">Debe hacerse click con el boton derecho en el puntos sobre el L.G.R. donde se quiere colocar los polos. El valor sera devuelto en la variable k.
</span></div><div style="font-family: arial,helvetica,sans-serif;"><span style="font-size: x-small;">
</span></div>
<center style="font-family: arial,helvetica,sans-serif;"><span style="font-size: x-small;">
<img src="http://www.ing.una.py/DIREC_PPAL/ACADEMICO/APOYO/CONTROL%20CON%20SCILAB/rlocus/rlocfind.gif" />
</span></center><span style="font-size: x-small;">
</span>
<div style="font-family: arial,helvetica,sans-serif;"><span style="font-size: x-small;"> <a href="" name="CL"></a>
</span></div><h2 style="color: #009900; font-family: arial,helvetica,sans-serif;"><span style="font-size: x-small;">Respuesta de lazo cerrado</span></h2><span style="font-size: x-small;">
</span>
<div style="font-family: arial,helvetica,sans-serif;"><span style="font-size: x-small;">
Para encontrar la respuesta al escalon, se necesita establecer la funcion de transferencia de lazo cerrado. Esto podria realizarse utilizando el algebra de bloques:
// Calculo de la funcion de transferencia de lazo cerrado
sistema2=(num/den)/(1+k*num/den);
</span></div><div style="font-family: arial,helvetica,sans-serif;"><span style="font-size: x-small;">La salida del sistema realimentado sera entonces:
// Respuesta al escalon
t=0:0.005:2;
[y X]=csim("step",t,sistema2);
plot2d(t,y);
</span></div><pre><span style="font-size: x-small;">
</span>
<div style="font-family: arial,helvetica,sans-serif;">
</div><span style="font-size: x-small;">
</span>
<center style="font-family: arial,helvetica,sans-serif;"><span style="font-size: x-small;"><img src="http://www.ing.una.py/DIREC_PPAL/ACADEMICO/APOYO/CONTROL%20CON%20SCILAB/rlocus/rlocusstep.gif" /></span></center> <span style="font-size: x-small;">
</span>
<div style="font-family: arial,helvetica,sans-serif;"><span style="font-size: x-small;">
Como se esperaba, la respuesta cumple con las condiciones establecidas.
</span></div><div style="font-family: arial,helvetica,sans-serif;"><span style="font-size: x-small;">
</span></div><div style="font-family: arial,helvetica,sans-serif;"><span style="font-size: x-small;">David Moreno</span></div><div style="font-family: arial,helvetica,sans-serif;"><span style="font-size: x-small;">17812731</span></div><span style="font-size: x-small;"><span style="font-family: arial, helvetica, sans-serif;">EES</span></span>
</pre></pre>Tecnología en Telecomunicaciones - conocimientos.com.vehttp://www.blogger.com/profile/13517798918797491823noreply@blogger.com0tag:blogger.com,1999:blog-6848052930915865724.post-1745723323486244292010-07-07T12:53:00.002-04:302010-07-09T19:55:24.097-04:30Teorema de muestreo de Nyquist-Shannon<meta http-equiv="Content-Type" content="text/html; charset=utf-8"><meta name="ProgId" content="Word.Document"><meta name="Generator" content="Microsoft Word 12"><meta name="Originator" content="Microsoft Word 12"><link rel="File-List" href="file:///C:%5CUsers%5CUSUARIO%5CAppData%5CLocal%5CTemp%5Cmsohtmlclip1%5C01%5Cclip_filelist.xml"><link rel="themeData" href="file:///C:%5CUsers%5CUSUARIO%5CAppData%5CLocal%5CTemp%5Cmsohtmlclip1%5C01%5Cclip_themedata.thmx"><link rel="colorSchemeMapping" href="file:///C:%5CUsers%5CUSUARIO%5CAppData%5CLocal%5CTemp%5Cmsohtmlclip1%5C01%5Cclip_colorschememapping.xml"><style> <!-- /* Font Definitions */ @font-face {font-family:"Cambria Math"; panose-1:2 4 5 3 5 4 6 3 2 4; mso-font-charset:0; mso-generic-font-family:roman; mso-font-pitch:variable; mso-font-signature:-1610611985 1107304683 0 0 159 0;} @font-face {font-family:Calibri; panose-1:2 15 5 2 2 2 4 3 2 4; mso-font-charset:0; mso-generic-font-family:swiss; mso-font-pitch:variable; mso-font-signature:-1610611985 1073750139 0 0 159 0;} /* Style Definitions */ p.MsoNormal, li.MsoNormal, div.MsoNormal {mso-style-unhide:no; mso-style-qformat:yes; mso-style-parent:""; margin-top:0cm; margin-right:0cm; margin-bottom:10.0pt; margin-left:0cm; line-height:115%; mso-pagination:widow-orphan; font-size:11.0pt; font-family:"Calibri","sans-serif"; mso-ascii-font-family:Calibri; mso-ascii-theme-font:minor-latin; mso-fareast-font-family:Calibri; mso-fareast-theme-font:minor-latin; mso-hansi-font-family:Calibri; mso-hansi-theme-font:minor-latin; mso-bidi-font-family:"Times New Roman"; mso-bidi-theme-font:minor-bidi; mso-fareast-language:EN-US;} h3 {mso-style-priority:9; mso-style-unhide:no; mso-style-qformat:yes; mso-style-link:"Título 3 Car"; mso-margin-top-alt:auto; margin-right:0cm; mso-margin-bottom-alt:auto; margin-left:0cm; mso-pagination:widow-orphan; mso-outline-level:3; font-size:13.5pt; font-family:"Times New Roman","serif"; mso-fareast-font-family:"Times New Roman"; font-weight:bold;} p {mso-style-noshow:yes; mso-style-priority:99; mso-margin-top-alt:auto; margin-right:0cm; mso-margin-bottom-alt:auto; margin-left:0cm; mso-pagination:widow-orphan; font-size:12.0pt; font-family:"Times New Roman","serif"; mso-fareast-font-family:"Times New Roman";} span.Ttulo3Car {mso-style-name:"Título 3 Car"; mso-style-priority:9; mso-style-unhide:no; mso-style-locked:yes; mso-style-link:"Título 3"; mso-ansi-font-size:13.5pt; mso-bidi-font-size:13.5pt; font-family:"Times New Roman","serif"; mso-ascii-font-family:"Times New Roman"; mso-fareast-font-family:"Times New Roman"; mso-hansi-font-family:"Times New Roman"; mso-bidi-font-family:"Times New Roman"; mso-fareast-language:ES-VE; font-weight:bold;} span.mw-headline {mso-style-name:mw-headline; mso-style-unhide:no;} .MsoChpDefault {mso-style-type:export-only; mso-default-props:yes; mso-ascii-font-family:Calibri; mso-ascii-theme-font:minor-latin; mso-fareast-font-family:Calibri; mso-fareast-theme-font:minor-latin; mso-hansi-font-family:Calibri; mso-hansi-theme-font:minor-latin; mso-bidi-font-family:"Times New Roman"; mso-bidi-theme-font:minor-bidi; mso-fareast-language:EN-US;} .MsoPapDefault {mso-style-type:export-only; margin-bottom:10.0pt; line-height:115%;} @page WordSection1 {size:612.0pt 792.0pt; margin:70.85pt 3.0cm 70.85pt 3.0cm; mso-header-margin:35.4pt; mso-footer-margin:35.4pt; mso-paper-source:0;} div.WordSection1 {page:WordSection1;} --> </style> <p>El teorema de muestreo de Nyquist-Shannon, también conocido como teorema de muestreo de Whittaker-Nyquist-Kotelnikov-Shannon, criterio de Nyquist o teorema de Nyquist , es un <span style="color: windowtext; text-decoration: none;">teorema</span> fundamental de la <span style="color: windowtext; text-decoration: none;">teoría de la información</span>, de especial interés en las <span style="color: windowtext; text-decoration: none;">telecomunicaciones</span>.</p><p>Este teorema fue formulado en forma de conjetura por primera vez por <span style="color: windowtext; text-decoration: none;">Harry Nyquist</span> en <span style="color: windowtext; text-decoration: none;">1928</span> (Certain topics in telegraph transmission theory), y fue demostrado formalmente por <span style="color: windowtext; text-decoration: none;">Claude E. Shannon</span> en <span style="color: windowtext; text-decoration: none;">1949</span> (Communication in the presence of noise).</p><p>El teorema trata con el <span style="color: windowtext; text-decoration: none;">muestreo</span>, que no debe ser confundido o asociado con la <span style="color: windowtext; text-decoration: none;">cuantificación</span>, proceso que sigue al de muestreo en la digitalización de una señal y que, al contrario del muestreo, no es reversible (se produce una pérdida de información en el proceso de cuantificación, incluso en el caso ideal teórico, que se traduce en una <span style="color: windowtext; text-decoration: none;">distorsión</span> conocida como error o <span style="color: windowtext; text-decoration: none;">ruido de cuantificación</span> y que establece un límite teórico superior a la relación señal-ruido). Dicho de otro modo, desde el punto de vista del teorema, las muestras discretas de una señal son valores exactos que aún no han sufrido redondeo o truncamiento alguno sobre una precisión determinada, esto es, aún no han sido cuantificadas.</p><p>El teorema demuestra que la reconstrucción exacta de una señal <span style="color: windowtext; text-decoration: none;">periódica</span> continua en banda base a partir de sus muestras, es matemáticamente posible si la señal está limitada en banda y la tasa de muestreo es superior al doble de su ancho de banda.</p><p>Dicho de otro modo, la información completa de la señal analógica original que cumple el criterio anterior está descrita por la serie total de muestras que resultaron del proceso de muestreo. No hay nada, por tanto, de la evolución de la señal entre muestras que no esté perfectamente definido por la serie total de muestras.</p><h3><span class="mw-headline">Errores de interpretación frecuentes en relación con el teorema y el proceso de muestreo</span></h3><p>Es un error frecuente y extendido creer que, una vez satisfechos los criterios del teorema (criterios de Nyquist), la calidad de la reconstrucción de una señal en toda su banda (lo que excluye el uso de técnicas de Noise Shaping para alterar selectivamente la distorsión consecuencia del proceso de cuantificación en señales completamente digitalizadas, esto es, muestreadas y cuantificadas) es función de la tasa de muestreo empleada en el proceso de muestreo. Esto es totalmente falso desde la perspectiva matemática del teorema y un error, una vez consideradas las limitaciones prácticas, en el ámbito práctico de la física o la ingeniería.<span style="color: windowtext; text-decoration: none;"> </span>El proceso de muestreo (que no debe ser confundido con el de <span style="color: windowtext; text-decoration: none;">cuantificación</span>) es, desde el punto de vista matemático perfectamente reversible, esto es, su reconstrucción es exacta, no aproximada. Dicho de otro modo, desde el punto de vista matemático al que se refiere el teorema de muestreo de Nyquist-Shannon, la reconstrucción de una señal periódica con componentes de hasta 10 kHz es idéntica tanto si se obtiene de una tasa de muestreo de 25000 muestras por segundo como de una de 50000 muestras por segundo. Matemáticamente, no aporta nada incrementar la tasa de muestreo una vez que esta cumple el criterio de Nyquist: la información necesaria para su reconstrucción total existe desde que la tasa cumple el criterio. También son errores frecuentes y extendidos, relacionados directamente con lo expuesto en este párrafo, creer que los puntos que resultan del proceso de muestreo se unen en la reconstrucción mediante rectas (interpolación lineal) formando dientes de sierra en las frecuencias representadas por pocas muestras o que existe un proceso de cálculo que realiza la interpolación de manera predictiva. En resumen, el teorema de muestreo demuestra que toda la información de una señal contenida en el intervalo temporal entre dos muestras cualesquiera está descrita por la serie total de muestras siempre que la señal registrada sea de naturaleza <span style="color: windowtext; text-decoration: none;">periódica</span> (como lo es el sonido) y no tenga componentes de frecuencia igual o superior a la mitad de la tasa de muestreo; no es necesario inventar o predecir la evolución de la señal entre muestras.</p><p>En la práctica y dado que no existen los <span style="color: windowtext; text-decoration: none;">filtros analógicos pasa-bajo</span> ideales, se debe dejar un margen entre la frecuencia máxima que se desea registrar y la frecuencia de Nyquist (frecuencia crítica) que resulta de la tasa de muestreo elegida (por ejemplo, para <span style="color: windowtext; text-decoration: none;">CD-Audio</span> la frecuencia máxima de los componentes a registrar y reproducir es de 20 kHz y la frecuencia crítica de la tasa de 44100 muestras por segundo empleada es de 22,05 kHz; un margen del 10% aproximadamente para esta aplicación). Pero este margen es una necesidad que resulta de las limitaciones físicas de un filtro de reconstrucción (o filtro <span style="color: windowtext; text-decoration: none;">antialiasing</span>) real, y no una consideración que contemple (o deba contemplar) el teorema, que pretende establecer el marco teórico (matemático) en el que se deben fundamentar los profesionales que tratan con el procesamiento digital de señales. En ocasiones se emplean técnicas de sobremuestreo para la reconstrucción de una señal con objeto de aumentar artificialmente este margen y permitir el uso de filtros de fase lineal (retardo de grupo constante) en la banda pasante y, en general, más sencillos y económicos con pendientes de atenuación más suaves. En todo caso, tanto el margen como el uso de técnicas de sobremuestreo son recursos de ingeniería para tratar restricciones prácticas que en nada invalidan la demostración y el contenido del teorema. El teorema es, de hecho, el marco analítico sobre el que las restricciones reales (no ideales) deben ser estudiadas.</p><h3><span class="mw-headline">Nuevos formatos y su relación con las interpretaciones erróneas sobre el teorema y su utilidad práctica</span></h3><p>La aparición reciente de nuevos formatos de audio (denominados frecuentemente <i>formatos de alta resolución</i>) para usuario final que contienen señales muestreadas con tasas más elevadas a la empleada en CD-Audio han contribuido a extender la idea errónea de que la calidad en la reconstrucción de una señal en toda su banda (hasta la frecuencia crítica) es función directa de la tasa de muestreo empleada. En todo caso, parece evidente que el potencial para registrar y reproducir ultrasonidos no forma parte de los mensajes de mercadotecnia que pretenden promocionar estos en el mercado. Un argumento que suele tener la forma general de "si los nuevos formatos de alta resolución registran señales con tasas de muestreo más elevadas para la reconstrucción de señales con el mismo ancho de banda es porque el teorema de muestreo no aplica/no es válido/es erróneo y esta mayor tasa contribuye a una mejora en la calidad".</p><p>Los nuevos formatos de audio que recientemente han aparecido (aunque con escaso éxito comercial) que emplean <span style="color: windowtext; text-decoration: none;">Modulación por impulsos codificados (PCM)</span> sin pérdida por compresión con tasas de muestreo más altas a las empleadas en el CD-Audio, (<span style="color: windowtext; text-decoration: none;">DVD-Audio</span>, por ejemplo) para registrar y reproducir señales de idéntico ancho de banda se justifican porque permiten el empleo de filtros de reconstrucción más benignos, sencillos y económicos sacrificando un recurso cada vez más económico y de menor trascendencia (la capacidad de almacenamiento, un recurso crítico en el pasado) y porque, además, satisfacen simultáneamente las expectativas de un mercado como el audiófilo, caracterizado por dogmas<a href="http://es.wikipedia.org/wiki/Teorema_de_muestreo_de_Nyquist-Shannon#cite_note-1"><span style="color: windowtext; text-decoration: none;">[2]</span></a> entre los que se encuentra muy extendida la falsa creencia de que esto representa una mejora en la calidad de la señal reconstruida (en particular, de sus componentes de alta frecuencia). Este error es sólo una consecuencia de una clara incomprensión del alcance y significado del teorema de muestreo y de establecer comparaciones falaces como, por ejemplo, con la digitalización de imágenes (donde no se realiza la reconstrucción de una señal periódica), etc.</p><p>La elevada tasa de muestreo de otro formato de audio de reciente aparición, el SACD o <span style="color: windowtext; text-decoration: none;">Super Audio CD</span>, es una consecuencia del uso de una tecnología denominada comercialmente <span style="color: windowtext; text-decoration: none;">Direct Stream Digital™ (DSD)</span> basada en un tipo de codificación digital denominado <span style="color: windowtext; text-decoration: none;">Modulación por densidad de impulsos (PDM)</span>. Si bien la tasa de muestreo es 64 veces la del CD-Audio, es necesario tener presente que se trata de una cuantificación de 1 bit (en lugar de los 16 empleados en el CD-Audio) y basado en técnicas de <span style="color: windowtext; text-decoration: none;">Noise Shaping</span> (modelado de ruido). No es posible, por tanto, establecer comparaciones superficiales con el PCM de CD-Audio ó DVD-Audio (ambos PCM), ya que en este caso la relación señal-ruido no es constante respecto de la frecuencia<span style="color: windowtext; text-decoration: none;"></span> (en CD-Audio el ruido de cuantificación es independiente de la frecuencia y sólo depende de los intervalos de amplitud empleados en el proceso de cuantificación, es decir, es de unos 98,09 dB<span style="color: windowtext; text-decoration: none;"></span> constantes para los 16 bits de este estándar CD-Audio en todo el espectro útil). Un SACD puede registrar y reproducir señales con componentes de hasta 33 kHz con una relación señal-ruido equivalente al de un CD-Audio (aunque 33 kHz está casi una octava por encima del máximo audible y, por tanto, una ventaja sobre el CD-Audio de dudosa utilidad práctica) y mantener una relación señal-ruido de aproximadamente 122 dB para el espectro audible (un potencial, el equivalente aproximado a 20 bits, también de dudosa utilidad práctica como formato final de usuario considerando los medios y entornos de reproducción de este formato).</p><p>Entre las ventajas objetivas de estos formatos (DVD-Audio y SACD) se encuentra el potencial multicanal (registro de más de dos canales) y la capacidad para el empleo de técnicas de protección de copia (algo de extraordinario interés para las compañías discográficas y, probablemente, la auténtica justificación industrial y comercial de estos productos junto con el evidente beneficio resultante de la sustitución de todos los equipos reproductores y grabadores del mundo).</p><p>Se han publicado trabajos experimentales rigurosos<a href="http://es.wikipedia.org/wiki/Teorema_de_muestreo_de_Nyquist-Shannon#cite_note-4"><span style="color: windowtext; text-decoration: none;"></span></a> que concluyen que no existen diferencias audibles entre los formatos denominados de alta resolución y el tradicional soporte de audio digital CD-Audio (PCM 16 bits;44100 muestras/s).</p><p>Asimismo, también se han probado indistinguibles entre sí los formatos de alta resolución SACD y DVD-Audio</p><p class="MsoNormal"><span style="font-size: 12pt; line-height: 115%; font-family: "Times New Roman","serif";"><br />
</span></p><p class="MsoNormal"><span style="font-size: 12pt; line-height: 115%; font-family: "Times New Roman","serif";">David Moreno</span></p><p class="MsoNormal"><span style="font-size: 12pt; line-height: 115%; font-family: "Times New Roman","serif";">17812731</span></p><p class="MsoNormal"><span style="font-size: 12pt; line-height: 115%; font-family: "Times New Roman","serif";">EES<br />
</span></p><p class="MsoNormal"><span style="font-size: 12pt; line-height: 115%; font-family: "Times New Roman","serif";"><br />
</span></p>Tecnología en Telecomunicaciones - conocimientos.com.vehttp://www.blogger.com/profile/13517798918797491823noreply@blogger.com0tag:blogger.com,1999:blog-6848052930915865724.post-56600529776226006812010-07-07T12:42:00.001-04:302010-07-09T19:54:59.603-04:30Control ClasicoHasta bien entrado el siglo XX las únicas herramientas analíticas que poseía el especialista en control eran la utilización de ecuaciones diferenciales ordinarias junto con criterios algebraicos para determinar la posición de las raíces de la ecuación característica asociada. Aplicando el criterio de Routh y Hurwitz el ingeniero determinaba la estabilidad o no de los sistemas, pero para esto se debía obtener el modelo matemático operando mediante ecuaciones diferenciales. Esto suponía un arduo trabajo. Además ahí que destacar que el criterio de Routh y Hurwitz no ofrece información de cómo mejorar la estabilidad del sistema.<br />
Desde el punto de vista teórico, la Ingeniería de Control se empieza a consolidar cuando se produce el traslado y aplicación de los conocimientos adquiridos en los problemas de amplificación de señales a los problemas de control industrial.<br />
Estos estudios desembocan en la llamada Teoría Clásica de Control, en la cual se utililizaban como herramientas matemáticas los métodos de Transformación de Laplace y Fourier y la descripción externa de los sistemas.<br />
<div align="justify"> Dos trabajos de singular importancia son los desarrollados por Minorsky y Hazen. En el trabajo de Minorsky "Directional Stability of Automatic Steered Bodies" [Thaler 74] de 1922, se reconoce la no-linealidad de los sistemas y aplica la linealización mediante el desarrollo en serie de Taylor a sistemas no-lineales correspondientes al movimiento angular de un buque. Estudia la estabilidad y los efectos de los retrasos de la información sobre las salidas de los Sistemas.<br />
<br />
<div style="text-align: center;"><img alt="http://www.microwaves101.com/encyclopedia/images/history/nyquist.jpg" src="http://www.microwaves101.com/encyclopedia/images/history/nyquist.jpg" /></div><br />
<div style="text-align: center;">Harry Nyquist.</div><br />
Hazen en su publicación "Theory of Servomechanism" (1934) [Thaler 74], analiza el funcionamiento de los servomecánismos utilizando en su análisis entradas típicas de escalón y rampa. Aparte de proponer un marco conceptual, Hazen utiliza herramientas matemáticas como el cálculo operacional de Heaviside. En sus trabajos estudia el diseño de servomecanismos para posicionar ejes.<br />
<b> </b><br />
<b style="color: #009900;"><i><u>El desarrollo de las técnicas frecuenciales</u>:</i></b><b style="color: #009900;"><i> </i></b> <br />
<br />
El estudio de los servomecanismos y los reguladores en el dominio frecuencial se realiza al obtenerse resultados sobre el diseño de amplificadores de señal realimentados. Destacan los trabajos de Nyquist (1932), Black (1934) y Bode (1940).<br />
El suceso que realmente marca época en el desarrollo de los métodos de respuesta en frecuencia es la aparición de trabajo clásico de Nyquist sobre la estabilidad de amplificadores realimentados. Nyquist presenta en este trabajo "Regeneration Theory" [Thaler 74], su celebre criterio de estabilidad. Su investigación surge de los problemas que presentaba la atenuación y distorsión de la señal en la telefonía a grandes distancias.<br />
En 1915 la Bell System había finalizado un enlace telefónico experimental entre New York y San Francisco. Este enlace utilizó una línea aérea de cobre que pesaba 500 Kg/milla y fue cargado inductivamente para tener una frecuencia de corte de 1000 Hz. La atenuación de la señal a lo largo de las 3000 millas era de 60 dB, se redujo a 18dB utilizando seis amplificadores con una ganancia total de 42 dB.<br />
Sin embargo el cambio a operaciones mediante cable, planteó serios problemas técnicos. Debido a la escasa sección de los cables la atenuación era grande y se requerían muchos amplificadores repetidores. Esto suponía que la señal al pasar por múltiples etapas amplificadoras, cada una con sus no-linealidades, se iba distorsionando. Para mantener la inteligibilidad de la señal de audio transmitida en distancias intercontinentales se requería una linealidad efectiva del amplificador muy lejos de la que la tecnología era capaz de dar ( una distorsión del orden del 0.005%).<br />
Esta dificultad sólo se pudo vencer con el magnífico invento desarrollado por H. Black de los laboratorios Bell quien propuso la idea de un <i>amplificador realimentado</i>, en su trabajo "Stabilized Feedback Amplifiers" [Thaler 74] en 1934<i>. </i>El descubrimiento importante de Black fue que la elevada ganancia en un dispositivo amplificador no lineal y cuyos parámetros eran variables con el tiempo se podía negociar para conseguir una reducción en la distorsión no lineal de manera que el sistema se comportase como una ganancia lineal, estable y precisa. Black utiliza el criterio de Nyquist y llega a interpretar una serie de fenómenos que se producen en los sistemas realimentados.<br />
El mecanismo era simplemente utilizar componentes pasivos lineales apropiados de gran precisión en el lazo de realimentación de un amplificador no lineal de elevada ganancia. Hacia 1932 Black y su equipo podían construir amplificadores que funcionaban razonablemente bien. Sin embargo presentaban una tendencia a inestabilizarse. Algunos lo hacían cuando aumentaba la ganancia del lazo del amplificador realimentado, lo cual se podía esperar, pero otros manifestaban estas características cuando la ganancia se disminuía y esto si que era completamente inesperado.<br />
La situación era muy parecida a la asociada con los reguladores de velocidad del siglo XIX, que presentaban oscilaciones en la velocidad y cuya conducta no se podía explicar con las herramientas de análisis disponibles.<br />
Los amplificadores realimentados de la época podían contener del orden de 50 elementos independientes almacenadores de energía (tales como condensadores, autoinducciones, etc.). Su descripción en términos de un conjunto de ecuaciones diferenciales, como en el análisis clásico de los sistemas de control automático de origen mecánico era casi una tarea imposible a la vista de las rudimentarias facilidades disponibles en esos años para la solución por computador de tales ecuaciones.<br />
El famoso trabajo de Nyquist resolvió este misterio, abrió totalmente nuevas perspectivas en la teoría de los mecanismos realimentados y por lo tanto comenzó una nueva era en el Control Automático. Antes de 1932 el enfoque basado en las ecuaciones diferenciales había sido la gran herramienta del ingeniero del control; en la década que siguió a la contribución de Nyquist estas técnicas fueron casi completamente reemplazadas por métodos basados en la teoría de variable compleja los cuales fueron la consecuencia natural y directa de su nuevo planteamiento.<br />
La solución del problema de la estabilidad de un sistema realimentado propuesta por Nyquist se basaba en la forma de la respuesta en frecuencia de la ganancia en lazo abierto y esto era de un valor práctico inmenso ya que se formulaba en términos de una cantidad (la ganancia) que era directamente medible. Este enlace directo con medidas experimentales era un desarrollo completamente nuevo en trabajos dinámicos de tipo aplicado.<br />
La aplicación del criterio de estabilidad de Nyquist no dependía de la disponibilidad de un modelo del sistema en la forma de una ecuación diferencial. Más aún, el contorno del lugar de Nyquist daba una indicación inmediata de cómo se podía mejorar la conducta de un sistema realimentado que estaba muy poco amortiguado o que incluso era inestable simplemente modificando de una manera apropiada su característica de ganancia en lazo abierto en función de la frecuencia.<br />
Con la perspectiva de hoy día puede resultarnos demasiado fácil subestimar la magnitud de la invención de Black y el logro teórico de Nyquist, sin embargo las cosas parecían muy diferentes en su tiempo. La concesión de una patente a Black por su amplificador tardó más de 9 años. La oficina de patentes de EEUU citaba trabajos técnicos que decían que la salida de un amplificador no se podía conectar a la entrada y permanecer estable a menos que la ganancia del lazo fuese menor que uno. La oficina de patentes británica, en palabras de Black, trató la aplicación "como si se tratase de una máquina de movimiento continuo".<br />
El trabajo de Nyquist dejaba sin resolver como estaban relacionadas la amplitud y la fase en función de la frecuencia de la función de transferencia de la ganancia en lazo abierto. En otro de los trabajos clásicos que están en los fundamentos de la Teoría del Control, H. W. Bode realizó este análisis, extendiendo resultados previos de Lee y Wiener.<br />
En el trabajo de Bode "Relations Between Attenuation and phase in Feedback Amplifier Design" [Thaler 74] de 1940, se presenta la definición de margen de fase y margen de ganancia y la definición de los diagramas logarítmicos de Bode.<br />
Bode demostró que dada cualquier función de respuesta en frecuencia A (<span style="font-family: Symbol;">w</span>) siendo A la amplitud de la ganancia en lazo abierto se le puede asociar una función <span style="font-family: Symbol;">F</span> (<span style="font-family: Symbol;">w</span>) siendo la fase mínima de dicha función de respuesta en frecuencia. De esta forma fue capaz de dar reglas para obtener la forma óptima de la ganancia del lazo en función de la frecuencia para un amplificador realimentado.<br />
En la industria de los procesos químicos la introducción del control por realimentación tendió en un principio a desarrollarse de forma aislada de los desarrollos mecánicos y eléctricos. En estos procesos la evolución de la variable controlada era tan lenta ( y lo sigue siendo) que el control se hacia mediante realimentación manual. Los primeros pasos que se dan para controlar estos procesos son la incorporación de instrumentos para supervisar la operación y registradores de plumilla. El desarrollo natural fue utilizar el movimiento de la plumilla del registrador para efectuar una acción de realimentación sobre las válvulas de control en la planta utilizando líneas de transmisión, amplificadores y transductores neumáticos.<br />
Los primeros controladores de temperatura, ofrecían una acción de control de tipo on-off por medio de un simple mecanismo conmutador o relé que pronto se reveló insuficiente para las exigencias planteadas en los procesos industriales, como por ejemplo en la industria láctea, el proceso de pasteurización de la leche. El siguiente desarrollo fueron los primeros reguladores con acción proporcional. En estos reguladores se manifestaba claramente el dilema de la automática: precisión frente estabilidad, si se desea un error estacionario pequeño, se debía aumentar la ganancia del regulador, o lo que es lo mismo disminuir la banda proporcional. Pero esto conllevaba que el proceso era sometido a fuertes oscilaciones en el transitorio. Y si se aumentaba la banda proporcional, disminuían las oscilaciones pero en caso de cambios en la carga aparecía un error estacionario apreciable. El máximo valor recomendado entonces para la banda proporcional era del cinco por ciento.<br />
<br />
<b><i><span style="font-size: xx-small;"></span></i></b><br />
<b><i><span style="font-size: xx-small;"><div align="center"><img border="0" height="304" src="http://automata.cps.unizar.es/Historia/imagenes_evolucion_historica/Imagen20.jpg" width="433" /></div></span></i></b><b style="color: #009900;"><i><br />
</i></b><br />
<div style="text-align: center;"><b style="color: #009900;"><i>Foxboro Stabilog</i></b><br />
<br />
<div style="text-align: left;">Durante los años 30 se desarrollaron completamente estos reguladores neumáticos y se transfirió a este campo del control la idea de utilizar el término de acción integral que se venía empleando desde tiempo en los sistemas mecánicos. El primer regulador de temperatura con acción proporcional integral fue el <i>Foxboro Stabilog</i> patentado por Mason en 1931. En este regulador neumático, se incorporaba amplificación lineal, basada en el principio de la realimentación negativa (al igual que Black en los amplificadores de señal realimentados) y acción integral (reset). Hay que hacer constar que en un principio el Stabilog no tuvo mucho éxito comercial, debido entre otras cosas a su precio y a que no era comprendido su funcionamiento.<br />
A finales de los años 30 se introdujo la acción derivativa en estos controladores neumáticos dando lugar así al regulador PID de 3 términos (Proporcional, Integral y Derivativo).<br />
<div align="justify"> En 1942 Ziegler y Nichols, ingenieros de Taylor Instruments hicieron un estudio importante que condujo a fórmulas empíricas para sintonizar el regulador PID al proceso. Este estudio " Optimum Settings for Automatic Controllers" [Thaler 74] fue presentado en el "ASME Winter Anual Meeting". Los coeficientes de las distintas acciones proporcional, integral y derivada, se podían determinar de valores medidos experimentalmente del proceso que se deseaba controlar. La importancia de estas reglas de ajuste óptimo de controladores es enorme, siguen siendo vigentes y profusamente usadas en el ámbito del control de procesos industriales.</div> El trabajo de Ziegler y Nichols es pionero en el desarrollo de la idea de control óptimo, aunque su criterio de optimización, que consiste en minimizar la superficie de error absoluto, no se puede tratar analíticamente.<br />
Un paso crucial en la transferencia de las técnicas utilizadas en el análisis de los amplificadores realimentados de los sistemas de telefonía a otras clases de sistemas fue realizada por H. Harris del MIT en su trabajo "The analisys and design of servomechanics" [Harris 42], en el cual introduce el uso de funciones de transferencia en el análisis de un sistema realimentado general. Esto permitió que un servomecanismo mecánico o un sistema de control de un proceso químico se representasen mediante diagramas de bloques y utilizasen las técnicas del dominio frecuencial.<br />
<b><i> </i></b><br />
<b><i><u>Avances durante la Segunda Guerra Mundial:</u></i></b> <br />
<div align="justify"> Un gran estímulo para el desarrollo de la técnica lo constituyen las guerras. La Segunda Guerra Mundial supuso un gran impulso al desarrollo teórico y mucho más al desarrollo práctico, dada la fuerte necesidad de sistemas de control que funcionarán como los servos de los radares y el posicionamiento de cañones.</div> La Segunda Guerra Mundial creó una necesidad urgente para diseñar servomecanismos de altas prestaciones y condujo a grandes avances en la forma de construir sistemas de control realimentados. Las exigencias de la guerra enfocaron la atención sobre un problema importante: el llamado <i>problema de control de tiro, </i>proporcionando una cadena automática de órdenes entre la detección del blanco, el apuntamiento del arma y el disparo. Este problema tiene tres etapas:<br />
<ol type="a"><li>Detección y seguimiento del blanco.</li>
<li>Predicción.</li>
<li>Colocación del cañón en posición de disparo.</li>
</ol>En el comienzo de la guerra, aunque cada etapa requería algunos operadores, cada uno efectuando operaciones de seguimiento manual, había una considerable controversia en cuanto al valor operacional del control automático. Esto no es sorprendente ya que los predictores que estaban en uso tenían un error medio de 2-3 grados que eran del mismo orden que el error medio de un operador de batería bien entrenado que efectuase un seguimiento manual. Cuando la guerra progresó, aumentó la velocidad de los blancos, el personal entrenado comenzó a escasear y la aparición de los radares de seguimiento mejoró notablemente la capacidad de predicción: era pues el momento para que el control automático se hiciese notar.<br />
Con el objetivo fundamental de investigar y avanzar en los problemas de control del radar y de control de tiro, en marzo de 1942, de una manera informal se constituyó un grupo que posteriormente sería denominado el "Servo-Panel". Su principal función consistió en organizar encuentros, proporcionar información y servir de nexo de comunicación entre diferentes grupos de investigación.<br />
El gobierno americano al intentar desarrollar los sistemas de control automático de tiro se enfrentó con el problema de que aunque había una considerable experiencia en temas de control, ésta se encontraba dispersa entre muchas ramas de la ingeniería y faltaba el atributo unificador de una terminología en común. La reacción no se hizo esperar, con la formación en 1940 bajo la dirección del Dr. Vannevar Bush del Comité de Investigación de Defensa Nacional (NDRC).<br />
Entre los muchos comités del NDRC estaba el de <i>Contro1 de Tiro </i>que bajo el liderazgo de Warren Weaver coordinó el trabajo de los servicios, laboratorios industriales y universidades. El comité era responsable de la dirección de la investigación y de la circulación de informes reservados a los grupos apropiados.<br />
Los informes de Brown, Harris, Hall, Wiener, Phillips y Weis entre otros, fueron emitidos bajo los auspicios del NDRC y su contenido no fue conocido hasta finales de los años 40. Los siguientes trabajos han sido recogidos en la colección [Thaler 74]:<br />
<ul><li>Brown, G.S., and A.C. Hall: <i>Dynamic Behavior and Design of Servomechanism</i>. [Brown 46].</li>
<li>Harris, H. JR: <i>The frecuency Response of Automatic Control. </i>[Harris 46].</li>
<li>Hall, A.C: <i>Aplication of Circuit Theory to the Design of Servomechanisms</i>. [Hall 46].</li>
<li>Weiss, H.K.: <i>Constant Speed Control Theory</i>. [Weiss 39].</li>
</ul><b><i> </i></b><br />
<b><i><u>Albores de la era espacial:</u></i></b> <br />
Desde siempre los procesos más complejos comandados por computador han sido las aplicaciones de control de vuelo aerospaciales. Sin disponer de las tecnologías del control automático y los computadores, hubiera sido imposible que el hombre hubiera viajado al espacio. Los pioneros en esta aplicación fueron, además de otros, el ruso Constantin E. Tsiolkovsky (1857-1935), y el alemán Hermann Ganswindt (1856-1934) que criticaron a los astrónomos y matemáticos de la época que aseguraban que nunca jamás el ser humano poseería los medios para conseguir el control, la precisión y la velocidad necesaria para los vuelos en el espacio.<br />
Uno de los primeros trabajos en este campo se debe al alemán Hermann Orberth, que en su articulo "Die Rakete zu den Planetenräumen" (Cohetes en el espacio interplanetario) publicado en 1923, afirma que para poder efectuar vuelos en el espacio, el hombre debe acceder a técnicas de control automático mucho más sofisticadas que las disponibles entonces. En su trabajo de 1929 "Wege zur Raumschiffahrt" (Métodos para volar en el espacio) predice que el desarrollo de cohetes que dispongan de la suficiente fuerza propulsiva llevará largo tiempo y lo mismo sucederá con la necesaria tecnología de control automático. Asimismo un elemento fundamental en la navegación espacial será la precisión a la hora de maniobrar dado que las velocidades y las distancias implicadas son enormes (evidentemente astronómicas). Para colocar un satélite orbitando sobre la tierra es necesaria una velocidad mínima de 7,904 kilómetros por segundo. Para poder escapar de la tierra y navegar por el espacio interestelar es necesaria una velocidad mínima de 11,178 Km./seg. conocida como la velocidad de escape. Estas velocidades resultaban difíciles de imaginar para la época cuando un coche que circulaba a 100 Km./hora necesitaba cinco minutos para recorrer la distancia de ocho kilómetros. En otras palabras el cohete debía ir a una velocidad trescientas veces superior a la del coche.<br />
La falta de oxigeno en el espacio exterior conllevaba la imposibilidad de realizar la combustión en las turbinas de los cohetes. Robert H. Goddard publica en 1919 el primer trabajo "A Method of Reaching Extreme Altitudes" donde se describen cohetes cuya combustión se basaba en oxígeno líquido.<br />
Las mayores contribuciones al campo de la navegación espacial que posibilitaron que el hombre llegara a la luna en 1969 se realizaron en la base alemana de Peenemünde situada en la isla de Usedom del mar Báltico. La base fue construida entre 1936 y 1940. Las investigaciones y desarrollos realizados ahí constituyen uno de los capítulos más excitantes de la historia de la ciencia y la técnica.<br />
Las primeras unidades desarrolladas para el ejercito alemán, las denominadas A1 y A2, fueron destinadas principalmente al ensayo de sistemas de propulsión y control de cohetes. Una vez se dispuso de unidades en funcionamiento, enseguida se observo que el principal problema a solucionar era mantener el sistema estable. Según palabras de Willy Ley [Willy 44] los conocimientos que se poseían entonces sobre la estabilidad de los cohetes <i>"se podían escribir en una postal, dejando alguna parte en blanco"</i>.<br />
Para el desarrollo del tercer ingenio, la A3, la marina Alemana envió a un reconocido especialista en el problema de estabilización y alineamiento de las torretas de tiro, el clásico problema del control de la segunda guerra mundial. Sin embargo este ingenio no se terminó de construir dado que el mecanismo de control se revelo inadecuado. Después de lo cual se desarrolla un nuevo sistema de control bastante avanzado para la época. Este sistema utilizaba giróscopos y acelerómetros como elementos sensores y disponía de servomotores eléctricos que podían efectuar pequeños y precisos movimientos, construidos en molibdeno, un material resistente a altas temperaturas, y encargados de controlar el suministro de gas a las turbinas del cohete.<br />
Para estudiar la dinámica del sistema se construyo un simulador mecánico, cuyo diseño se basó en los registros obtenidos de los vuelos de los primeros ensayos mediante radiotelemetría (otro desarrollo pionero). En este momento, Willy Ley hubiera necesitado al menos doce docenas de postales.<br />
Esta concentración de esfuerzos en resolver los problemas de control y estabilidad condujo al desarrollo de la unidad A4, que Goebbels después denominaría V2–V de Vergeltungswaffe (misil de justo castigo o pena merecida). Ya en las primeras pruebas efectuadas por este misil se le equipó con un potente equipo de radio con el objetivo de realizar medidas mediante telemetría y también disponía de un sistema de radiocontrol en fase de pruebas. En 1943 un misil A4 se estrelló en la zona de Borholm en Dinamarca, siendo recuperados sus restos por agentes de aquel país que se encargaron de enviar fotografías y dibujos a Inglaterra vía Estocolmo. En el verano de 1944 otro misil se estrelló al sur de Suecia, este fue entregado a los aliados, los cuales se alarmaron ante lo que se veía venir. Los aliados concluyeron erróneamente que estos ingenios estaban guiados por radio. Nada más lejos de la realidad, las pruebas realizadas por los investigadores alemanes afirmaban que les era imposible controlar los misiles con la debida precisión. Los ingenios eran alineados hacia su objetivo (primero fue París y después Londres), pero una vez habían sido lanzados era imposible modificar la trayectoria del misil.<br />
Durante las últimas fases de la segunda guerra mundial en la base de Peenemünde se llegaron a realizar proyectos sobre misiles transatlánticos (la unidad A6)…Incluso la Gestapo llego a arrestar a Wernher Von Braun por haber hablado abiertamente de la posibilidad de enviar objetos al espacio. Fue liberado gracias a la mediación del director de la base de Peenemünde, que explicó a altos oficiales de la Gestapo que las ideas de von Braun contribuían a la creación de nuevos y más potentes <i>misiles de justo castigo.</i> Cuando Alemania esta ya prácticamente derrotada, en mayo de 1945, la base de Peenemünde junto con todo su arsenal de cohetes cayó en manos de los aliados, y en Julio de ese mismo año trescientos vagones de tren cargados de cohetes A4 llegaron a una base de Nuevo Méjico. También se traslado allí todo el equipo científico alemán que continuó con su labor de investigación.<br />
El resto de la historia es de sobra conocida por todos nosotros. <i>¿Llegará alguno de nuestros hijos al Planeta Rojo?</i><br />
<i> <b> </b></i><br />
<i><b><u>Los años clásicos: 1945-1955:</u></b></i> <br />
Desde el punto de vista del desarrollo de las técnicas de diseño de control automático, el principal resultado de este gran esfuerzo y experiencia fue extender rápidamente la utilización de las ideas de respuesta en frecuencia a todos los campos y producir así una teoría unificada y coherente para los sistemas realimentados con un único lazo.<br />
Coincidiendo con la segunda guerra mundial, el matemático Wiener desarrolla la<i> teoría estocástica clásica</i>, la cual tuvo su inicio en el estudio del problema de automatización de un cañón aéreo. En este trabajo se da un enfoque radicalmente distinto del estudio del problema del control, y supone el inicio de la conocida como teoría estocástica clásica. Las aportaciones de Wiener consisten en considerar la presencia de ruidos en las señales, e introduce también el concepto de control óptimo, cuyo objetivo consiste en minimizar un determinado criterio que define la calidad del control, en este caso minimiza la superficie de error cuadrático [Wiener 49].<br />
Wiener también establece la relación entre estos ingenios autogobernados y determinados procesos que suceden en los seres vivos. Todo ello, conduce a la formulación de lo que se denominaría <i>cibernética</i> en su trabajo "Cybernetics" de 1948 publicado por el MIT press [Wiener 48].<br />
A finales de la década de los cuarenta, surgen otras dos vías de desarrollo de la teoría de control: el Método del modelo de Truxal [Truxal 54] y el método del lugar de las Raíces, de Evans. Se presentan también aportaciones como la extensión de los métodos frecuenciales a sistemas no-lineales y a sistemas estocásticos.<br />
El método del modelo es una adaptación del método de Guillemin desarrollado inicialmente para el diseño de redes pasivas. Partiendo de las especificaciones deseadas se obtiene la función de transferencia que debe seguir el sistema de control. El cálculo de la función de transferencia del regulador se realiza fácilmente por medio de operaciones álgebraicas. Este método resultaba atractivo dado que no utiliza la técnica de prueba y error. Pero se manifestaban en él algunas dificultades prácticas como podían ser la complejidad de los correctores que se obtienen, que dejaban de tener la estructura clásica PID.<br />
Los trabajos de Evans:<br />
<blockquote>"Graphical Analysis of Control Systems" [Evans 48].<br />
"Control System Synthesis by Root Locus Method" [Evans 50].</blockquote>ambos recogidos en [Thaler 74], constituyen la última gran contribución a la teoría clásica de control. En palabras del propio autor "el lugar de las raíces determina todas las raíces de la ecuación diferencial de un sistema de control por medio de una representación gráfica, la cual permite una síntesis rápida de la respuesta transitoria o frecuencial deseada".<br />
El método de Evans cuenta con el handicap de no poder abordar el análisis de sistemas con retraso puro y la difícil estimación de la respuesta temporal de sistemas con distribuciones dispersas de polos y ceros. A su favor, aporta un método gráfico de estimar la influencia de variaciones en los parámetros del sistema o del regulador sobre la estabilidad y el comportamiento dinámico de los sistemas.<br />
<br />
David Moreno<br />
17812731<br />
EES</div></div><b style="color: #009900;"><i><a href="http://conocimientosfeedbackamplifiers.blogspot.com/search/label/Karla%20Velasquez" name="_Toc468265878"></a></i></b></div><b><i><span style="font-size: xx-small;"> </span></i></b>Tecnología en Telecomunicaciones - conocimientos.com.vehttp://www.blogger.com/profile/13517798918797491823noreply@blogger.com0tag:blogger.com,1999:blog-6848052930915865724.post-40759011034693759112010-07-07T12:16:00.002-04:302010-07-09T19:54:43.076-04:30Negative feedback amplifier and Divided feedback<span lang="EN-US" style="font-family: 'Times New Roman', serif; font-size: 12pt;"><b style="color: #009900;">Negative feedback</b><br />
</span><br />
<span lang="EN-US" style="font-family: 'Times New Roman', serif; font-size: 12pt;"> </span>If we connect the output of an op-amp to its inverting input and apply a voltage signal to the noninverting input, we find that the output voltage of the op-amp closely follows that input voltage (I've neglected to draw in the power supply, +V/-V wires, and ground symbol for simplicity): <br />
<img src="http://sub.allaboutcircuits.com/images/03034.png" /> <br />
As V<sub>in</sub> increases, V<sub>out</sub> will increase in accordance with the differential gain. However, as V<sub>out</sub> increases, that output voltage is fed back to the inverting input, thereby acting to decrease the voltage differential between inputs, which acts to bring the output down. What will happen for any given voltage input is that the op-amp will output a voltage very nearly equal to V<sub>in</sub>, but just low enough so that there's enough voltage difference left between V<sub>in</sub> and the (-) input to be amplified to generate the output voltage. <br />
<a href="" name="Feedback, negative"></a> <a href="" name="Negative feedback"></a> <a href="" name="Equilibrium"></a> <br />
The circuit will quickly reach a point of stability (known as <i>equilibrium</i> in physics), where the output voltage is just the right amount to maintain the right amount of differential, which in turn produces the right amount of output voltage. Taking the op-amp's output voltage and coupling it to the inverting input is a technique known as <i><span class="hilite1">negative</span> <span class="hilite2">feedback</span></i>, and it is the key to having a self-stabilizing system (this is true not only of op-amps, but of any dynamic system in general). This stability gives the op-amp the capacity to work in its linear (active) mode, as opposed to merely being saturated fully "on" or "off" as it was when used as a comparator, with no <span class="hilite2">feedback</span> at all. <br />
Because the op-amp's gain is so high, the voltage on the inverting input can be maintained almost equal to V<sub>in</sub>. Let's say that our op-amp has a differential voltage gain of 200,000. If V<sub>in</sub> equals 6 volts, the output voltage will be 5.999970000149999 volts. This creates just enough differential voltage (6 volts - 5.999970000149999 volts = 29.99985 µV) to cause 5.999970000149999 volts to be manifested at the output terminal, and the system holds there in balance. As you can see, 29.99985 µV is not a lot of differential, so for practical calculations, we can assume that the differential voltage between the two input wires is held by <span class="hilite1">negative</span> <span class="hilite2">feedback</span> exactly at 0 volts. <br />
<img src="http://sub.allaboutcircuits.com/images/03035.png" /> <br />
<br />
<img src="http://sub.allaboutcircuits.com/images/03036.png" /> <br />
One great advantage to using an op-amp with <span class="hilite1">negative</span> <span class="hilite2">feedback</span> is that the actual voltage gain of the op-amp doesn't matter, so long as its very large. If the op-amp's differential gain were 250,000 instead of 200,000, all it would mean is that the output voltage would hold just a little closer to V<sub>in</sub> (less differential voltage needed between inputs to generate the required output). In the circuit just illustrated, the output voltage would still be (for all practical purposes) equal to the non-inverting input voltage. Op-amp gains, therefore, do not have to be precisely set by the factory in order for the circuit designer to build an <span class="hilite3">amplifier</span> circuit with precise gain. <span class="hilite1">Negative</span> <span class="hilite2">feedback</span> makes the system self-correcting. The above circuit as a whole will simply follow the input voltage with a stable gain of 1. <br />
Going back to our differential <span class="hilite3">amplifier</span> model, we can think of the operational <span class="hilite3">amplifier</span> as being a variable voltage source controlled by an extremely sensitive <i>null detector</i>, the kind of meter movement or other sensitive measurement device used in bridge circuits to detect a condition of balance (zero volts). The "potentiometer" inside the op-amp creating the variable voltage will move to whatever position it must to "balance" the inverting and noninverting input voltages so that the "null detector" has zero voltage across it: <br />
<img src="http://sub.allaboutcircuits.com/images/03232.png" /> <br />
<a href="" name="Voltage follower"></a> <a href="" name="Voltage buffer"></a> <br />
As the "potentiometer" will move to provide an output voltage necessary to satisfy the "null detector" at an "indication" of zero volts, the output voltage becomes equal to the input voltage: in this case, 6 volts. If the input voltage changes at all, the "potentiometer" inside the op-amp will change position to hold the "null detector" in balance (indicating zero volts), resulting in an output voltage approximately equal to the input voltage at all times. <br />
This will hold true within the range of voltages that the op-amp can output. With a power supply of +15V/-15V, and an ideal <span class="hilite3">amplifier</span> that can swing its output voltage just as far, it will faithfully "follow" the input voltage between the limits of +15 volts and -15 volts. For this reason, the above circuit is known as a <i>voltage follower</i>. Like its one-transistor counterpart, the common-collector ("emitter-follower") <span class="hilite3">amplifier</span>, it has a voltage gain of 1, a high input impedance, a low output impedance, and a high current gain. Voltage followers are also known as <i>voltage buffers</i>, and are used to boost the current-sourcing ability of voltage signals too weak (too high of source impedance) to directly drive a load. The op-amp model shown in the last illustration depicts how the output voltage is essentially isolated from the input voltage, so that current on the output pin is not supplied by the input voltage source at all, but rather from the power supply powering the op-amp. <br />
<a href="" name="Saturation voltage"></a> <a href="" name="Voltage, op-amp output saturation"></a> <a href="" name="Rail voltage"></a> <br />
It should be mentioned that many op-amps cannot swing their output voltages exactly to +V/-V power supply rail voltages. The model 741 is one of those that cannot: when saturated, its output voltage peaks within about one volt of the +V power supply voltage and within about 2 volts of the -V power supply voltage. Therefore, with a split power supply of +15/-15 volts, a 741 op-amp's output may go as high as +14 volts or as low as -13 volts (approximately), but no further. This is due to its bipolar transistor design. These two voltage limits are known as the <i>positive saturation voltage</i> and <i><span class="hilite1">negative</span> saturation voltage</i>, respectively. Other op-amps, such as the model 3130 with field-effect transistors in the final output stage, have the ability to swing their output voltages within millivolts of either power supply <i>rail</i> voltage. Consequently, their positive and <span class="hilite1">negative</span> saturation voltages are practically equal to the supply voltages. <br />
<ul><li><b>REVIEW:</b></li>
<li>Connecting the output of an op-amp to its inverting (-) input is called <i><span class="hilite1">negative</span> <span class="hilite2">feedback</span></i>. This term can be broadly applied to any dynamic system where the output signal is "fed back" to the input somehow so as to reach a point of equilibrium (balance).</li>
<li>When the output of an op-amp is <i>directly</i> connected to its inverting (-) input, a <i>voltage follower</i> will be created. Whatever signal voltage is impressed upon the noninverting (+) input will be seen on the output.</li>
<li>An op-amp with <span class="hilite1">negative</span> <span class="hilite2">feedback</span> will try to drive its output voltage to whatever level necessary so that the differential voltage between the two inputs is practically zero. The higher the op-amp differential gain, the closer that differential voltage will be to zero.</li>
<li>Some op-amps cannot produce an output voltage equal to their supply voltage when saturated. The model 741 is one of these. The upper and lower limits of an op-amp's output voltage swing are known as <i>positive saturation voltage</i> and <i><span class="hilite1">negative</span> saturation voltage</i>, respectively.</li>
</ul><h1 style="color: #009900;"><span style="font-size: x-small;">Divided feedback</span></h1>If we add a voltage divider to the negative feedback wiring so that only a <i>fraction</i> of the output voltage is fed back to the inverting input instead of the full amount, the output voltage will be a <i>multiple</i> of the input voltage (please bear in mind that the power supply connections to the op-amp have been omitted once again for simplicity's sake): <br />
<img src="http://sub.allaboutcircuits.com/images/03037.png" /> <br />
If R<sub>1</sub> and R<sub>2</sub> are both equal and V<sub>in</sub> is 6 volts, the op-amp will output whatever voltage is needed to drop 6 volts across R<sub>1</sub> (to make the inverting input voltage equal to 6 volts, as well, keeping the voltage difference between the two inputs equal to zero). With the 2:1 voltage divider of R<sub>1</sub> and R<sub>2</sub>, this will take 12 volts at the output of the op-amp to accomplish. <br />
Another way of analyzing this circuit is to start by calculating the magnitude and direction of current through R<sub>1</sub>, knowing the voltage on either side (and therefore, by subtraction, the voltage across R<sub>1</sub>), and R<sub>1</sub>'s resistance. Since the left-hand side of R<sub>1</sub> is connected to ground (0 volts) and the right-hand side is at a potential of 6 volts (due to the negative feedback holding that point equal to V<sub>in</sub>), we can see that we have 6 volts across R<sub>1</sub>. This gives us 6 mA of current through R<sub>1</sub> from left to right. Because we know that both inputs of the op-amp have extremely high impedance, we can safely assume they won't add or subtract any current through the divider. In other words, we can treat R<sub>1</sub> and R<sub>2</sub> as being in series with each other: all of the electrons flowing through R<sub>1</sub> must flow through R<sub>2</sub>. Knowing the current through R<sub>2</sub> and the resistance of R<sub>2</sub>, we can calculate the voltage across R<sub>2</sub> (6 volts), and its polarity. Counting up voltages from ground (0 volts) to the right-hand side of R<sub>2</sub>, we arrive at 12 volts on the output. <br />
Upon examining the last illustration, one might wonder, "where does that 6 mA of current go?" The last illustration doesn't show the entire current path, but in reality it comes from the negative side of the DC power supply, through ground, through R<sub>1</sub>, through R<sub>2</sub>, through the output pin of the op-amp, and then back to the positive side of the DC power supply through the output transistor(s) of the op-amp. Using the null detector/potentiometer model of the op-amp, the current path looks like this: <br />
<img src="http://sub.allaboutcircuits.com/images/03233.png" /> <br />
The 6 volt signal source does not have to supply any current for the circuit: it merely commands the op-amp to balance voltage between the inverting (-) and noninverting (+) input pins, and in so doing produce an output voltage that is twice the input due to the dividing effect of the two 1 kΩ resistors. <br />
We can change the voltage gain of this circuit, overall, just by adjusting the values of R<sub>1</sub> and R<sub>2</sub> (changing the ratio of output voltage that is fed back to the inverting input). Gain can be calculated by the following formula: <br />
<img src="http://sub.allaboutcircuits.com/images/13004.png" /> <br />
Note that the voltage gain for this design of amplifier circuit can never be less than 1. If we were to lower R<sub>2</sub> to a value of zero ohms, our circuit would be essentially identical to the voltage follower, with the output directly connected to the inverting input. Since the voltage follower has a gain of 1, this sets the lower gain limit of the noninverting amplifier. However, the gain can be increased far beyond 1, by increasing R<sub>2</sub> in proportion to R<sub>1</sub>. <br />
<a href="" name="Amplifier, noninverting"></a> <a href="" name="Noninverting amplifier"></a> <br />
Also note that the polarity of the output matches that of the input, just as with a voltage follower. A positive input voltage results in a positive output voltage, and vice versa (with respect to ground). For this reason, this circuit is referred to as a <i>noninverting amplifier</i>. <br />
Just as with the voltage follower, we see that the differential gain of the op-amp is irrelevant, so long as its very high. The voltages and currents in this circuit would hardly change at all if the op-amp's voltage gain were 250,000 instead of 200,000. This stands as a stark contrast to single-transistor amplifier circuit designs, where the Beta of the individual transistor greatly influenced the overall gains of the amplifier. With negative feedback, we have a self-correcting system that amplifies voltage according to the ratios set by the feedback resistors, not the gains internal to the op-amp. <br />
Let's see what happens if we retain negative feedback through a voltage divider, but apply the input voltage at a different location: <br />
<img src="http://sub.allaboutcircuits.com/images/03038.png" /> <br />
<a href="" name="Virtual ground"></a> <a href="" name="Ground, virtual"></a> <br />
By grounding the noninverting input, the negative feedback from the output seeks to hold the inverting input's voltage at 0 volts, as well. For this reason, the inverting input is referred to in this circuit as a <i>virtual ground</i>, being held at ground potential (0 volts) by the feedback, yet not directly connected to (electrically common with) ground. The input voltage this time is applied to the left-hand end of the voltage divider (R<sub>1</sub> = R<sub>2</sub> = 1 kΩ again), so the output voltage must swing to -6 volts in order to balance the middle at ground potential (0 volts). Using the same techniques as with the noninverting amplifier, we can analyze this circuit's operation by determining current magnitudes and directions, starting with R<sub>1</sub>, and continuing on to determining the output voltage. <br />
We can change the overall voltage gain of this circuit, overall, just by adjusting the values of R<sub>1</sub> and R<sub>2</sub> (changing the ratio of output voltage that is fed back to the inverting input). Gain can be calculated by the following formula: <br />
<img src="http://sub.allaboutcircuits.com/images/13005.png" /> <br />
<a href="" name="Amplifier, inverting"></a> <a href="" name="Inverting amplifier"></a> <br />
Note that this circuit's voltage gain <i>can</i> be less than 1, depending solely on the ratio of R<sub>2</sub> to R<sub>1</sub>. Also note that the output voltage is always the opposite polarity of the input voltage. A positive input voltage results in a negative output voltage, and vice versa (with respect to ground). For this reason, this circuit is referred to as an <i>inverting amplifier</i>. Sometimes, the gain formula contains a negative sign (before the R<sub>2</sub>/R<sub>1</sub> fraction) to reflect this reversal of polarities. <br />
These two amplifier circuits we've just investigated serve the purpose of multiplying or dividing the magnitude of the input voltage signal. This is exactly how the mathematical operations of multiplication and division are typically handled in analog computer circuitry. <br />
<ul><li><b>REVIEW:</b></li>
<li>By connecting the inverting (-) input of an op-amp directly to the output, we get negative feedback, which gives us a <i>voltage follower</i> circuit. By connecting that negative feedback through a resistive voltage divider (feeding back a <i>fraction</i> of the output voltage to the inverting input), the output voltage becomes a <i>multiple</i> of the input voltage.</li>
<li>A negative-feedback op-amp circuit with the input signal going to the noninverting (+) input is called a <i>noninverting amplifier</i>. The output voltage will be the same polarity as the input. Voltage gain is given by the following equation: A<sub>V</sub> = (R<sub>2</sub>/R<sub>1</sub>) + 1</li>
<li>A negative-feedback op-amp circuit with the input signal going to the "bottom" of the resistive voltage divider, with the noninverting (+) input grounded, is called an <i>inverting amplifier</i>. Its output voltage will be the opposite polarity of the input. Voltage gain is given by the following equation: A<sub>V</sub> = -R<sub>2</sub>/R<sub>1</sub></li>
</ul>David Moreno<br />
17812731<br />
EESTecnología en Telecomunicaciones - conocimientos.com.vehttp://www.blogger.com/profile/13517798918797491823noreply@blogger.com0tag:blogger.com,1999:blog-6848052930915865724.post-68067100298998890082010-07-07T11:52:00.002-04:302010-07-09T19:54:25.640-04:30Sensor CMOS<span style="font-weight: bold;"><br />
</span> <br />
<div class="thumb tright"><div style="text-align: center;"></div><div class="thumbinner" style="width: 222px;"><div style="text-align: center;"><a class="image" href="http://es.wikipedia.org/wiki/Archivo:Active_pixel_sensor_prototype.jpg"><img alt="" class="thumbimage" height="178" src="http://upload.wikimedia.org/wikipedia/commons/thumb/6/6b/Active_pixel_sensor_prototype.jpg/220px-Active_pixel_sensor_prototype.jpg" width="220" /></a></div><div class="thumbcaption"><div class="magnify"><a class="internal" href="http://es.wikipedia.org/wiki/Archivo:Active_pixel_sensor_prototype.jpg" title="Aumentar"><br />
</a></div>Uno de los primeros CMOS-APS, desarrollado por la Nasa<br />
<br />
</div></div></div>Un Active Pixel Sensor es un sensor que detecta la luz basado en tecnología CMOS y por ello más conocido como Sensor CMOS. Gracias a la tecnología CMOS es posible integrar más funciones en un chip sensor, como por ejemplo control de luminosidad, corrector de contraste, o un conversor analógico-digital.<br />
Contenido<br />
<br />
<br />
<span style="color: #009900; font-weight: bold;">Principio de funcionamiento</span><br />
<br />
El APS, al igual que el el sensor CCD, se basa en el efecto fotoeléctrico. Está formado por numerosos fotositos, uno para cada píxel, que producen una corriente eléctrica que varía en función de la intensidad de luz recibida. En el CMOS, a diferencia del CCD se incorpora un amplificador de la señal eléctrica en cada fotosito y es común incluir el conversor digital en el propio chip. En un CCD se tiene que enviar la señal eléctrica producida por cada fotosito al exterior y desde allí se amplifica.<br />
<br />
La ventaja es que la electrónica puede leer directamente la señal de cada píxel con lo que se soluciona el problema conocido como blooming, por el que la recepción de una gran intensidad lumínica en un punto influye en los píxeles adyacentes (un brillo fuerte produce líneas blancas en la imagen). La desventaja es que entre los receptores de luz (fotositos) se encuentra mucha electrónica que no es sensible a la luz, lo que implica que no pueda captar tanta luz en una misma superficie del chip. La solución al problema vino no sólo por una mayor densidad de integración, por lo que la electrónica no sensible se reducía en tamaño, sino por la aplicación de microlentes que a modo de lupa concentran la luz de cada celda en su fotosito.<br />
<br />
<div class="thumb tright"><div class="thumbinner" style="width: 202px;"><a class="image" href="http://es.wikipedia.org/wiki/Archivo:Bayer_pattern_on_sensor.svg"><img alt="" class="thumbimage" height="130" src="http://upload.wikimedia.org/wikipedia/commons/thumb/3/37/Bayer_pattern_on_sensor.svg/200px-Bayer_pattern_on_sensor.svg.png" width="200" /></a> <br />
<div class="thumbcaption"><div class="magnify" style="color: #009900; font-weight: bold;"><a class="internal" href="http://es.wikipedia.org/wiki/Archivo:Bayer_pattern_on_sensor.svg" title="Aumentar"><span style="color: #009900;">Filtro Bayer utilizado en numerosas cámaras digitales.</span><br />
</a></div><a class="mw-redirect" href="http://es.wikipedia.org/wiki/Filtro_Bayer" title="Filtro Bayer"><br />
</a></div></div></div>Debido a que no se podía alcanzar la densidad de integración necesaria para competir con el CCD, esta tecnología careció de importancia durante los años 70, 80 y mitad de los 90.<br />
<br />
Al igual que ocurre con el CCD, los fotositos captan únicamente intensidad lumínica, para lo que se suele emplear un filtro conocido como máscara de Bayer para la distinción de los colores. Mediante esta máscara unos fotositos tienen un filtro para recoger solo la luz roja, otros para la verde y otros para el azul.<br />
<br />
<span style="color: #009900; font-weight: bold;">En comparación otros sensores</span><br />
<br />
Según los fabricantes de CCDs, los sensores CMOS tienen un elevado ruido de patrón fijo (FPN, en inglés, ruido que no varia con el tiempo y que se ve como un fondo fijo en la imagen) pero sus defensores indican que tienen un bajo consumo de energía (lo cual redunda en una mayor autonomía de la cámara). Al parecer, el 'ruido' mencionado se debe a que los sensores CMOS convencionales tienen un amplificador por separado en cada píxel y estos amplificadores normalmente no serán uniformes por todo el chip y la desigualdad residual será la que genere el ruido. Por el contrario, todos los píxeles de un CCD se activan a través de una etapa común del amplificador, de modo que se evita este problema.<br />
<br />
Por otro lado, los fabricantes de CMOS argumentan que los sensores CCD necesitan una electrónica externa compleja que eleva el coste. En la práctica, es posible encontrar implementaciones de alta calidad de ambas tecnologías.<br />
<br />
Finalmente, se achaca a los sensores CMOS una escasa sensibilidad a la luz ultravioleta e infrarroja.<br />
<br />
<span style="color: #009900; font-weight: bold;">Las ventajas y desventajas </span><br />
<br />
Dependen en parte de cada dispositivo puesto que es posible encontrar sensores CCD con características similares a los CMOS y viceversa. Sin embargo, es posible listar las características típicas como siguen:<br />
<br />
<span style="color: #009900; font-weight: bold;">Ventajas</span><br />
<br />
* Consumo eléctrico muy inferior<br />
* Económico (necesita pocos componentes externos)<br />
* Lectura simultánea de mayor número de pixeles<br />
* El conversor digital puede estar integrado en el mismo chip<br />
* Escaso Blooming ("Smear") o inexistente<br />
* Mayor flexibilidad en la lectura (Previsualización más rápida, vídeo,...)<br />
* Los pixeles pueden ser expuestos y leídos simultáneamente<br />
* Otras topologías posibles (el sensor SuperCCD de Fujifilm emplea una construcción en forma de panel (octogonal) para los píxeles)<br />
* Distintos tipos de píxeles (según tamaño y sensibilidad) combinables<br />
* Muy alta frecuencia de imagen en comparación a un CCD del mismo tamaño<br />
<br />
<span style="color: #009900; font-weight: bold;">Desventajas</span><br />
<br />
* Menor superficie receptora de la luz por píxel<br />
* Menor uniformidad de los píxeles (mayor ruido de patrón fijo-FPN)<br />
<br />
<span style="color: #009900; font-weight: bold;">Aplicaciones</span><br />
<br />
Debido a su bajo coste, el APS comenzó a emplearse masivamente en webcams y en las cámaras de los teléfonos móviles. Sin embargo, hoy día también se utiliza en cámaras DSLR de Canon, Nikon, Pentax Sony y Sigma, pues no sólo superan en luminosidad a los sensores CCD, sino que también producen menos ruido.<br />
<br />
En el campo de las videocámaras siguen usándose en 2005 sensores CCD, con la excepción de las cámaras de alta definición Sony HDR-HC1, HDR-HC3 y la Sony FX7 (que utiliza 3 sensores CMOS). También se emplea el APS en cámaras industriales.<br />
David Moreno<br />
17812731<br />
EESTecnología en Telecomunicaciones - conocimientos.com.vehttp://www.blogger.com/profile/13517798918797491823noreply@blogger.com0tag:blogger.com,1999:blog-6848052930915865724.post-92197399333271843282010-07-07T11:39:00.002-04:302010-07-09T19:54:08.739-04:30Root Locus Analysis of Control Systems<b style="color: #009900;">Introduction </b><br />
<div class="a">A root loci plot is simply a plot of the s zero values and the s poles on a graph with real and imaginary coordinates. The root locus is a curve of the location of the poles of a transfer function as some parameter (generally the gain K) is varied. The number of zeros does not exceed the number of poles.<br />
<br />
The locus of the roots of the characteristic equation of the closed loop system as the gain varies from zero to infinity gives the name of the method. Such a plot shows clearly the contribution of each open loop pole or zero to the locations of the closed loop poles. This method is very powerful graphical technique for investigating the effects of the variation of a system parameter on the locations of the closed loop poles. General rules for constructing the root locus exist and if the designer follows them, sketching of the root loci becomes a simple matter.<br />
<br />
The closed loop poles are the roots of the characteristic equation of the system. From the design viewpoint, in some systems simple gain adjustment can move the closed loop poles to the desired locations. Root loci are completed to select the best parameter value for stability. A normal interpretation of improving stability is when the real part of a pole is further left of the imaginary axis.</div><b><br />
</b><b style="color: #009900;">Open and Closed Loop Transfer Functions</b><br />
<br />
<div class="a">A control system is often developed into an equation as shown below </div><div align="center"><img alt="" border="0" height="135" src="http://www.roymech.co.uk/images8/control_a9.gif" width="367" /> </div><div align="center"><b>D(s) = (s - p <sub>1</sub>).(s -p <sub> 2</sub>).. (s - p <sub>n</sub>) is the characteristic equation for the system ..</b>.</div><div class="a">m ≤ n<br />
F(s) = 0 when s = z <sub>1</sub>,z <sub>2</sub>... z <sub>m</sub>..These values of s are called zeros<br />
F(s) = infinity when s = p <sub>1</sub>, p <sub>2</sub>....p <sub>n</sub>...These values of s are called poles.. <br />
<br />
Below is shown a root loci plot with a zero of -2 and poles at (-2 ± 2 j ω ).<br />
In practice one complex pole /zero always comes with a second one mirrored around the real axis<br />
<br />
</div><div align="center"><img alt="" border="0" height="173" src="http://www.roymech.co.uk/images8/control_a8.gif" width="212" /></div><div class="a">The Transfer function F(s) can also be written in polar form using vectors (modulus-argument ). </div><div align="center"><img alt="" border="0" height="77" src="http://www.roymech.co.uk/images8/control_a10.gif" width="345" /></div><div class="a">The complex numbers in polar form have the following elementary properties.. </div><div align="center"><b> |z <sub>1</sub> .z <sub>2</sub> | = |z <sub>1</sub> |.|z <sub>2</sub> |.......&......|z <sub>1</sub> / z <sub>2</sub> | = |z <sub>1</sub> | / |z <sub>2</sub> | </b><br />
<br />
<img alt="" border="0" height="14" src="http://www.roymech.co.uk/images8/control_a15.gif" width="328" /></div><div class="a">A typical feedback system is shown below </div><div align="center"><img alt="" border="0" height="103" src="http://www.roymech.co.uk/images8/control_a12.gif" width="323" /></div><div class="a">The open-loop transfer function between the forcing input R(s) and the measured output Y<sub>1</sub>(s) = </div><table align="center" border="2" style="width: 150px;"><tbody>
<tr><td><div align="center"><b>T<sub>1</sub>(s) = K.G(s)H(s)</b></div></td></tr>
</tbody></table><div class="a">Let G(s) = Q(s)/ P(s) and H(s) = W(s) /V(s) that is G(s)H(s) = Q(s).W(s) / P(s).V(s)<br />
Then the open loop poles are the roots of the characteristic equation for the open loop transfer function. </div><table align="center" border="2" style="width: 150px;"><tbody>
<tr><td><div align="center"><b> P(s).V(s)= 0</b></div></td></tr>
</tbody></table><div class="a">The open loop zeros are roots of the W(s) Q(s) </div><table align="center" border="2" style="width: 150px;"><tbody>
<tr><td><div align="center"><b> W(s).Q(s)= 0</b></div></td></tr>
</tbody></table><div class="a">The closed-loop transfer function =</div><div align="center"><img alt="" border="0" height="39" src="http://www.roymech.co.uk/images8/control_a11.gif" width="121" /> <br />
<b> K is the value of the open loop gain .<br />
1 + KG(s)H(s) is the characteristic equation</b></div><div class="a">The closed loop poles ( when T(s) = infinity ) must satisfy </div><div align="center"><big><b>K.G(s).H(s) = -1</b></big></div><div class="a">This is can be interpreted using vectors </div><div align="center"><img alt="" border="0" height="47" src="http://www.roymech.co.uk/images8/control_a13.gif" width="407" /></div><br />
<div class="a">Again letting G(s) = Q(s)/ P(s) and H(s) = W(s) /V(s) that is G(s)H(s) = Q(s).W(s) / P(s).V(s).<br />
Then K(G(s).H(s) = -1 can be rewritten as K.Q(s).W(s) = - P(s)V(s) ....Therefore<br />
The closed loop poles are roots of the characteristic equation for the closed loop system = </div><table align="center" border="2" style="width: 200px;"><tbody>
<tr><td><div align="center"><b> P(s).V(s) + K.Q(s)W(s) = 0 </b></div></td></tr>
</tbody></table><div class="a">Generally the location of these roots in the s plane changes as the gain factor K is altered. The root locus is the locus of these roots as a function of K.<br />
<br />
<b>For K = zero the roots of the above equation are roots of the P(s).V(s) which are the same as the poles of the open loop transfer function G(s)H(s). If K becomes very large the roots approoach those of Q(s).W(s) which are the open-loops zeros. Therefore as K is increased for zero to infinity the loci of the closed-loop poles originate from the open-loop poles and terminate at the open loop zeros. If there is less zeros than poles then the some root loci originate at open-loop poles and increase towards infinity as K increases towards infinity. </b> </div><br />
<b style="color: #009900;">Example 1</b><br />
<br />
<div class="a">Consider system as diagram above with G(s) = 1/ s(s+2) , H(s) = 1<br />
( P(s) = 1, V(s) = s(s+2), Q(s) =1, W(s) = 1)<br />
<br />
The closed loop characteristic equation = s <sup>2</sup> + 2s + K = 0<br />
<br />
The roots of the characteristic equation </div><div class="a"></div><div align="center"><img alt="" border="0" height="25" src="http://www.roymech.co.uk/images8/control_a16.gif" width="112" /> </div><div class="a">When K = 0 , the poles at s = 0, and s = -2<br />
When K = 1, the pole is at s = -1<br />
<img alt="" border="0" height="13" src="http://www.roymech.co.uk/images8/control_a18.gif" width="156" /><br />
</div><div align="center">The relevant root locus is shown below</div><div align="center"><img alt="" border="0" height="151" src="http://www.roymech.co.uk/images8/control_a17.gif" width="235" /></div><br />
<br />
<b style="color: #009900;">Example 2</b><br />
<br />
<div class="a">Consider system as diagram above with G(s) = 2s / ( s <sup>2</sup>+1) , H(s) = 1<br />
P(s) = (s<sup>2</sup> + 1) , V(s) = 1 , Q(s) = 2s , W(s) = 1 )<br />
<br />
The closed loop characteristic equation = P(s).V(s) + K.Q(s)W(s) = 0<br />
therefore s <sup>2</sup> + 2Ks + 1 = 0<br />
<br />
The roots of the characteristic equation </div><div align="center"><img alt="" border="0" height="25" src="http://www.roymech.co.uk/images8/control_a19.gif" width="112" /> </div><div class="a">When K = 0 , the poles at s = + j , and s = - j<br />
When K = 1, the pole is at s = -1<br />
<img alt="" border="0" height="10" src="http://www.roymech.co.uk/images8/control_a22.gif" width="268" /></div><br />
<div class="a">The relevant root locus is shown below</div><div align="center"><img alt="" border="0" height="149" src="http://www.roymech.co.uk/images8/control_a20.gif" width="239" /></div><div class="a">The system has the best stability point at K = -1, at values below this root loci moves towards the instability boundary.</div><br />
<br />
<b style="color: #009900;">Rules for Constructing Root Loci</b><br />
<br />
<div class="a">These rules are listed with minimum clarification..For more details refer to reference links and reference texts.. The rules below are simple rules which obviate the need to completely solve the characteristic equation allowing the methods to be used for relatively complex systems. The rules are based on those devised by R.Evans in an important paper in 1948. They are therefore known as Evans Rules. The rules only relate to positive changes in K. For negative values of K a set of similar rules are used.</div><div class="a">The closed loop poles are roots of the characteristic equation for the closed loop system = </div><div align="center"><b> P(s).V(s) + K.Q(s)W(s) = 0 </b><br />
<br />
This can be more clearly expressed as<br />
<br />
<b>Poles(s) + K Zeros(s) = 0</b></div><div class="a">1) Number of root loci.(branches)</div><div class="a"><br />
The number of root loci is equal to the order of the characteristic equation .<br />
This is, for rational systems, the same order as the characteristic equation for the open loop transfer function i.e. P(s).V(s)<br />
<br />
2) Symmetry of loci </div><div class="a"><br />
The roots of the characteristic equation having real coefficient are symmetrical with respect to the real axis<br />
<br />
3) Poles </div><div class="a"><br />
The poles of lie on the root loci and correspond to K = 0. i.e roots of P(s).V(s) = 0<br />
<br />
4) Zeros </div><div class="a"><br />
The zeros lie on the root loci and correspond to K = infinity. i.e roots of Q(s).W(s) = 0 .<br />
If there are "t" more poles than zeros then "t" loci will become infinite as K approaches infinity<br />
<br />
5) Asymptotes of root loci</div><div class="a"><br />
If F(s) has "t" more poles than zeros, the root loci are asymptotic to "t" straight lines making angles.. </div><div align="center">(2 b + 1)π / t, b = 0,1,2,...t-1,</div><div class="a">with the real axis . The root loci approach ssymptotes when K -> infinity..</div><table align="center"><tbody>
<tr> <td>Asymptote angle with real axis for Poles - Zeros = t = 1 - 4</td> </tr>
<tr><td>t= 1...Angle = π</td></tr>
<tr> <td>t = 2...Angles = π / 2 ,3 π /2</td></tr>
<tr> <td>t = 3 ...Angles = π/ 3 , π, (5 /3) π</td> </tr>
<tr> <td>t = 4...Angles = π / 4 , 3 π /4 , 5 π/ 4, 7 π /4 </td></tr>
</tbody></table><div align="center"><img alt="" border="0" height="85" src="http://www.roymech.co.uk/images8/control_a35.gif" width="476" /></div><div class="a">6) Point of Intersection of asymptotes</div><div class="a"><br />
Asymptotes intersect on the real axis at a point with abscissa</div><div align="center"><big><span style="font-family: symbol;">s</span><sub>o</sub> = (1/t). [(p<sub>1</sub> + p<sub>2</sub> + ...p<sub>n</sub>) - (z<sub>1</sub> + z<sub>2</sub> + ...z<sub>m</sub>)]</big></div><div class="a">p's and z's are respective poles and zeros ofthe characteristic equation.<br />
<br />
7) Root loci on real axis</div><div class="a"><br />
If F(s) has one or more real poles or zeros ,then the segment of the real axis having an odd number of real poles and zeros to its right will be occupied by a root locus. </div><div align="center"><img alt="" border="0" height="96" src="http://www.roymech.co.uk/images8/control_a21.gif" width="289" /></div><div class="a">8) Singularity/Breakaway Points</div><div class="a"><br />
Singular points ( α<sub>b</sub> ) indicate the presence of multiple characteristic roots, and occur at those values of s which for which dK/ds = 0..These points can also be obtained by solving the equation. (- p<sub>i</sub> and - z<sub>i</sub> are the poles and zeros respectively)</div><div align="center"><img alt="" border="0" height="50" src="http://www.roymech.co.uk/images8/root_loci_1.gif" width="219" /></div><div class="a">(-p<sub>i</sub> and -z<sub>i</sub> are the poles and zeros respectively)<br />
<br />
Singularity /breakaway points ( α<sub>b</sub> ) occur where two or more branches of the root-locus depart from or arrive at the real axis.</div><div align="center"><img alt="" border="0" height="183" src="http://www.roymech.co.uk/images8/root_loci_2.gif" width="357" /></div><div class="a">9) Intersection of root loci with imaginary axis</div><div class="a"><br />
The intersections of root loci with the imaginary axis can be located by calculating the values of K which result in the imaginary characteristic roots.<br />
<br />
10) Slopes of root loci at complex poles and zeros</div><div class="a"><br />
The slope of a root loci at a complex pole or zero of F(s) can be found at at point in the neighborhood of the pole or zero using the method shown below<br />
</div><div align="center"><img alt="" border="0" height="258" src="http://www.roymech.co.uk/images8/root_locus.gif" width="329" /></div><div class="a">11) Calculation of K on the root loci.</div><div class="a"><br />
The absolute magnitude of the value of K corresponding to any point s<sub>o</sub> on a root locus can be found by measuring the lengths of the vectors drawn to s<sub>o</sub> from the poles and zeros of F(s) and then evaluating </div><div align="center"><img alt="" border="0" height="35" src="http://www.roymech.co.uk/images8/control_a23.gif" width="208" /> </div><b> <span style="color: #009900;">Examples of using Evans rules</span></b><br />
<br />
<br />
<b style="color: #009900;">Example 3)</b><br />
<br />
<div class="a">Consider the system with the open loop transfer function ( K > 0 & H(s) = 1 ) </div><div align="center"><big>H(s)G(s) = K / (s<sup>2</sup> + 3s + 2 ) = K / (s+1) (s+2)</big></div><br />
<table align="center" border="1" cellspacing="0"><tbody>
<tr> <td><b> Solving the Characteristic equation</b><br />
<br />
Assuming negative feedback the characteristic equation = <br />
<div align="center"><big> s<sup>2</sup> + 3s + 2 + K = 0 </big></div>The Roots = <br />
<div align="center"><big> [-3 <span style="font-family: symbol;">±</span> √(9 - 4(2 + K)) ] / 2 = -1.5 <span style="font-family: symbol;">±</span> √(0.25 -K )</big> </div>The plot below is simply obtained by establishing the roots for values of K from 0 to infinity..<br />
<br />
<big>K = 0 ....s= -1, -2<br />
K = 0.25 ....s= -1.5<br />
K -><span style="font-family: symbol;">¥</span>....s -> <span style="font-family: symbol;">±</span> j<span style="font-family: symbol;">¥</span> </big><br />
<br />
<br />
</td> <td><b>Using Evans rules </b><br />
<br />
System characteristic equation = <br />
1 + K /(s+1)(s+2) = 0.... therefore (s+1)(s+2) + K = 0<br />
<br />
1) The order of the characteristic equation = 2 therefore 2 poles.<br />
<br />
2) The roots are symmetrical wrt the real axis<br />
<br />
3) Poles correspond to K = 0, pole at -2, & - 1<br />
<br />
4) Poles correspond to K = infinity no zeros<br />
<br />
5) The asymptotes angles... 2 more poles than zeros therefore angles are π /2 & 3π /2<br />
<br />
6) Point of intersection of the asymptotes with the real axis<br />
= (sum of poles - sum of zeros) / t = -1.5<br />
<br />
7) The root loci lie to the left of the odd pole. (first pole)<br />
<br />
8) Location of a singularity is at dK/ds = 0 = -1.5.<br />
9), 10) & 11) Not necessary.<br />
<br />
The plot below can easily be obtained.. </td> </tr>
</tbody></table><div align="center"><img alt="" border="0" height="157" src="http://www.roymech.co.uk/images8/root_locus_2.gif" width="155" /></div><hr color="#ff6600" /><b style="color: #009900;">Example 4)</b><span style="color: #009900;">.</span><br />
<div class="a">System has an open loop transfer function</div><div align="center"><big>K.G(s).H(s) = K (s + 1) <big>/</big> ( s<sup>2</sup> .(s + 9))</big></div><div class="a">closed loop characteristic equation i ..1 + K.G(s)H(s) = 0 therefore</div><div align="center"><big> s<sup>3</sup> + 9s<sup>2</sup> + K(s) + K = 0</big></div><div class="a">Completing Evans Method.<br />
<br />
1) There are three roots.<br />
<br />
2) The characteristic equation has real coefficients so the loci is symmetrical about the real axis.<br />
<br />
3) When K = 0 there is a double pole at s = 0 (singular point) and also a pole at s = -9<br />
<br />
4) When K = infinity there are loci at s = -1 (zero) and s = infinity.<br />
<br />
5) The asymptotes angles... 2 more poles than zeros therefore angles are π /2 & 3 π /2<br />
<br />
6) The location of the asymptotes intersect the real axis is calculated by .. ( 0 - 9 - (-1) ) /2 = 4<br />
<br />
7) Loci are to the left of odd poles/zeros's i.e left of -1 (between -1 & -9) <br />
<br />
8) The break point (singularity point on the real axis ) is obtained by determining the value of s which satisfies the equation dK/ds = 0..<br />
Solving the closed loop characteristic equation for K = </div><div align="center">K = - (s<sup>3</sup> + 9s<sup>2</sup>) / (s+1) </div><div class="a">Differentiating (using du/dv = (vdu-udv)/v<sup>2</sup> ) </div><div align="center">(s<sup>3</sup> + 9s<sup>2</sup>)-(s+1)(3s<sup>2</sup> +18s) = 0 </div><div class="a">...Therefore.. -2s<sup>3</sup> - 12s<sup>2</sup> -18s = 0 ... and.. -2s(s+3)<sup>2</sup> - 0 Three solutions for s are at s = 0, s = -3 These are associated with a positive value of K when substituted into F(s). <br />
<br />
9) A Routh array is constructed to determine the imaginary axis crossing points. </div><table align="center"><tbody>
<tr><td><br />
</td><td><br />
</td><td>Col 1</td><td>Col 2</td><td>Col 3</td></tr>
<tr><td class="x">Row 0</td><td class="x">s <sup>3</sup></td><td>1</td><td>K</td><td>0</td></tr>
<tr><td class="x">Row 1</td><td class="x">s <sup>2</sup></td><td>9</td> <td>K</td><td>0</td></tr>
<tr><td class="x">Row 2</td><td class="x">s <sup>1</sup></td><td>K</td><td>0</td><td><br />
</td></tr>
<tr><td class="x">Row 3</td><td class="x">s <sup>0</sup></td><td>K</td><td><br />
</td><td><br />
</td></tr>
</tbody></table><br />
<div class="a">There is no sign change in column 1 for positive values of K so there is locus does not enter the right hand side of imaginary axis..<br />
<br />
10 ) Rule not needed for this example..<br />
<br />
The root locus plot is produced for this system as shown below...</div><div align="center"><img alt="" border="0" height="170" src="http://www.roymech.co.uk/images8/root_locus_3.gif" width="282" /></div><b><span style="color: #009900;">Closed Loop Transient Response</span></b> <br />
<div class="a">The transient response of a closed-loop system is closely related to the location of the closed loop poles.<br />
</div><div align="center"><img alt="" border="0" height="294" src="http://www.roymech.co.uk/images8/control_z.gif" width="534" /> </div><div class="a">Many control systems can be represented by the general second order differential equation.. </div><div align="center"><img alt="" border="0" height="288" src="http://www.roymech.co.uk/images8/control_a6.gif" width="601" /></div><div class="a">The coefficient (assumed positive) ω<sub>n</sub> is the undamped natural frequency and ζ is the damping ratio.</div><table align="center"><tbody>
<tr><td><ul><li>If ζ > 1 Then both poles are negative and real</li>
<li>If ζ = 1 Then both poles are equal,negative and real ( s = - ω <sub>n</sub>) </li>
<li>If 0 < ζ < 1 The poles are complex conjugates with negative real parts. s = -ζω <sub>n</sub> ± j ω <sub>n</sub>.Sqrt( 1 - ζ <sup>2</sup> )</li>
<li>If ζ = 0 Then both poles are imaginary and complex conjugate s = ± j ω<sub>n</sub></li>
<li>If ζ <0></li>
</ul></td></tr>
</tbody></table><div class="a">The results of this equation can be shown on a s plane plot as below..</div><div align="center"><img alt="" border="0" height="301" src="http://www.roymech.co.uk/images8/control_a7.gif" width="390" /></div><div align="center"><br />
</div><div style="text-align: left;">David Moreno</div><div style="text-align: left;">17812731</div>EESTecnología en Telecomunicaciones - conocimientos.com.vehttp://www.blogger.com/profile/13517798918797491823noreply@blogger.com0tag:blogger.com,1999:blog-6848052930915865724.post-39372060651502441842010-07-07T11:23:00.002-04:302010-07-09T19:53:52.598-04:30Inestabilidad eléctricaLa inestabilidad eléctrica tiene dos maneras de manifestarse, oscilando o quedándose de manera indefinida en alguno de los estados límite, que son out=+Vcc y out=-Vcc. Lo habitual es que las etapas oscilen, su salida alterna entre +Vcc y -Vcc a una frecuencia determinada.<br />
Una etapa no debería quemarse, pero cuando oscilan lo hacen a frecuencias mayores de 1 MHz, donde las capacidades parásitas no son ninguna minucia y por ejemplo cargar los 2nF de los transistores de salida es un gran trabajo para la etapa, los drivers pueden estar enviando picos de corriente de 300mA y más. Ésto hace que a la larga se queme, pero no porque la inestabilidad sea peligrosa. Muchos circuitos no lineales como los temporizadores y los relojes se aprovechan de este fenómeno para funcionar.<br />
Cuando un amplificador lineal es inestable no se puede utilizar, al igual que si se hace un avión que entra en sólo barrena tampoco conviene utilizarlo, pero se puede estabilizar. <br />
Hay tres técnicas para compensar la respuesta y la más usada es la compensación por el efecto Miller. Las veremos a continuación.<br />
<h2 style="color: #009900;"><span style="font-size: 100%;">Condiciones de inestabilidad</span></h2><table border="0"><tbody>
<tr> <td width="89%">La condición para ser inestable es que debe haber ganancia y que se realimente una señal desfasada más de 180º. Se debe pensar que la realimentación lo que hace es restar una parte de la salida a la entrada, un desfase de 180º supone que se está sumando en vez de restando, por eso se tiende a oscilar.</td> <td width="11%"><a href="http://www.pcpaudio.com/pcpfiles/doc_amplificadores/Estabilidad/bode1.gif"><img border="0" height="117" src="http://www.pcpaudio.com/pcpfiles/doc_amplificadores/Estabilidad/bode1sm.gif" width="192" /></a></td> </tr>
</tbody></table>Un polo produce un efecto de filtrado paso-bajo, donde la respuesta cae 6dB/oct y se desfasa 90º en las frecuencias mayores de las que se encuentra el polo, con 45º y -3dB a la frecuencia del polo. Si conseguimos llegar al final de la banda (ganancia cero) con un desfase de menos de 180º, y menos de 135º preferiblemente, se estará evitando la oscilación, porque cuando se alcance el desfase de 180º ya no habrá ganancia y no se tiende a oscilar.<br />
Un filtro paso bajo. ¿cómo se puede crear? Lo más normal es que se produzca por una capacidad parásita junto a una resistencia (RC). En la siguiente etapa de ejemplo tenemos una resistencia, Road1 y las capacidades parásitas base-emisor y base-colector del transistor QD. Tenemos también R4 y la capacidad parásita de QG, que en este caso se agrava por un fenómeno que comentaremos a continuación. En la gráfica vemos que la ganancia decrece a partir de una determinada frecuencia.<br />
Esa es la realidad, las etapas no tienen un ancho de banda infinito, y se pueden crear multitud de polos. ¿qué pasa cuando se crean polos a frecuencias muy próximas? Que el desfase crece de manera muy rápida y la ganancia (habitualmente muy alta, >60dB) decrece muy lentamente, por lo que a alguna frecuencia el desfase de la salida será de 180º y tendremos ganancia suficiente como para que oscile.<br />
<table border="0"><tbody>
<tr> <td width="85%">En ésta etapa de prueba (derecha), tal y como vemos en su gráfica de respuesta (diagrama de Bode de fase y de ganancia), el desfase de 180º tiene lugar a ~16 MHz.</td> <td width="15%"><a href="http://www.pcpaudio.com/pcpfiles/doc_amplificadores/Estabilidad/etapa1.gif"><img border="0" height="100" src="http://www.pcpaudio.com/pcpfiles/doc_amplificadores/Estabilidad/etapa1sm.gif" width="190" /></a></td> </tr>
<tr> <td width="85%">A esa frecuencia la ganancia es de 51dB, por lo que oscilará cuando, en lazo cerrado, la ganancia mercada por la red de realimentación sea igual o menor que 51dB. Pero no oscilará cuando la ganancia sea superior a 52dB porque la ganancia "aparente" será menor que 1.</td> <td width="15%"><a href="http://www.pcpaudio.com/pcpfiles/doc_amplificadores/Estabilidad/bode1.gif"><img border="0" height="117" src="http://www.pcpaudio.com/pcpfiles/doc_amplificadores/Estabilidad/bode1sm.gif" width="192" /></a></td> </tr>
</tbody></table>¿Qué se puede hacer para evitarlo? Reducir la ganancia de manera que a la frecuencia crítica sea cero. Hay dos formas de hacerlo, una de ellas inadmisible desde el punto de vista de la ingeniería.<br />
<ul><li>Prescindir de la realimentación o reducir de manera drástica la cantidad.</li>
<li>Compensar en frecuencia.</li>
</ul>Es obvio cual de las dos técnicas se aplica. Hay tres maneras de compensar en frecuencia:<br />
<ul><li>Polo dominante</li>
<li>Polo-cero</li>
<li>Compensación por el efecto Miller.</li>
</ul>Sólo nos ocuparemos de la técnica de compensación por el efecto Miller, las otras son inviables o desaconsejables.<br />
Debemos introducir dos conceptos que marcan cómo de estable es una etapa: el margen de fase y el margen de ganancia. <br />
<table border="0"><tbody>
<tr> <td width="89%">El el gráfico de la derecha podemos ver cómo se miden estas cifras. Existen dos frecuencias relevantes, f<span style="font-size: 78%;">0</span> y f<span style="font-size: 78%;">180</span> , marcan los puntos en los que la ganancia se hace igual a uno (0 db, f<span style="font-size: 78%;">0</span>) y la frecuencia en la que la fase es igual a 180º, f<span style="font-size: 78%;">180</span>.</td> <td width="11%"><a href="http://www.pcpaudio.com/pcpfiles/doc_amplificadores/Estabilidad/BODE.gif"><img border="0" height="120" src="http://www.pcpaudio.com/pcpfiles/doc_amplificadores/Estabilidad/BODEsm.gif" width="192" /></a></td> </tr>
</tbody></table>Se entiende como margen de fase la diferencia de fase entre f<span style="font-size: 78%;">0</span> y f<span style="font-size: 78%;">180</span>, así como el margen de ganancia es la diferencia en la ganacia entre f<span style="font-size: 78%;">180</span> y f<span style="font-size: 78%;">0</span>. Como es lógico, cuanto mayores sean estas cifras, mayor será la estabilidad de la etapa. <br />
En la práctica conviene trabajar con márgenes holgados, si no se corre el riesgo de que las condiciones externas modifiquen éstos márgenes, como por ejemplo cargar con un condensador (cable), que reduce el margen de fase. El mínimo margen de fase recomendable es de 45º y el mínimo de ganancia, 10dB, pero cuanto más, mejor.<br />
<br />
<br />
David Moreno<br />
17812731<br />
EESTecnología en Telecomunicaciones - conocimientos.com.vehttp://www.blogger.com/profile/13517798918797491823noreply@blogger.com0tag:blogger.com,1999:blog-6848052930915865724.post-35203493868155823392010-07-07T11:09:00.002-04:302010-07-09T19:53:28.140-04:30Nyquist stability criterionThe Nyquist stability criterion, named after Harry Nyquist, provides a simple test for stability of a closed-loop control system by examining the open-loop system's Nyquist plot. Stability of the closed-loop control system may be determined directly by computing the poles of the closed-loop transfer function. In contrast, the Nyquist stability criterion allows stability to be determined without computing the closed-loop poles.<br />
<br />
<div class="thumb tright"><div class="thumbinner" style="width: 222px;"><a class="image" href="http://en.wikipedia.org/wiki/File:Nyquist_example.png"><img alt="" class="thumbimage" height="165" src="http://upload.wikimedia.org/wikipedia/commons/thumb/1/16/Nyquist_example.png/220px-Nyquist_example.png" width="220" /></a> <br />
<div class="thumbcaption"><div class="magnify"><a class="internal" href="http://en.wikipedia.org/wiki/File:Nyquist_example.png" title="Enlarge"><br />
</a></div>The Nyquist plot for <img alt="G(s)=\frac{1}{s^2+s+1}" class="tex" src="http://upload.wikimedia.org/math/4/a/4/4a4e3acf9f44c7dced12b848562e22f1.png" />.</div></div></div><br />
<span style="color: #009900; font-weight: bold;">Background</span><br />
<br />
We consider a system whose open loop transfer function (OLTF) is G(s); when placed in a closed loop with feedback H(s), the closed loop transfer function (CLTF) then becomes \frac{G}{1+GH}. The case where H=1 is usually taken, when investigating stability, and then the characteristic equation, used to predict stability, becomes G+1=0. Stability can be determined by examining the roots of this equation eg using the Routh array, but this method is somewhat tedious. Conclusions can also be reached by examining the OLTF, using its Bode plots or, as here, polar plot of the OLTF using the Nyquist criterion, as follows.<br />
<br />
Any Laplace domain transfer function \mathcal{T}(s) can be expressed as the ratio of two polynomials<br />
<br />
\mathcal{T}(s) = \frac{N(s)}{D(s)}.<br />
<br />
<span style="color: #009900; font-weight: bold;">We define:</span><br />
<br />
* Zero: the zeros of \mathcal{T}(s) are the roots of N(s) = 0, and<br />
<br />
* Pole: the poles of \mathcal{T}(s) are the roots of D(s) = 0.<br />
<br />
Stability of \mathcal{T}(s) is determined by its poles or simply the roots of the characteristic equation: D(s) = 0. For stability, the real part of every pole must be negative. If \mathcal{T}(s) is formed by closing a negative feedback loop around the open-loop transfer function \mathcal{F}(s) = \frac{A(s)}{B(s)}, then the roots of the characteristic equation are also the zeros of 1 + \mathcal{F}(s), or simply the roots of A(s) + B(s).<br />
<br />
<span style="color: #009900; font-weight: bold;">Cauchy's argument principle</span><br />
<br />
From complex analysis, specifically the argument principle, we know that a contour Gs drawn in the complex s plane, encompassing but not passing through any number of zeros and poles of a function F(s), can be mapped to another plane (the F(s) plane) by the function F(s). The resulting contour GF(s) will encircle the origin of the F(s) plane N times, where N = Z - P. Z and P are respectively the number of zeros and poles of F(s) inside the contour Gs. Note that we count encirclements in the F(s) plane in the same sense as the contour Gs and that encirclements in the opposite direction are negative encirclements.<br />
<br />
Instead of Cauchy's argument principle, the original paper by Harry Nyquist in 1932 used a less elegant approach. The approach explained here is similar to the approach used by Leroy MacColl (Fundamental theory of servomechanisms 1945) or by Hendrik Bode (Network analysis and feedback amplifier design 1945), both of whom also worked for Bell Laboratories. This approach appears in most modern textbooks on control theory.<br />
<br />
<span style="color: #009900; font-weight: bold;">The Nyquist criterion</span><br />
<br />
We first construct The Nyquist Contour, a contour that encompasses the right-half of the complex plane:<br />
<br />
* a path traveling up the j? axis, from 0 - j\infty to 0 + j\infty.<br />
* a semicircular arc, with radius r \to \infty, that starts at 0 + j\infty and travels clock-wise to 0 - j\infty.<br />
<br />
The Nyquist Contour mapped through the open-loop transfer function F(s) yields a Nyquist plot for F(s). By the Argument Principle, the number of clock-wise encirclements of the origin must be the number of zeros of F(s) in the right-half complex plane minus the poles of F(s) in the right-half complex plane. If we look at the contour's encirclements of -1 instead of the origin, we find the difference between the number of poles and zeros in the right-half complex plane of 1 + F(s). Recalling that the zeros of 1 + F(s) are the poles of the closed-loop system, and noting that the poles of 1 + F(s) are same as the poles of F(s), we now state <span style="color: black;">The Nyquist Criterion:</span><br />
<br />
Given a Nyquist contour Gs, let P be the number of poles of F(s) encircled by Gs, and Z be the number of zeros of F(s) encircled by Gs -- therefore the number of poles of \mathcal{T}(s) enclosed by Gs. The resultant contour in the F(s)-plane, GF(s) shall encircle (clock-wise) the point (-1 + j0) N times such that N = Z - P. For stability of a system, we must have Z = 0 , ie. the number of closed loop poles in the right half of the s-plane must be zero. Hence, the number of counterclockwise encirclements about - 1 + j0 must be equal to P, the number of open loop poles in the right half plane.<br />
<br />
<span style="color: #009900; font-weight: bold;">The Nyquist criterion for systems with poles on the imaginary axis</span><br />
<br />
The above consideration was conducted with an assumption that the open-loop transfer function F(s) does not have any pole on the imaginary axis (i.e. poles of the form 0 + j?). This results from the requirement of the argument principle that the contour cannot pass through any pole of the mapping function. The most common case are systems with integrators (poles at zero).<br />
<br />
To be able to analyze systems with poles on the imaginary axis, the Nyquist Contour can be modified to avoid passing through the point 0 + j?. One way to do it is to construct a semicircular arc with radius r \to 0 around 0 + j?, that starts at 0 + j(? - r) and travels anticlockwise to 0 + j(? + r). Such a modification implies that the phasor F(s) travels along an arc of infinite radius by - lp, where l is the multiplicity of the pole on the imaginary axis.<br />
<br />
<span style="font-size: 130%;"><span style="color: #009900; font-weight: bold;">Summary</span></span><br />
<br />
* If the open-loop transfer function F(s) has a zero pole of multiplicity l, then the Nyquist plot has a discontinuity at ? = 0. During further analysis it should be assumed that the phasor travels l times clock-wise along a semicircle of infinite radius. After applying this rule, the zero poles should be neglected, i.e. if there are no other unstable poles, then the open-loop transfer function F(s) should be considered stable.<br />
* If the open-loop transfer function F(s) is stable, then the closed-loop system is unstable for any encirclement of the point -1.<br />
* If the open-loop transfer function F(s) is unstable, then there must be one counter clock-wise encirclement of -1 for each pole of F(s) in the right-half of the complex plane.<br />
* The number of surplus encirclements (greater than N+P) is exactly the number of unstable poles of the closed-loop system<br />
* However, if the graph happens to pass through the point - 1 + j0, then deciding upon even the marginal stability of the system becomes difficult and the only conclusion that can be drawn from the graph is that there exist zeros on the j? axis.Tecnología en Telecomunicaciones - conocimientos.com.vehttp://www.blogger.com/profile/13517798918797491823noreply@blogger.com0tag:blogger.com,1999:blog-6848052930915865724.post-23289241782523603142010-07-07T10:55:00.002-04:302010-07-09T19:53:05.429-04:30Efecto Miller<h2 style="color: #009900;">COMPENSACIÓN POR EL EFECTO MILLER.</h2><table border="0"><tbody>
<tr> <td width="85%">El efecto Miller consigue estabilizar las etapas creando un polo a baja frecuencia que es el responsable de disminuir la ganancia para que a las frecuencias en las que se produce el desfase de 180º la ganancia sea menor que 1 (0dB). </td> <td width="15%"><a href="http://www.pcpaudio.com/pcpfiles/doc_amplificadores/Estabilidad/etapa2.gif"><img border="0" height="98" src="http://www.pcpaudio.com/pcpfiles/doc_amplificadores/Estabilidad/etapa2sm.gif" width="183" /></a></td> </tr>
<tr> <td width="85%">En esta etapa de prueba tenemos que la ganancia cuando la fase es de 180º, a 35 MHZ, es de +16dB, por lo que no será estable para ganancias menores.<br />
Sin embargo, aún se puede hacer algo más.</td> <td width="15%"><a href="http://www.pcpaudio.com/pcpfiles/doc_amplificadores/Estabilidad/respet2.gif"><img border="0" height="117" src="http://www.pcpaudio.com/pcpfiles/doc_amplificadores/Estabilidad/respet2sm.gif" width="192" /></a></td> </tr>
<tr> <td width="85%">Vemos en la gráfica como añadiendo un condensador entre la base y el colector de QG se obtiene la gráfica mostrada abajo, en la que la etapa ya es estable, y con un margen de fase y de ganancia más que suficientes.</td> <td width="15%"><a href="http://www.pcpaudio.com/pcpfiles/doc_amplificadores/Estabilidad/etapa3.gif"><img border="0" height="101" src="http://www.pcpaudio.com/pcpfiles/doc_amplificadores/Estabilidad/etapa3sm.gif" width="189" /></a></td> </tr>
<tr> <td width="85%">La función de este nuevo condensador es crear el polo a baja frecuencia que hará que la etapa sea estable, y de hecho el polo está a 480 Hz (-3dB) , lo que en la gráfica anterior no aparecía.</td> <td width="15%"><a href="http://www.pcpaudio.com/pcpfiles/doc_amplificadores/Estabilidad/bode1.gif"><img border="0" height="117" src="http://www.pcpaudio.com/pcpfiles/doc_amplificadores/Estabilidad/bode1sm.gif" width="192" /></a></td> </tr>
</tbody></table>Ahora pasamos al efecto Miller en sí mismo: ésta técnica consiste en aprovechar un fenómeno parásito para producir el polo, que es un filtrado RC.<br />
Si tenemos en cuenta que las resistencias internas de los op-amp y etapas suelen estar en torno a 2k y que se suelen poner polos a frecuencias tan bajas como 10 Hz, 1 Hz, 0,1 Hz... los cálculos mandan que el condensador debe ser de 10, 100 ó 1000 uF. Dentro de un op-amp es imposible hacer un condensador tan grande, y saldría carísimo porque el área de siilcio es muy cara. <br />
<table border="0"><tbody>
<tr> <td width="91%">En el esquema de la derecha vemos qué es lo que sucede. Dada una etapa de amplificación, el condensador existente entre la entrada y la salida se divide en dos condensadores equivalentes (derecha) con los siguientes valores:<br />
<div style="color: #009900;"><b>C!=C<span style="font-size: 78%;">Miller</span>*(Av+1)<br />
C2=C<span style="font-size: 78%;">Miller</span>*((Av+1)/Av))</b></div></td> <td width="9%"><a href="http://www.pcpaudio.com/pcpfiles/doc_amplificadores/Estabilidad/miller.gif"><img border="0" height="103" src="http://www.pcpaudio.com/pcpfiles/doc_amplificadores/Estabilidad/millersm.gif" width="188" /></a></td> </tr>
</tbody></table>Vemos pues que el condensador C1 puede alcanzar valores muy grandes dependiendo del valor del condensador inicia y del valor de la ganancia de la etapa. El condensador a la salida es de un avalor mucho más bajo, más dependiente del valor de C<span style="font-size: 78%;">Miller</span> original y no de la ganancia.<br />
De esta manera, C1 y Rin forman un filtrado de paso-bajo que se comporta como un polo dentro del conjunto de una etapa. Siguiendo con el ejemplo anterior, si la etapa tiene ganancia 100.000 (100dB), el condensador necesario ya no sería de 10 uF sino 100.000 veces menor, 100pF, que si que se puede hacer en el interior del op-amp. <br />
Pero hay más, éste condensador es responsable del ancho de banda de la etapa, eso es obvio, pero también de su slew-rate. Compensar para ganancia unidad es lo que mayores condensadores requiere, pero si compensamos para ganancia 10, podemos extender el ancho de banda 10 veces y también el slew-rate (más o menos). Y si la red de realimentación de la etapa está preparada para ganancia 10 no habrá inestabilidad porque elevamos la condición de ganancia.<br />
<h2 style="color: #009900;">SLEW-RATE</h2>El <i>slew-rate</i> es una medida de cómo de rápido pueden variar los voltios de la salida frente al tiempo. Habitualmente se mide el voltios dividido por microsegundo. (V/us)<br />
<table border="0"><tbody>
<tr> <td width="90%">El condensador de Miller del que hemos hablado antes es un condensador que se tiene que llenar y vaciar de carga alternativamente, y ésto lo hace a través de las mallas que lo controlan. <br />
En el caso de una etapa normal como la mostrada a la derecha, la malla es la rama inversora de la etapa diferencia, y ésta rama tiene limitada la corriente, porque se alimenta a través de una fuente de corriente.</td> <td width="10%"><a href="http://www.pcpaudio.com/pcpfiles/doc_amplificadores/Estabilidad/etapa4.gif"><img border="0" height="99" src="http://www.pcpaudio.com/pcpfiles/doc_amplificadores/Estabilidad/etapa4sm.gif" width="186" /></a></td> </tr>
</tbody></table>Para determinadas condiciones, las más comunes en las topologías habituales, el slew-rate está determinador por la corriente de la fuente I3 ,I(I3), dividido por la capacidad parásita (o no) C<span style="font-size: 78%;">Miller</span>, por lo que SR=I/C<span style="font-size: 78%;">Miller</span>.<br />
<table border="0"><tbody>
<tr> <td width="89%">El el caso de que I3 no fuese una fuente de corriente sino una resistencia se pueden hacer cálculos aproximados mediante la ley de Ohm. El voltaje en esta resistencia prácticamente es fijo, por lo que en el caso de la derecha podemos estimar que R7 equivale a una fuente de corriente de 1.43mA</td> <td width="11%"><a href="http://www.pcpaudio.com/pcpfiles/doc_amplificadores/Estabilidad/etapa3.gif"><img border="0" height="101" src="http://www.pcpaudio.com/pcpfiles/doc_amplificadores/Estabilidad/etapa3sm.gif" width="189" /></a></td> </tr>
</tbody></table><table border="0"><tbody>
<tr> <td width="81%">Un caso especial son las etapas de realimentación en corriente. En ellas no hay ninguna fuente de corriente que limite la carga del condensador de compensación, por lo que la carga se aproxima a una carga RC, que tiene forma exponencial en vez de la carga en forma de rampa habitual en la carga de un condensador mediante una fuente de corriente.<br />
La carga exponencial ofrece pendientes de variación muy altas al principio y que éstas por sí mismas tienen pendiente infinita al inicio.</td> <td width="19%"><a href="http://www.pcpaudio.com/pcpfiles/doc_amplificadores/Estabilidad/YOPOLOGYBASIXBIG.gif"><img border="0" height="218" src="http://www.pcpaudio.com/pcpfiles/doc_amplificadores/Estabilidad/YOPOLOGYBASIX.gif" width="168" /></a></td> </tr>
</tbody></table>En un caso más real si que existen limitaciones en el <i>slew-rate</i> en las etapas de realimentación en corriente, pero éstas limitaciones son mucho menores, permitiendo obtener con facilidad tasas de <i>slew-rate</i> 10 veces mayores que el las etapas de realimentación en voltaje. Éstas limitaciones se deben principalmente a un fenómeno muy común. <br />
Existen resistencias en el lazo de realimentación y en el camino de la señal a través de las cuales se cargan los condensadores de compensación. Dentro de un operacional, por muy grande que sea la sobrecarga no se puede superar el voltaje de alimentación, y llega un punto que las etapas se saturan y las resistencias no admiten más voltaje. Éste caso ya lo hemos visto antes, se trata de una resistencia con un voltaje fijo, que equivale a una fuente de corriente y de ésta manera se limita el <i>slew-rate</i> en este tipo de etapas.<br />
¿Por qué es tan importante el <i>slew-rate</i>? Es una cifra muy infravalorada, cuando gran parte de las características sonoras de una etapa dependen de ella.<br />
<table border="0"><tbody>
<tr> <td width="98%">Lo primero, porque crea distorsión y compresión.sonora. Vemos en la gráfica de la derecha cómo la limitación de slew-rate crea una distorsión semejante a un diente de sierra en una onda senoidal. Esta distorsión es medible y es una de las causas junto a las capacidades no lineales de que la distorsión armónica crezca con la frecuencia. Recordamos también que IMD y THD van juntas, y que IMD se agrava cuando la función de transferencia se hace menos lineal. </td> <td width="2%"><a href="http://www.pcpaudio.com/pcpfiles/doc_amplificadores/Estabilidad/SR-LIM.gif"><img border="0" height="117" src="http://www.pcpaudio.com/pcpfiles/doc_amplificadores/Estabilidad/SR-LIMsm.gif" width="191" /></a></td> </tr>
</tbody></table>Lo mostrado en la gráfica anterior se comoce como TIM (<i>transient intermodulation</i>) o SID (<i>slew induced distortion</i>), decubiertas por Mati Ottala, científico escandinavo de gran prestigio y autor de etapas míticas como el EC 25W de Electrocompaniet.<br />
Lo segundo, porque es causa de sobrecargas en las etapas. Ésto se conoce como hard TIM y es causa de características sonoras que no se pueden medir con THD. Es muy próxima a una distorsión de memoria, tiene como efectos la saturación de los nodos internos de la etapa y la entrada en corte o saturación profunda de muchos de sus transistores. Esto tiene retrasos temporales serios y que son causa de baja coherencia en el sonido de una etapa. Más aún, si éstos retrasos y salidas del punto de operación tienen una recuperación lenta producen sonidos claramente audibles y que se suelen denominar "grano". Éste fenómeno se ve agravado por las altas cifras de ganancia en lazo abierto, es la causa de que la válvulas con slew-rate's muy pobres no tengan "grando". <br />
Está probado por la psicoacústica que las primeras partes de un sonido impactante son las que marcan nuestra respuesta emocional a ese sonido impulsivo. Una limitación en la amplitud de la señal al inicio es motivo de que nuestro oído perciba compresión sonora, y en las etapas ésto tiene una causa evidente en TIM y hard TIM.<br />
Y esta es la respuesta a la pregunta ¿porqué se hace tan alto el ancho de banda de las etapas si no oímos más allá de 20 kHz?<br />
<br />
<div align="right"><a href="" name="OP"></a></div><h2 style="color: #009900;">OP-AMP de aplicaciones especiales y casos reales.</h2>Hemos visto en el apartado de "compensación por efecto Miller" que para hacer estable un amplificador se requiere reducir el ancho de banda y ésto también reduce su <i>slew-rate</i>. Sin embargo, sabemos que para grandes ganancias no es necesario utilizar compensaciones tan estrictas, podemos relajar la condición de margen de ganancia y hacer etapas con un mayor ancho de banda y <i>slew-rate</i>. En el mercado existe op-amp subcompensados que dan mayores cifras de ancho de banda y slew-rate, son necesarios para aplicaciones con gran ganancia como DACs, previos RIAA, previos de micro y me refiero a los uA748, NE5534, OP37, OPA637,...<br />
Es curioso que su coste sea mayor, cuando los costes de fabricación son menores por el menor tamaño del condensador, aunque también influye en su coste el menor volumen de ventas.<br />
<table border="0"><tbody>
<tr> <td width="69%">Como ejemplo, podemos ver los OPA27 y OPA37 de Burr-Brown, unos operacionales de bajo ruido y precisión. El OPA27 es un op-amp compensado para ganancia unidad y el OPA37 es el mismo OPA27 pero compensado para ganancias mayores que 5.</td> <td width="31%"><a href="http://www.pcpaudio.com/pcpfiles/doc_amplificadores/Estabilidad/OPA2_37.gif"><img border="0" height="67" src="http://www.pcpaudio.com/pcpfiles/doc_amplificadores/Estabilidad/OPA2_37sm.gif" width="196" /></a></td> </tr>
</tbody></table>En ella podemos comparar el ancho de banda y fase para un lazo cerrado de ganancia 100, 40dB. En el OPA27 el ancho de banda es de 30 kHz mientras que el OPA37 es de 300 KHz, lo que evidentemente para ésta ganancia es mejor y también para ganancias mayores que 5 también. Con la salvedad de que no puede usarse en todos los casos.<br />
<table border="0"><tbody>
<tr> <td width="87%">El NE5534 es un operacional subcompensado, estable para ganancias mayores que 3, y muy usado por su bajo coste. Al igual que muchos otros operacionales permite la adición de un condensador externo que sirva para compensar en frecuencia. <br />
Mediante el cambio de éste condensador podemos ver cómo el slew-rate pasa de 13 a 6 V/us por la adición del condensador externo de compensación, y cómo a alta frecuencia la limitación de slew-rate impide proporcionar señales de la misma amplitud que a baja.</td> <td width="13%"><a href="http://www.pcpaudio.com/pcpfiles/doc_amplificadores/Estabilidad/NE5534.gif"><img border="0" height="191" src="http://www.pcpaudio.com/pcpfiles/doc_amplificadores/Estabilidad/NE5534sm.gif" width="187" /></a></td> </tr>
</tbody></table>Tenemos por otro lado los op-amp de realimentación en corriente, otro mundo aparte de las restricciones habituales de los operacionales de realimentación en voltaje. En ellos la estabilidad se marca también un grupo RC, pero ésta resistencia no es fija y la estabilidad no depende de la ganancia del lazo cerrado sino de esta resistencia, externa y presente en el lazo de realimentación.<br />
Vemos en la gráfica de respuesta en frecuencia normalizada de un OPA684 de Burr-Brown, de realimentación en corriente. Prácticamente no hay cambios en el ancho de banda, y lo único que cambia es la "Q" al final de la banda. Se trata de un operacional con un ancho de banda superior a 120 MHz y un slew-rate de aproximadamente 700V/us.<br />
<br />
<br />
David Moreno<br />
C.I 17812731<br />
EESTecnología en Telecomunicaciones - conocimientos.com.vehttp://www.blogger.com/profile/13517798918797491823noreply@blogger.com0tag:blogger.com,1999:blog-6848052930915865724.post-26327080640247769342010-05-30T22:22:00.002-04:302010-05-31T07:55:51.863-04:30Root locusDavid Moreno<br />
17812731<br />
ees<br />
Seccion 2<br />
<a href="http://feedbackamplifiers.blogspot.com/2010/05/root-locus.html">http://feedbackamplifiers.blogspot.com/2010/05/root-locus.html</a><br />
<br />
<br />
En teoría de control, el lugar de raíces o lugar de las raíces (del inglés, root locus) es el lugar geométrico de los polos y ceros de una función de transferencia a medida que se varía la ganancia del sistema K en un determinado intervalo.<br />
<br />
El método del lugar de raíces permite determinar la posición de los polos de la función de transferencia a lazo cerrado para un determinado valor de ganancia K a partir de la función de transferencia a lazo abierto.<br />
<br />
El lugar de raíces es una herramienta útil para analizar sistemas dinámicos lineales tipo SISO (single input single output) y su estabilidad (BIBO stability). (Recuérdese que un sistema es estable si todos sus polos se encuentran en el semiplano izquierdo del plano s (en el caso de sistemas continuos) o dentro del círculo unitario del plano z (para sistemas discretos)<br />
<br />
Las reglas que se detallan a continuación permiten graficar el lugar de raíces sin resolver la ecuación caracterísitica, permitiendo que el método sea aplicable a sistemas complejos. Se basan en el desarrollo de R. Evans, publicado en 1948, y por consiguiente se las conoce como Reglas de Evans.<br />
<br />
Las siguientes reglas permiten graficar el lugar de raíces para valores de k positivos. Para valores negativos de k se utiliza un conjunto de reglas similar.<br />
<br />
En lo que sigue, nos referimos a la función de transferencia a lazo abierto.<br />
<br />
1. Número de ramas. El número de ramas del lugar de raíces es igual al orden de la ecuación característica de la función de transferencia a lazo cerrado. Para sistemas racionales, esto equivale al orden de la ecuación característica de la función de transferencia a lazo abierto, es decir, el denominador de la función de transferencia a lazo abierto.<br />
2. Simetría. Dado que la ecuación característica es de coeficientes reales, las raíces complejas deben ser complejas conjugadas. Por tanto, el lugar de raíces es simétrico respecto al eje real.<br />
3. Polos de lazo abierto. Los polos de la función de transferencia a lazo abierto pertenecen al lugar de raíces y corresponden a k = 0.<br />
4. Ceros de lazo abierto. Los ceros de la función de transferencia a lazo abierto pertenecen al lugar de raíces y corresponden a k = \infty . Si hay t polos más que ceros, entonces t posiciones se harán infinitas a medida que k se aproxime a infinito.<br />
5. Asíntotas. Si la función de transferencia de lazo cerrado tiene t polos más que ceros, entonces el lugar de raíces tiene t asíntotas equiespaciadas, formando entre ellas un ángulo<br />
6. Lugar de raíces sobre el eje real. Si la función de transferencia a lazo abierto tiene más de un polo o cero reales, entonces el segmento del eje real que tiene un número impar de polos y ceros reales a su derecha forma parte del lugar de raíces.Tecnología en Telecomunicaciones - conocimientos.com.vehttp://www.blogger.com/profile/13517798918797491823noreply@blogger.com0tag:blogger.com,1999:blog-6848052930915865724.post-59772340784524579122010-05-30T22:16:00.002-04:302010-05-31T07:55:39.720-04:30Compensation. Compensation of Single-Stage CMOS OP<a href="http://feedbackamplifiers.blogspot.com/">http://feedbackamplifiers.blogspot.com</a><br />
David Moreno<br />
17812731<br />
EES<br />
Seccion 2<br />
<div class="gmail_quote"><br />
<b><span style="color: #33cc00;">As CMOS</span></b> technology continues to evolve, the supply voltages are decreasing while at the same time the transistor threshold voltages are remaining relatively constant. Making matters worse, the inherent gain available from the nano-CMOS transistors is dropping. Traditional techniques for achieving high-gain by vertically stacking (i.e. cascoding) transistors becomes less useful in nano-scale CMOS processes. Horizontal cascading (multi-stage) must be used in order to realize high-gain op-amps in low supply voltage processes. This paper discusses new design techniques for the realization of three-stage op-amps. The proposed and experimentally verified op-amps, fabricated in 500 nm CMOS, typically exhibit 30 MHz unity-gain frequency, near 100ns transient settling and 72° phase-margin for 500pF load. This results in significantly higher op-amp performance metrics over the traditional op-amp designs while at the same time having smaller layout area. </div>Tecnología en Telecomunicaciones - conocimientos.com.vehttp://www.blogger.com/profile/13517798918797491823noreply@blogger.com0tag:blogger.com,1999:blog-6848052930915865724.post-31739859837847853812010-05-30T22:14:00.002-04:302010-05-31T07:55:28.167-04:30Compensation. Compensation of Single-Stage CMOS OP<b><span style="color: #33cc00;">As CMOS</span></b> technology continues to evolve, the supply voltages are decreasing while at the same time the transistor threshold voltages are remaining relatively constant. Making matters worse, the inherent gain available from the nano-CMOS transistors is dropping. Traditional techniques for achieving high-gain by vertically stacking (i.e. cascoding) transistors becomes less useful in nano-scale CMOS processes. Horizontal cascading (multi-stage) must be used in order to realize high-gain op-amps in low supply voltage processes. This paper discusses new design techniques for the realization of three-stage op-amps. The proposed and experimentally verified op-amps, fabricated in 500 nm CMOS, typically exhibit 30 MHz unity-gain frequency, near 100ns transient settling and 72° phase-margin for 500pF load. This results in significantly higher op-amp performance metrics over the traditional op-amp designs while at the same time having smaller layout area.Tecnología en Telecomunicaciones - conocimientos.com.vehttp://www.blogger.com/profile/13517798918797491823noreply@blogger.com0tag:blogger.com,1999:blog-6848052930915865724.post-15841406916109109302010-05-30T22:10:00.002-04:302010-05-31T07:55:13.009-04:30Fwd: Control ClasicoDavid Moreno<br />
17812731<br />
EEs<br />
Seccion 2<br />
<div class="gmail_quote"><br />
<br />
<b><br style="color: #33cc00;" /><span style="color: #33cc00;">Control Clasico</span></b><br />
<br />
Hasta bien entrado el siglo XX las únicas herramientas analíticas que poseía el especialista en control eran la utilización de ecuaciones diferenciales ordinarias junto con criterios algebraicos para determinar la posición de las raíces de la ecuación característica asociada. Aplicando el criterio de Routh y Hurwitz el ingeniero determinaba la estabilidad o no de los sistemas, pero para esto se debía obtener el modelo matemático operando mediante ecuaciones diferenciales. Esto suponía un arduo trabajo. Además ahí que destacar que el criterio de Routh y Hurwitz no ofrece información de cómo mejorar la estabilidad del sistema.<br />
Desde el punto de vista teórico, la Ingeniería de Control se empieza a consolidar cuando se produce el traslado y aplicación de los conocimientos adquiridos en los problemas de amplificación de señales a los problemas de control industrial.<br />
Estos estudios desembocan en la llamada Teoría Clásica de Control, en la cual se utililizaban como herramientas matemáticas los métodos de Transformación de Laplace y Fourier y la descripción externa de los sistemas.<br />
Dos trabajos de singular importancia son los desarrollados por Minorsky y Hazen. En el trabajo de Minorsky "Directional Stability of Automatic Steered Bodies" [Thaler 74] de 1922, se reconoce la no-linealidad de los sistemas y aplica la linealización mediante el desarrollo en serie de Taylor a sistemas no-lineales correspondientes al movimiento angular de un buque. Estudia la estabilidad y los efectos de los retrasos de la información sobre las salidas de los Sistemas.<br />
<br />
<b style="color: #33cc00;"><br />
El desarrollo de las técnicas frecuenciales:</b><br />
<br />
El estudio de los servomecanismos y los reguladores en el dominio frecuencial se realiza al obtenerse resultados sobre el diseño de amplificadores de señal realimentados. Destacan los trabajos de Nyquist (1932), Black (1934) y Bode (1940).<br />
El suceso que realmente marca época en el desarrollo de los métodos de respuesta en frecuencia es la aparición de trabajo clásico de Nyquist sobre la estabilidad de amplificadores realimentados. Nyquist presenta en este trabajo "Regeneration Theory" [Thaler 74], su celebre criterio de estabilidad. Su investigación surge de los problemas que presentaba la atenuación y distorsión de la señal en la telefonía a grandes distancias.<br />
En 1915 la Bell System había finalizado un enlace telefónico experimental entre New York y San Francisco. Este enlace utilizó una línea aérea de cobre que pesaba 500 Kg/milla y fue cargado inductivamente para tener una frecuencia de corte de 1000 Hz. La atenuación de la señal a lo largo de las 3000 millas era de 60 dB, se redujo a 18dB utilizando seis amplificadores con una ganancia total de 42 dB.<br />
Sin embargo el cambio a operaciones mediante cable, planteó serios problemas técnicos. Debido a la escasa sección de los cables la atenuación era grande y se requerían muchos amplificadores repetidores. Esto suponía que la señal al pasar por múltiples etapas amplificadoras, cada una con sus no-linealidades, se iba distorsionando. Para mantener la inteligibilidad de la señal de audio transmitida en distancias intercontinentales se requería una linealidad efectiva del amplificador muy lejos de la que la tecnología era capaz de dar ( una distorsión del orden del 0.005%).<br />
Esta dificultad sólo se pudo vencer con el magnífico invento desarrollado por H. Black de los laboratorios Bell quien propuso la idea de un amplificador realimentado, en su trabajo "Stabilized Feedback Amplifiers" [Thaler 74] en 1934. El descubrimiento importante de Black fue que la elevada ganancia en un dispositivo amplificador no lineal y cuyos parámetros eran variables con el tiempo se podía negociar para conseguir una reducción en la distorsión no lineal de manera que el sistema se comportase como una ganancia lineal, estable y precisa. Black utiliza el criterio de Nyquist y llega a interpretar una serie de fenómenos que se producen en los sistemas realimentados.<br />
El mecanismo era simplemente utilizar componentes pasivos lineales apropiados de gran precisión en el lazo de realimentación de un amplificador no lineal de elevada ganancia. Hacia 1932 Black y su equipo podían construir amplificadores que funcionaban razonablemente bien. Sin embargo presentaban una tendencia a inestabilizarse. Algunos lo hacían cuando aumentaba la ganancia del lazo del amplificador realimentado, lo cual se podía esperar, pero otros manifestaban estas características cuando la ganancia se disminuía y esto si que era completamente inesperado.<br />
La situación era muy parecida a la asociada con los reguladores de velocidad del siglo XIX, que presentaban oscilaciones en la velocidad y cuya conducta no se podía explicar con las herramientas de análisis disponibles.<br />
Los amplificadores realimentados de la época podían contener del orden de 50 elementos independientes almacenadores de energía (tales como condensadores, autoinducciones, etc.). Su descripción en términos de un conjunto de ecuaciones diferenciales, como en el análisis clásico de los sistemas de control automático de origen mecánico era casi una tarea imposible a la vista de las rudimentarias facilidades disponibles en esos años para la solución por computador de tales ecuaciones.<br />
El famoso trabajo de Nyquist resolvió este misterio, abrió totalmente nuevas perspectivas en la teoría de los mecanismos realimentados y por lo tanto comenzó una nueva era en el Control Automático. Antes de 1932 el enfoque basado en las ecuaciones diferenciales había sido la gran herramienta del ingeniero del control; en la década que siguió a la contribución de Nyquist estas técnicas fueron casi completamente reemplazadas por métodos basados en la teoría de variable compleja los cuales fueron la consecuencia natural y directa de su nuevo planteamiento.<br />
La solución del problema de la estabilidad de un sistema realimentado propuesta por Nyquist se basaba en la forma de la respuesta en frecuencia de la ganancia en lazo abierto y esto era de un valor práctico inmenso ya que se formulaba en términos de una cantidad (la ganancia) que era directamente medible. Este enlace directo con medidas experimentales era un desarrollo completamente nuevo en trabajos dinámicos de tipo aplicado.<br />
La aplicación del criterio de estabilidad de Nyquist no dependía de la disponibilidad de un modelo del sistema en la forma de una ecuación diferencial. Más aún, el contorno del lugar de Nyquist daba una indicación inmediata de cómo se podía mejorar la conducta de un sistema realimentado que estaba muy poco amortiguado o que incluso era inestable simplemente modificando de una manera apropiada su característica de ganancia en lazo abierto en función de la frecuencia.<br />
Con la perspectiva de hoy día puede resultarnos demasiado fácil subestimar la magnitud de la invención de Black y el logro teórico de Nyquist, sin embargo las cosas parecían muy diferentes en su tiempo. La concesión de una patente a Black por su amplificador tardó más de 9 años. La oficina de patentes de EEUU citaba trabajos técnicos que decían que la salida de un amplificador no se podía conectar a la entrada y permanecer estable a menos que la ganancia del lazo fuese menor que uno. La oficina de patentes británica, en palabras de Black, trató la aplicación "como si se tratase de una máquina de movimiento continuo".<br />
El trabajo de Nyquist dejaba sin resolver como estaban relacionadas la amplitud y la fase en función de la frecuencia de la función de transferencia de la ganancia en lazo abierto. En otro de los trabajos clásicos que están en los fundamentos de la Teoría del Control, H. W. Bode realizó este análisis, extendiendo resultados previos de Lee y Wiener.<br />
En el trabajo de Bode "Relations Between Attenuation and phase in Feedback Amplifier Design" [Thaler 74] de 1940, se presenta la definición de margen de fase y margen de ganancia y la definición de los diagramas logarítmicos de Bode.<br />
Bode demostró que dada cualquier función de respuesta en frecuencia A (w) siendo A la amplitud de la ganancia en lazo abierto se le puede asociar una función F (w) siendo la fase mínima de dicha función de respuesta en frecuencia. De esta forma fue capaz de dar reglas para obtener la forma óptima de la ganancia del lazo en función de la frecuencia para un amplificador realimentado.<br />
En la industria de los procesos químicos la introducción del control por realimentación tendió en un principio a desarrollarse de forma aislada de los desarrollos mecánicos y eléctricos. En estos procesos la evolución de la variable controlada era tan lenta ( y lo sigue siendo) que el control se hacia mediante realimentación manual. Los primeros pasos que se dan para controlar estos procesos son la incorporación de instrumentos para supervisar la operación y registradores de plumilla. El desarrollo natural fue utilizar el movimiento de la plumilla del registrador para efectuar una acción de realimentación sobre las válvulas de control en la planta utilizando líneas de transmisión, amplificadores y transductores neumáticos.<br />
Los primeros controladores de temperatura, ofrecían una acción de control de tipo on-off por medio de un simple mecanismo conmutador o relé que pronto se reveló insuficiente para las exigencias planteadas en los procesos industriales, como por ejemplo en la industria láctea, el proceso de pasteurización de la leche. El siguiente desarrollo fueron los primeros reguladores con acción proporcional. En estos reguladores se manifestaba claramente el dilema de la automática: precisión frente estabilidad, si se desea un error estacionario pequeño, se debía aumentar la ganancia del regulador, o lo que es lo mismo disminuir la banda proporcional. Pero esto conllevaba que el proceso era sometido a fuertes oscilaciones en el transitorio. Y si se aumentaba la banda proporcional, disminuían las oscilaciones pero en caso de cambios en la carga aparecía un error estacionario apreciable. El máximo valor recomendado entonces para la banda proporcional era del cinco por ciento.</div>Tecnología en Telecomunicaciones - conocimientos.com.vehttp://www.blogger.com/profile/13517798918797491823noreply@blogger.com0tag:blogger.com,1999:blog-6848052930915865724.post-15519734600561442792010-05-30T22:09:00.002-04:302010-05-31T07:54:59.127-04:30Control Clasico<b><br style="color: #33cc00;" /><span style="color: #33cc00;">Control Clasico</span></b><br />
<br />
Hasta bien entrado el siglo XX las únicas herramientas analíticas que poseía el especialista en control eran la utilización de ecuaciones diferenciales ordinarias junto con criterios algebraicos para determinar la posición de las raíces de la ecuación característica asociada. Aplicando el criterio de Routh y Hurwitz el ingeniero determinaba la estabilidad o no de los sistemas, pero para esto se debía obtener el modelo matemático operando mediante ecuaciones diferenciales. Esto suponía un arduo trabajo. Además ahí que destacar que el criterio de Routh y Hurwitz no ofrece información de cómo mejorar la estabilidad del sistema.<br />
Desde el punto de vista teórico, la Ingeniería de Control se empieza a consolidar cuando se produce el traslado y aplicación de los conocimientos adquiridos en los problemas de amplificación de señales a los problemas de control industrial.<br />
Estos estudios desembocan en la llamada Teoría Clásica de Control, en la cual se utililizaban como herramientas matemáticas los métodos de Transformación de Laplace y Fourier y la descripción externa de los sistemas.<br />
Dos trabajos de singular importancia son los desarrollados por Minorsky y Hazen. En el trabajo de Minorsky "Directional Stability of Automatic Steered Bodies" [Thaler 74] de 1922, se reconoce la no-linealidad de los sistemas y aplica la linealización mediante el desarrollo en serie de Taylor a sistemas no-lineales correspondientes al movimiento angular de un buque. Estudia la estabilidad y los efectos de los retrasos de la información sobre las salidas de los Sistemas.<br />
<br />
<b style="color: #33cc00;"><br />
El desarrollo de las técnicas frecuenciales:</b><br />
<br />
El estudio de los servomecanismos y los reguladores en el dominio frecuencial se realiza al obtenerse resultados sobre el diseño de amplificadores de señal realimentados. Destacan los trabajos de Nyquist (1932), Black (1934) y Bode (1940).<br />
El suceso que realmente marca época en el desarrollo de los métodos de respuesta en frecuencia es la aparición de trabajo clásico de Nyquist sobre la estabilidad de amplificadores realimentados. Nyquist presenta en este trabajo "Regeneration Theory" [Thaler 74], su celebre criterio de estabilidad. Su investigación surge de los problemas que presentaba la atenuación y distorsión de la señal en la telefonía a grandes distancias.<br />
En 1915 la Bell System había finalizado un enlace telefónico experimental entre New York y San Francisco. Este enlace utilizó una línea aérea de cobre que pesaba 500 Kg/milla y fue cargado inductivamente para tener una frecuencia de corte de 1000 Hz. La atenuación de la señal a lo largo de las 3000 millas era de 60 dB, se redujo a 18dB utilizando seis amplificadores con una ganancia total de 42 dB.<br />
Sin embargo el cambio a operaciones mediante cable, planteó serios problemas técnicos. Debido a la escasa sección de los cables la atenuación era grande y se requerían muchos amplificadores repetidores. Esto suponía que la señal al pasar por múltiples etapas amplificadoras, cada una con sus no-linealidades, se iba distorsionando. Para mantener la inteligibilidad de la señal de audio transmitida en distancias intercontinentales se requería una linealidad efectiva del amplificador muy lejos de la que la tecnología era capaz de dar ( una distorsión del orden del 0.005%).<br />
Esta dificultad sólo se pudo vencer con el magnífico invento desarrollado por H. Black de los laboratorios Bell quien propuso la idea de un amplificador realimentado, en su trabajo "Stabilized Feedback Amplifiers" [Thaler 74] en 1934. El descubrimiento importante de Black fue que la elevada ganancia en un dispositivo amplificador no lineal y cuyos parámetros eran variables con el tiempo se podía negociar para conseguir una reducción en la distorsión no lineal de manera que el sistema se comportase como una ganancia lineal, estable y precisa. Black utiliza el criterio de Nyquist y llega a interpretar una serie de fenómenos que se producen en los sistemas realimentados.<br />
El mecanismo era simplemente utilizar componentes pasivos lineales apropiados de gran precisión en el lazo de realimentación de un amplificador no lineal de elevada ganancia. Hacia 1932 Black y su equipo podían construir amplificadores que funcionaban razonablemente bien. Sin embargo presentaban una tendencia a inestabilizarse. Algunos lo hacían cuando aumentaba la ganancia del lazo del amplificador realimentado, lo cual se podía esperar, pero otros manifestaban estas características cuando la ganancia se disminuía y esto si que era completamente inesperado.<br />
La situación era muy parecida a la asociada con los reguladores de velocidad del siglo XIX, que presentaban oscilaciones en la velocidad y cuya conducta no se podía explicar con las herramientas de análisis disponibles.<br />
Los amplificadores realimentados de la época podían contener del orden de 50 elementos independientes almacenadores de energía (tales como condensadores, autoinducciones, etc.). Su descripción en términos de un conjunto de ecuaciones diferenciales, como en el análisis clásico de los sistemas de control automático de origen mecánico era casi una tarea imposible a la vista de las rudimentarias facilidades disponibles en esos años para la solución por computador de tales ecuaciones.<br />
El famoso trabajo de Nyquist resolvió este misterio, abrió totalmente nuevas perspectivas en la teoría de los mecanismos realimentados y por lo tanto comenzó una nueva era en el Control Automático. Antes de 1932 el enfoque basado en las ecuaciones diferenciales había sido la gran herramienta del ingeniero del control; en la década que siguió a la contribución de Nyquist estas técnicas fueron casi completamente reemplazadas por métodos basados en la teoría de variable compleja los cuales fueron la consecuencia natural y directa de su nuevo planteamiento.<br />
La solución del problema de la estabilidad de un sistema realimentado propuesta por Nyquist se basaba en la forma de la respuesta en frecuencia de la ganancia en lazo abierto y esto era de un valor práctico inmenso ya que se formulaba en términos de una cantidad (la ganancia) que era directamente medible. Este enlace directo con medidas experimentales era un desarrollo completamente nuevo en trabajos dinámicos de tipo aplicado.<br />
La aplicación del criterio de estabilidad de Nyquist no dependía de la disponibilidad de un modelo del sistema en la forma de una ecuación diferencial. Más aún, el contorno del lugar de Nyquist daba una indicación inmediata de cómo se podía mejorar la conducta de un sistema realimentado que estaba muy poco amortiguado o que incluso era inestable simplemente modificando de una manera apropiada su característica de ganancia en lazo abierto en función de la frecuencia.<br />
Con la perspectiva de hoy día puede resultarnos demasiado fácil subestimar la magnitud de la invención de Black y el logro teórico de Nyquist, sin embargo las cosas parecían muy diferentes en su tiempo. La concesión de una patente a Black por su amplificador tardó más de 9 años. La oficina de patentes de EEUU citaba trabajos técnicos que decían que la salida de un amplificador no se podía conectar a la entrada y permanecer estable a menos que la ganancia del lazo fuese menor que uno. La oficina de patentes británica, en palabras de Black, trató la aplicación "como si se tratase de una máquina de movimiento continuo".<br />
El trabajo de Nyquist dejaba sin resolver como estaban relacionadas la amplitud y la fase en función de la frecuencia de la función de transferencia de la ganancia en lazo abierto. En otro de los trabajos clásicos que están en los fundamentos de la Teoría del Control, H. W. Bode realizó este análisis, extendiendo resultados previos de Lee y Wiener.<br />
En el trabajo de Bode "Relations Between Attenuation and phase in Feedback Amplifier Design" [Thaler 74] de 1940, se presenta la definición de margen de fase y margen de ganancia y la definición de los diagramas logarítmicos de Bode.<br />
Bode demostró que dada cualquier función de respuesta en frecuencia A (w) siendo A la amplitud de la ganancia en lazo abierto se le puede asociar una función F (w) siendo la fase mínima de dicha función de respuesta en frecuencia. De esta forma fue capaz de dar reglas para obtener la forma óptima de la ganancia del lazo en función de la frecuencia para un amplificador realimentado.<br />
En la industria de los procesos químicos la introducción del control por realimentación tendió en un principio a desarrollarse de forma aislada de los desarrollos mecánicos y eléctricos. En estos procesos la evolución de la variable controlada era tan lenta ( y lo sigue siendo) que el control se hacia mediante realimentación manual. Los primeros pasos que se dan para controlar estos procesos son la incorporación de instrumentos para supervisar la operación y registradores de plumilla. El desarrollo natural fue utilizar el movimiento de la plumilla del registrador para efectuar una acción de realimentación sobre las válvulas de control en la planta utilizando líneas de transmisión, amplificadores y transductores neumáticos.<br />
Los primeros controladores de temperatura, ofrecían una acción de control de tipo on-off por medio de un simple mecanismo conmutador o relé que pronto se reveló insuficiente para las exigencias planteadas en los procesos industriales, como por ejemplo en la industria láctea, el proceso de pasteurización de la leche. El siguiente desarrollo fueron los primeros reguladores con acción proporcional. En estos reguladores se manifestaba claramente el dilema de la automática: precisión frente estabilidad, si se desea un error estacionario pequeño, se debía aumentar la ganancia del regulador, o lo que es lo mismo disminuir la banda proporcional. Pero esto conllevaba que el proceso era sometido a fuertes oscilaciones en el transitorio. Y si se aumentaba la banda proporcional, disminuían las oscilaciones pero en caso de cambios en la carga aparecía un error estacionario apreciable. El máximo valor recomendado entonces para la banda proporcional era del cinco por ciento.Tecnología en Telecomunicaciones - conocimientos.com.vehttp://www.blogger.com/profile/13517798918797491823noreply@blogger.com0tag:blogger.com,1999:blog-6848052930915865724.post-72053586401189753222010-05-30T22:03:00.002-04:302010-05-31T07:54:39.476-04:30El teorema de muestreo de Nyquist-Shannon<span style="color: #009900; font-weight: bold;">El teorema de muestreo de Nyquist-Shannon</span><br />
<br />
También conocido como teorema de muestreo de Whittaker-Nyquist-Kotelnikov-Shannon, criterio de Nyquist o teorema de Nyquist , es un teorema fundamental de la teoría de la información, de especial interés en las telecomunicaciones.<br />
<br />
Este teorema fue formulado en forma de conjetura por primera vez por Harry Nyquist en 1928 (Certain topics in telegraph transmission theory), y fue demostrado formalmente por Claude E. Shannon en 1949 (Communication in the presence of noise).<br />
<br />
El teorema trata con el muestreo, que no debe ser confundido o asociado con la cuantificación, proceso que sigue al de muestreo en la digitalización de una señal y que, al contrario del muestreo, no es reversible (se produce una pérdida de información en el proceso de cuantificación, incluso en el caso ideal teórico, que se traduce en una distorsión conocida como error o ruido de cuantificación y que establece un límite teórico superior a la relación señal-ruido). Dicho de otro modo, desde el punto de vista del teorema, las muestras discretas de una señal son valores exactos que aún no han sufrido redondeo o truncamiento alguno sobre una precisión determinada, esto es, aún no han sido cuantificadas.<br />
<br />
El teorema demuestra, que la reconstrucción exacta de una señal periódica continua en banda base a partir de sus muestras, es matemáticamente posible si la señal está limitada en banda y la tasa de muestreo es superior al doble de su ancho de banda.<br />
<br />
Dicho de otro modo, la información completa de la señal analógica original que cumple el criterio anterior está descrita por la serie total de muestras que resultaron del proceso de muestreo. No hay nada, por tanto, de la evolución de la señal entre muestras que no esté perfectamente definido por la serie total de muestras.<br />
<br />
<span style="color: #33cc00; font-weight: bold;"> Nuevos formatos y su relación con las interpretaciones erróneas sobre el teorema y su utilidad práctica </span><br />
<br />
La aparición reciente de nuevos formatos de audio (denominados frecuentemente formatos de alta resolución) para usuario final que contienen señales muestreadas con tasas más elevadas a la empleada en CD-Audio han contribuido a extender la idea errónea de que la calidad en la reconstrucción de una señal en toda su banda (hasta la frecuencia crítica) es función directa de la tasa de muestreo empleada. En todo caso, parece evidente que el potencial para registrar y reproducir ultrasonidos no forma parte de los mensajes de mercadotecnia que pretenden promocionar estos en el mercado. Un argumento que suele tener la forma general de "si los nuevos formatos de alta resolución registran señales con tasas de muestreo más elevadas para la reconstrucción de señales con el mismo ancho de banda es porque el teorema de muestreo no aplica/no es válido/es erróneo y esta mayor tasa contribuye a una mejora en la calidad".<br />
<br />
Los nuevos formatos de audio que recientemente han aparecido (aunque con escaso éxito comercial) que emplean Modulación por impulsos codificados (PCM) sin pérdida por compresión con tasas de muestreo más altas a las empleadas en el CD-Audio, (DVD-Audio, por ejemplo) para registrar y reproducir señales de idéntico ancho de banda se justifican porque permiten el empleo de filtros de reconstrucción más benignos, sencillos y económicos sacrificando un recurso cada vez más económico y de menor trascendencia (la capacidad de almacenamiento, un recurso crítico en el pasado) y porque, además, satisfacen simultáneamente las expectativas de un mercado como el audiófilo, caracterizado por dogmas[2] entre los que se encuentra muy extendida la falsa creencia de que esto representa una mejora en la calidad de la señal reconstruida (en particular, de sus componentes de alta frecuencia). Este error es sólo una consecuencia de una clara incomprensión del alcance y significado del teorema de muestreo y de establecer comparaciones falaces como, por ejemplo, con la digitalización de imágenes (donde no se realiza la reconstrucción de una señal periódica), etc.<br />
<br />
La elevada tasa de muestreo de otro formato de audio de reciente aparición, el SACD o Super Audio CD, es una consecuencia del uso de una tecnología denominada comercialmente Direct Stream Digital™ (DSD) basada en un tipo de codificación digital denominado Modulación por densidad de impulsos (PDM). Si bien la tasa de muestreo es 64 veces la del CD-Audio, es necesario tener presente que se trata de una cuantificación de 1 bit (en lugar de los 16 empleados en el CD-Audio) y basado en técnicas de Noise Shaping (modelado de ruido). No es posible, por tanto, establecer comparaciones superficiales con el PCM de CD-Audio ó DVD-Audio (ambos PCM), ya que en este caso la relación señal-ruido no es constante respecto de la frecuencia[3] (en CD-Audio el ruido de cuantificación es independiente de la frecuencia y sólo depende de los intervalos de amplitud empleados en el proceso de cuantificación, es decir, es de unos 98,09 dB[4] constantes para los 16 bits de este estándar CD-Audio en todo el espectro útil). Un SACD puede registrar y reproducir señales con componentes de hasta 33 kHz con una relación señal-ruido equivalente al de un CD-Audio (aunque 33 kHz está casi una octava por encima del máximo audible y, por tanto, una ventaja sobre el CD-Audio de dudosa utilidad práctica) y mantener una relación señal-ruido de aproximadamente 122 dB para el espectro audible (un potencial, el equivalente aproximado a 20 bits, también de dudosa utilidad práctica como formato final de usuario considerando los medios y entornos de reproducción de este formato).<br />
<br />
Entre las ventajas objetivas de estos formatos (DVD-Audio y SACD) se encuentra el potencial multicanal (registro de más de dos canales) y la capacidad para el empleo de técnicas de protección de copia (algo de extraordinario interés para las compañías discográficas y, probablemente, la auténtica justificación industrial y comercial de estos productos junto con el evidente beneficio resultante de la sustitución de todos los equipos reproductores y grabadores del mundo).<br />
<br />
Se han publicado trabajos experimentales rigurosos[5] que concluyen que no existen diferencias audibles entre los formatos denominados de alta resolución y el tradicional soporte de audio digital CD-Audio (PCM 16 bits;44100 muestras/s).<br />
<br />
Asimismo, también se han probado indistinguibles entre sí los formatos de alta resolución SACD y DVD-Audio<br />
<br />
David Moreno<br />
17812731<br />
EEs<br />
Seccion 2Tecnología en Telecomunicaciones - conocimientos.com.vehttp://www.blogger.com/profile/13517798918797491823noreply@blogger.com0tag:blogger.com,1999:blog-6848052930915865724.post-29698933025777396792010-05-30T21:52:00.002-04:302010-05-31T07:54:22.975-04:30Ejericios amplificadoresDavid Moreno<br />
17812731<br />
EES<br />
Seccion 2<br />
<br />
<a href="http://feedbackamplifiers.blogspot.com/2010/05/ejercicios-de-amplificadores.html">http://feedbackamplifiers.blogspot.com/2010/05/ejercicios-de-amplificadores.html</a><br />
<br />
A continuación se presenta una gráfica de transferencia del amplificador retroalimentado comprada con el amplificador basico:<br />
<br />
Es importante recordar la importancia del lazo de transmisión, debido a que es un parámetro que intevienen en el análisis del amplificador retroalimentado:<br />
<br />
Af(s)= A(s)<br />
1-L(s)<br />
donde L(s) es el lazo de transmisión.<br />
Para determinar el lazo de transmisión debemos seguir los siguientes paso:<br />
<br />
a) Se abre la red de retroalimentación en cualquier punto. (De preferencia a la salida, para mayo simplicidad).<br />
b) Las excitaciones se hacen cero.<br />
c) Se excita con un generador auxiliar de valor igual a la variable interrumpida.<br />
d) Se calcula la salida en términos del generador auxiliar.<br />
L(s)=xo/xo´<br />
<br />
<span style="color: #33cc00; font-weight: bold;">Desarrollo:</span><br />
A partir de la figura 2.1 realizaremos el análisis del circuito (los valores expuestos, son los valores obtenidos después de dicho análisis).<br />
Para poder realizar el diseño tomamos una etapa polarizada por división de tensión y consideramos una beta o ganancia del transistor 2N2222 como 100, por que el circuito a analizar queda como se muestra en la figura 2.2 dicha etapa se repetirá tres veces para obtener un circuito de tres etapas amplificadoras, las cuales serán acopladas con capacitores, cuyos polos no deben afectar al polo dominante (Para realizar la práctica de tipo didáctica) por lo que deberán romper a una frecuencia menor de 10OHz.<br />
<br />
<br />
Basándonos en la figura proponemos los siguientes valores<br />
Vcc=15 V<br />
Rf=47K<br />
ICQ=10mA<br />
RTH=(1/10)RexB=1K<br />
VTH= RTHx(10m/100)=0.7<br />
VTH=1.8V<br />
R2=RTHxVcc/VTH=8.33K<br />
R1=RTH/(1-VTH/Vcc)=1.13K<br />
VCE=6.42 V.<br />
hie1=hie2=hie3=228 ohms<br />
<br />
Con lo cual el circuito de Ac queda de la siguiente forma Ze que es la impedancia formada por el capacitor de emisor y la resistencia de emisor.<br />
<br />
Obteniendo mediante un equivalente de Thevenin en la resistencia vista por cada uno de los capacitores, tenemos que:<br />
<br />
Rci=1.6K Rc1=9.131K Rc2=1.659K<br />
Por lo que su utilizamos capacitores de una microfaradio, la frecuencia de cada capacitor será muy baja aproxima-damente 96 Hz y si utilizamos capacitores de 10 uF será mucho menor aún.<br />
<br />
Proponiendo una Rs=8.2 K y si sustituimos la resistencia de retroalimentación por sus equivalentes en los parámetros de 2 puertos, el circuito queda tal como se indica en la<br />
A partir de estos datos y con el auxilio de la figura desarrollamos la función de transferencia de cada etapa, la función de transferencia total y a partir de ese desarrollo determinamos el valor de CE(para que se presente el polo a 15KHz) y la ganancia del circuito.<br />
<br />
Hay que ser mencionar que la ganancia se determina con respecto al básico y para encontrar la ganancia del retroalímentado debemos de encontrar el lazo, lo cual se realizará utilizando las técnicas que mencionamos en el marco teórico.<br />
<br />
A continuación se presenta el desarrollo matemático de la práctica, asi como la forma en que se fueron determinando dichos valo res y dichos parametros, a su vez se apuntan los valores arrojados en la practica y las variaciones que tuvieron con los valores calculados.<br />
No debemos de olvidar que el signo que acompaña al lazo debe ser un signo negativo<br />
Para el análisis del básico<br />
<br />
is= Vs/Rs y L=0<br />
ib1/is= Rx = .08175<br />
Rx+ 10.228K<br />
ib2= - 100*412 = (100)(412)<br />
412+228+Ze*hfe 640+hfe(Ze)<br />
ib2= -412(ReSC+1)<br />
6.4ReSC+6.4<br />
ib3/ib2= -412(100) = -3.872<br />
412+10.228K<br />
iL/ib3= -670.3(100) = -40.13<br />
1.6703K<br />
iL/is= -5233(ReSC+1)<br />
6.4ReSC+Re+6.4<br />
Por lo que si el polo está a 15 KHz<br />
W= Re+6.4<br />
6.4ReCe<br />
Por lo que Ce=1.76uF<br />
IL=VL/RL Con lo que la transimpedancia queda<br />
Az(s)= VL/is= -5.233M(ReSc+1)<br />
6.4ReSC+6.4<br />
Por lo que la ganancia de voltaje queda de la siguiente manera:<br />
VL/VS= -638.2146(ReSC+1)<br />
6.4ReSC+Re+6.4<br />
<br />
Si s tiende a infinito<br />
VL/Vs=-99.72<br />
<br />
Para obtener la función de retroalimentación, se hace la excitación igual a cero y se abre el lazo<br />
<br />
Vo/Vo´= -111.3481(ReSC+1)/(6.4ReSCe+Re+6.4)<br />
Si s tiende a infinito L=-17.398<br />
Con lo que VL/Vo=-638.21(ReSC+1)/(117.748ReSC+Re+6.4+111.34)<br />
<br />
Si s tiende a infinito:<br />
Avf= 5.42<br />
<br />
La impedancia de entrada será igual a Zi=910.5/10.228K=835.651 ohms.<br />
Zif=Zi/(1-L)=45.42 ohms<br />
<br />
La impedancia de salida será<br />
<br />
Zo=401.3 ohms<br />
Zof=Zo/(1-L)= 21.8 ohms<br />
Para observaciones prácticas tenemos que wl=14.7KHZ y Wlf=1.63KHZ<br />
La sensitividad del wl con respecto a ce es igual a -1. En forma práctica será -1.2<br />
Al finalizar la presente práctica es un hecho que los conceptos y aspectos que rodean a los métodos de los amplificadores retroalimentados quedan más claros y con mayores fundamentos y principalmente comprobamos que lo visto en clase se lleva a la práctica.<br />
Los valores que arrojaron fueron próximos a los calculados y las pequeñas variaciones que se presentaron fueron debidos a las variaciones de los valores de los componen-tes, y de los errores de medición (paralaje, equipo, etc.).<br />
<br />
Los aspectos de medición (realización) se presentaron en la primera práctica, por lo que no se mencionan ahora, que en la práctica anterior, con la diferencia de que al medir el Lazo como es Vo/Vo-entonces hay que tratar el voltaje de entrada como una fuente de voltaje, por lo que la resisten-cia de retroalimentación que es por donde se va a suminis-trar la alimentación debe tener dicha configuración.<br />
<br />
Otro aspecto a resaltar fue el hecho de que la medición de la impedancia de entrada presentó ciertos problemas, debido a que la corriente de entrada en la primera etapa era de un valor muy pequeño, por lo que resultaba difícil deter-minar los valores de los datos que necesitamos para su medición.<br />
<br />
Por lo demás, no hubo problema alguno en determinar los parámetros y los valores restantes.<br />
<br />
Como Nota concluyente queremos hacer mención que para sustituir el valor de capacitar que obtuvimos al no ser comercial, se tuvo que colocar un para de capacitores en paralelo de valores de un microfaradio y de 680 nanofaradios, de tal forma logramos aproximar dicho arreglo al valor calculado, con lo que no hubo una gran discrepancia del valor obtenido con respecto al calculado.Tecnología en Telecomunicaciones - conocimientos.com.vehttp://www.blogger.com/profile/13517798918797491823noreply@blogger.com0