miércoles, 9 de septiembre de 2009

TIPOS DE MONITORES!!!



CRT

El Tubo de Rayos Catódicos (CRT del inglés Cathode Ray Tube) es un dispositivo de visualización inventado por Carl Ferdinand Braun y a su desarrollo contribuyeron los trabajos de Philo Farnsworth. Se emplea principalmente en monitores, televisiones y osciloscopios, aunque en la actualidad se están substituyendo paulatinamente por tecnologías como plasma, LCD, DLP; debido al menor consumo energético de estos últimos.

EGA es el acrónimo inglés de Enhanced Graphics Adapter, la especificación estándar de IBM PC para visualización de gráficos, situada entre CGA y VGA en términos de rendimiento gráfico (es decir, amplitud de colores y resolución). Introducida en 1984 por IBM para sus nuevos IBM Personal Computer/AT, EGA tenía una profundidad de color de 16 colores y una resolución de hasta 640×350 píxels. La tarjeta EGA tenía 16 kilobytes de ROM para ampliar la de la BIOS con funciones adicionales e incluía el generador de direcciones de vídeo Motorola 6845.
A cada uno de los 16 colores se les podía asignar un color RGB: Red, Green, Blue; "rojo, verde, azul") de un color hace referencia a la composición del color en términos de la intensidad de los colores primarios con que se forma: el rojo, el verde y el azul. Es un modelo de color basado en la síntesis aditiva, con el que es posible representar un color mediante la mezcla por adición de los tres colores luz primarios. de una paleta en el modo de alta resolución 640×350; EGA permitía escoger los colores de una paleta de 64 diferentes (dos bits por píxel para rojo, verde y azul). EGA también incluía la función completa de 16 colores de CGA en los modos gráficos de 640×200 y 320×200; sólo los colores 16 CGA/RGBI estaban disponibles en este modo. Los modos CGA originales estaban presentes, pero EGA no era 100% compatible con CGA. EGA también podía controlar un monitor MDA ajustando los jumpers de la placa; sólo a 640×350.
La tarjeta IBM EGA básica incluía 64 kilobytes de memoria de vídeo, suficiente para controlar un monitor monocromo de alta resolución (y permitiendo todos los colores a 640×200 y 320×200), si bien la mayoría de las tarjetas EGA y sus clones incluían 256 KB de memoria. Algunos clones de EGA de terceros fabricantes (principalmente las tarjetas de ATI Technologies y Paradise) incluían un rango de gráficos ampliado (por ejemplo, 640×400, 640×480 y 720×540), así como detección automática del monitor, y algunas un modo especial de 400 líneas para usar con monitores CGA.
El estándar EGA quedó obsoleto con la introducción del VGA por IBM en abril de 1987 con los IBM Personal System/2
MDA

La arquitectura dirigida por modelos (Model-Driven Architecture o MDA) es un acercamiento al diseño de software, propuesto y patrocinado por el Object Management Group. MDA se ha concebido para dar soporte a la ingeniería dirigida a modelos de los sistemas software. MDA es una arquitectura que proporciona un conjunto de guías para estructurar especificaciones expresadas como modelos.

MCGA

Multi-Color Graphics Array (MCGA) fue el nombre que IBM asignó a lo que más tarde sería parte del estándar genérico VGA. El ordenador IBM PS/2 Model 25, introducido en 1987, incorporaba MCGA integrado en la placa base.
MCGA se parecía a VGA en que tenía un modo de 256 colores. VGA incluía además una serie de modos de pantalla de alta resolución, si bien el modo de 256 colores se convirtió en el más popular para videojuegos. Este modo de pantalla en VGA era frecuentemente citado como MCGA, si bien MCGA sólo existió en el PS/2; nunca se fabricaron tarjetas MCGA independientes.
Los modos de pantalla ofrecidos por MCGA eran los mismos de CGA además de 640x480 monocromo y 60 Hz de refresco y 320x200 256 colores y 70 Hz de refresco. El adaptador de pantalla utilizaba un conector D-shell de 15 pines. No ofrecía soporte para los modos de texto monocromo compatibles con el monitor 5151.
Se podría considerar a MCGA como un paso intermedio entre CGA y VGA (MCGA no era compatible con EGA, mientras que VGA sí era completamente compatible hacia atrás). Esto resultó en la frustrante situación de que muchos juegos EGA (300x200 16 colores) se ejecutaran en el modo CGA 4 colores (o incluso no se ejecutaran), incluso cuando MCGA era capaz de ofrecer una resolución de 320x200 256 colores. Afortunadamente, algunos juegos EGA 16 colores (por ejemplo, las aventuras gráficas de Sierra y Lucasfilms Games) podían ejecutarse específicamente en MCGA en el modo de 256 colores, aunque sólo aplicando los 16 colores originales. Los juegos programados para VGA 256 colores podían ejecutarse satisfactoriamente en sistemas con MCGA siempre que se ajustaran a la resolución de 320x200 256 color y no intentaran usar características específicas de VGA, como la multipaginación.
El período de vida de MCGA fue muy breve y abarcó apenas dos modelos de computadores (PS/2 Model 25 y Model 30), dejándose de fabricar en 1992 sin que ningún fabricante ofreciera tarjetas clónicas de este adaptador, dada la superioridad del estándar VGA introducido al mismo tiempo
VGA

El término Video Graphics Array (VGA) se refiere tanto a una pantalla analógica estándar de ordenadores, (conector VGA de 15 clavijas D subminiatura que se comercializó por primera vez en 1988 por IBM); como a la resolución 640 × 480. Si bien esta resolución ha sido reemplazada en el mercado de las computadoras, se está convirtiendo otra vez popular por los dispositivos móviles. VGA fue el último estándar de gráficos introducido por IBM al que la mayoría de los fabricantes de clones de PC se ajustaba, haciéndolo hoy (a partir de 2007) el mínimo que todo el hardware gráfico soporta antes de cargar un dispositivo específico. Por ejemplo, la pantalla de Microsoft Windows aparece mientras la máquina sigue funcionando en modo VGA, razón por la que esta pantalla aparecerá siempre con reducción de la resolución y profundidad de color. VGA fue oficialmente reemplazado por XGA estándar de IBM pero en realidad ha sido reemplazada por numerosas extensiones clon ligeramente distintas a VGA realizados por los fabricantes que llegaron a ser conocidas en conjunto como "Super VGA".



SVGA

Super Video Graphics Array o SVGA es un término que cubre una amplia gama de estándares de visualización gráfica de ordenadores, incluyendo tarjetas de video y monitores.
Puerto D-sub de 15 pines
Cuando IBM lanzara al mercado el estándar VGA en 1987 muchos fabricantes manufacturan tarjetas VGA clones. Luego, IBM se mueve y crea el estándar XGA, el cual no es seguido por las demás compañías, éstas comienzan a crear tarjetas gráficas SVGA.
Las nuevas tarjetas SVGA de diferentes fabricantes no eran exactamente igual a nivel de hardware, lo que las hacía incompatibles. Los programas tenían dos alternativas: Manejar la tarjeta de vídeo a través de llamadas estándar, lo cual era muy lento pero había compatibilidad con las diferentes tarjetas, o manejar la tarjeta directamente, lo cual era muy rápido y se podía acceder a toda la funcionalidad de ésta (modos gráficos, etc), sin embargo, el programador tenía que hacer una rutina de acceso especial para cada tipo de tarjeta.
Poco después surgió Video Electronics Standards Association (VESA), un consorcio abierto para promover la interoperabilidad y definición de estándares entre los diferentes fabricantes. Entre otras cosas, VESA unificó el manejo de la interface del programa hacia la tarjeta, también desarrolló un bus con el mismo nombre para mejorar el rendimiento entre el ordenador y la tarjeta. Unos años después, este bus sería sustituido por el PCI de Intel.
SVGA fue definido en 1989 y en su primera versión se estableció para una resolución de 800 × 600 pixels y 4 bits de color por pixel, es decir, hasta 16 colores por pixel. Después fue ampliado rápidamente a los 1024 × 768 pixels y 8 bits de color por pixel, y a otras mayores en los años siguientes.
Aunque el número de colores fue definido en la especificación original, esto pronto fue irrelevante, (en contraste con los viejos estándares CGA y EGA), ya que el interfaz entre la tarjeta de vídeo y el monitor VGA o SVGA utiliza voltajes simples para indicar la profundidad de color deseada. En consecuencia, en cuanto al monitor se refiere, no hay límite teórico al número de colores distintos que pueden visualizarse, lo que se aplica a cualquier monitor VGA o SVGA.
Mientras que la salida de VGA o SVGA es analógica, los cálculos internos que la tarjeta de vídeo realiza para proporcionar estos voltajes de salida son enteramente digitales. Para aumentar el número de colores que un sistema de visualización SVGA puede producir, no se precisa ningún cambio en el monitor, pero la tarjeta vídeo necesita manejar números mucho más grandes y puede ser necesario rediseñarla desde el principio. Debido a esto, los principales fabricantes de chips gráficos empezaron a producir componentes para tarjetas vídeo del alta densidad de color apenas unos meses después de la aparición de SVGA.
Sobre el papel, el SVGA original debía ser sustituido por el estándar XGA o SXGA, pero la industria pronto abandonó el plan de dar un nombre único a cada estándar superior y así, casi todos los sistemas de visualización hechos desde finales de los 80 hasta la actualidad se denominan SVGA.
Los fabricantes de monitores anuncian a veces sus productos como XGA o SXGA, pero esto no tiene ningún significado, ya que la mayoría de los monitores SVGA fabricados desde los años 90 llegan y superan ampliamente el rendimiento de XGA o SXGA.



LCD

Pantalla de cristal líquido Twisted Nematic (TN).
1. Film de filtro vertical para polarizar la luz que entra.
2. Substrato de vidrio con electrodos de Óxido de Indio ITO. Las formas de los electrodos determinan las formas negras que aparecen cuando la pantalla se enciende y apaga. Los cantos verticales de la superficie son suaves.
3. Cristales liquidos "Twisted Nematic" (TN).
4. Substrato de vidrio con film electrodo común (ITO) con los cantos horizontales para alinearse con el filtro horizontal.
5. Film de filtro horizontal para bloquear/permitir el paso de luz.
6. Superficie reflectante para enviar devolver la luz al espectador. En un LCD retroiluminado, esta capa es reemplazada por una fuente luminosa.


LCD de color
Una pantalla de cristal líquido o LCD (acrónimo del inglés Liquid Crystal Display) es una pantalla delgada y plana formada por un número de píxeles en color o monocromos colocados delante de una fuente de luz o reflectora. A menudo se utiliza en dispositivos electrónicos de pilas, ya que utiliza cantidades muy pequeñas de energía eléctrica.
Puertos de entrada [editar]
Por ejemplo DVI, VGA, LVDS o incluso S-Video y HDMI.
Tipos de LCD

La tecnología LCD puede dividirse en diversos tipos. A continuación citaremos tres:

TN (Twisted Nematic): es un tipo encontrado en los monitores LCD más baratos. En ese tipo, las moléculas de cristal líquido trabajan en ángulos de 90º. Los monitores que usan TN pueden tener una exhibición de imagen desmejorada en animaciones muy rápidas;

STN (Super Twisted Nematic): es una evolución del standard TN, capaz de trabajar con imágenes que cambian de estado rápidamente. Además de eso, sus moléculas tienen movimientos mejorados, haciendo que el usuario consiga ver la imagen del monitor satisfactoriamente en ángulos muchas veces superiores a 160º;

GH (Guest Host): el GH es una especie de pigmento contenido en el cristal líquido que absorbe la luz. Ese proceso ocurre de acuerdo al nivel del campo eléctrico aplicado. Con esto, es posible trabajar con varios colores.


PLASMA

Una pantalla de plasma (Plasma Display Panel – PDP) es un tipo de pantalla plana habitualmente usada para grandes TV (alrededor de 37 pulgadas o 940 mm.). Consta de muchas celdas diminutas situadas entre dos paneles de cristal que contienen una mezcla de gases nobles (neón y xenón). El gas en las celdas se convierte eléctricamente en plasma el cual provoca que una substancia fosforescente (que no es fósforo) emita luz.
Las pantallas de plasma contienen una mayor resolución que las teles tradicionales y son aptos para mostrar señales HDTV y DTV, también capaces de exhibir señales de las computadores XGA, SVGA y VGA.
HDVT
La televisión de alta definición (TVAD), (también conocida como HDTV, del inglés High Definition Television) es uno de los formatos que, sumados a la televisión digital (DTV), se caracteriza por emitir las señales televisivas en una calidad digital superior a los demás sistemas (NTSC, SECAM, PAL).
Históricamente, el término también fue aplicado a los estándares de televisión desarrollados en la década de 1930 para reemplazar modelos de prueba. También se aplicaba a modelos anteriores de alta definición, particularmente en Europa, llamados D2 Mac, y HD Mac, pero que no pudieron implantarse ampliamente.
Los términos HD ready (listo para HD) y compatible HD están siendo usados con propósitos publicitarios. Estos términos indican que el dispositivo electrónico que lo posee, puede ser un televisor o algún proyector de imágenes, es capaz de reproducir señales en Alta Definición, aunque el hecho de que sea compatible con contenidos en alta definición no implica que el dispositivo sea de alta definición o tenga la resolución necesaria, tal y cómo pasa con algunos televisores de plasma con menos definición vertical que televisores de hace décadas (833x480 en vez de los 720x576 píxeles -anamórficos equivalen a 940x576-), los cuales son compatibles con señales en alta definición porque reducen la resolución de la imagen para adaptarse a la resolución real de la pantalla
DVT
La DTV le permite a las televisoras ofrecer una programación con una mejor calidad de imagen y sonido. También puede ofrecer múltiples opciones de programación, lo que se llama multitransmisión y capacidades interactivas.
Acrónimo de Digital Televisión (Televisión Digital). Se refiere a la tecnología que se utiliza para transmitir su señal. La televisión tradicional envía sus ondas de manera analógica, la televisión digital codifica su señales de forma binaria, permitiendo la posibilidad de crear vías de retorno entre consumidor y productor de contenidos, abriendo así la posibilidad de crear aplicaciones interactivas.

No hay comentarios:

Publicar un comentario