Publicaciones correspondientes al mes de: diciembre 2019

La Cumbre del Clima fracasa en su objetivo de regular los mercados de carbono

El débil resultado de la COP25 agranda la brecha entre los Gobiernos y la ciencia sobre la crisis climática

EL PAÍS | 


 

Quizás no se podía esperar más de lo que ha salido de la Cumbre del Clima de la ONU que se ha cerrado con más de un día y medio de retraso este domingo en Madrid. Los negociadores solo han podido acordar un débil llamamiento a los países a realizar esfuerzos más ambiciosos contra el cambio climático. Y han tenido que aplazar de nuevo el desarrollo del artículo del Acuerdo de París referido a los mercados de CO2 ante la imposibilidad de consensuar un texto. Este asunto tendrá que intentar acordarse en la próxima cumbre, que se celebrará en Glasgow en noviembre de 2020. Prácticamente todos los delegados que han tomado la palabra en el plenario final de la cumbre han reconocido la “decepción” por ser incapaces de cerrar este punto de la negociación

El multilateralismo se resquebraja allá donde se mire en el planeta y estas cumbres en las que negocian casi 200 países (que tienen que ponerse unánimemente de acuerdo) son precisamente el mayor ejemplo de multilateralismo. Pero, aunque fuera previsible por el contexto internacional tan complicado, el pobre resultado que se ha cerrado tras muchas horas de frustrantes negociaciones agranda la desconexión que existe ahora entre los Gobiernos del mundo y la ciencia respecto a la crisis climática y a la urgente necesidad de actuar.

Cuando se leen los textos finales de la COP25 —la reunión número 25 de la Conferencia de las Partes de la Convención Marco de la ONU de Cambio Climático— parece que los Gobiernos y mandatarios han estado metidos en una habitación insonorizada durante esta cumbre. Sin embargo, por la COP25 han pasado los científicos para presentar sus informes climáticos que apuntan, por ejemplo, a que 2019 será un año de récord de temperaturas en línea con lo que ha ocurrido durante toda esta década. Desde la ciencia también se ha apuntado durante esta cumbre a que las emisiones de dióxido de carbono, el principal gas de efecto invernadero, de la economía mundial volverán a marcar un nuevo máximo histórico. Y por la cumbre celebrada en Madrid también han pasado los representantes de los movimientos juveniles, con la activista sueca Greta Thunberg a la cabeza, que han reprochado a los mandatarios que los esfuerzos que tienen previstos para luchar contra el cambio climático no están a la altura de la crisis climática en la que está ya el planeta

Esta complicada cumbre, que se ha celebrado en Madrid tras la renuncia hace mes y medio de Chile a que tuviera lugar en Santiago por las protestas sociales, se tenían que sacar adelante fundamentalmente dos puntos: uno más político y otro más técnico. El político hace referencia a la necesidad de que los países firmantes del Acuerdo de París presenten planes más duros de recorte de las emisiones de gases de efecto invernadero porque los que hay ahora no son suficientes. Pero en esta cumbre solo se ha conseguido que 84 países se comprometan a presentar planes más duros en 2020, como ha pedido la ONU en varias ocasiones. Dentro de ese compromiso están Alemania, Francia, España y el Reino Unido. El problema es los que no están: EE UU, China, la India y Rusia (que juntos suman alrededor del 55% de las emisiones mundiales de efecto invernadero) no han dado señales durante esta cita de querer ser más ambiciosos.

Todos los firmantes del Acuerdo de París deben presentar planes de recorte de emisiones que, juntos, deben conseguir que el calentamiento global se quede dentro de unos límites manejables, Pero la suma de los planes no es suficiente. La ONU ha advertido de que se deben multiplicar por cinco los esfuerzos globales previstos si se quiere que el incremento de la temperatura se quede por debajo de 1,5 grados respecto a los niveles preindustriales. Y por tres si se aspira a que ese incremento esté por debajo de los 2 grados (la otra meta que se establece en el Acuerdo de París). Los planes (que se conocen por las siglas en inglés NDC) que tienen ahora los países llevarán al menos a 3,2 grados de incremento, calcula la ONU.

Una de las discusiones más duras durante esta conferencia ha sido precisamente cómo realizar un llamamiento a los países a presentar planes más duros. Ante el atasco de este asunto, la presidencia de la COP25, que estaba en manos Chile, recurrió a España en el tramo final de las negociaciones. Y la ministra para la Transición Ecológica, Teresa Ribera, se ha encargado de dirigir este asunto.

Finalmente, en las declaraciones de la COP25 aprobadas por el plenario, se "alienta" a los países a "aprovechar la oportunidad en 2020" para mostrar la más alta ambición ante "la urgencia de abordar el cambio climático". Y se resalta la "grave preocupación" por la "urgente necesidad" de solucionar la "brecha" que existe entre los planes previstos por los países y los recortes que se necesitan para cumplir el objetivo de París. Sin embargo, en las declaraciones finales no se hace un llamamiento explícito a los países a presentar NDC más duros en 2020 por la resistencia de los grandes países emisores. En todo caso, el Ministerio para la Transición Ecológica ha interpretado que lo acordado "sienta las bases" para que el próximo año "los países presenten compromisos de reducción de emisiones" más ambiciosos.   

Para saber más

Coche eléctrico: por qué ha resurgido después de fracasar el siglo pasado

El año pasado (2018), las ventas de vehículos eléctricos e híbridos plug–in (enchufables) sumaron 408.000 unidades en Europa y 2,1 millones en todo el mundo. Los números suponen un 50 % más, aproximadamente, que en 2017. Para este 2019, se espera alcanzar otro aumento cercano al 50 %. Se podrían superar los tres millones de vehículos eléctricos vendidos en un año.

Se trata de las cifras de una revolución tecnológica e industrial. Incrementos de ventas y producción de dos dígitos (e incluso de tres en algunos países) se unen a aumentos de eficiencia nada despreciables. Los vehículos eléctricos consumen un tercio de lo que gastan los vehículos de combustión. Y por si esto fuera poco, se cortan de raíz las emisiones de dióxido de carbono, el gas más importante en la fracción del efecto invernadero debida a la actividad humana.

Críticas al coche eléctrico

La transformación a la movilidad eléctrica se está produciendo de forma tan intensa que parece irreversible. A pesar de ello, algunas voces se levantan periódicamente argumentando que los coches eléctricos contaminan más que los de gasolina, puesto que obtienen la energía de centrales de combustión.

Este razonamiento es inicialmente cierto, pero se trata de una fotografía que quedará rápidamente desfasada. Basta comprobar qué está sucediendo con las centrales eólicas y solares. En 2018, la energía eólica proporcionó el 14 % de la demanda total de energía en la Unión Europea. En 2013 era solo el 7 %.

El 95 % de las nuevas instalaciones energéticas de la UE corresponden a energías renovables. De ellas, el 45 % son de energía eólica. Esta última es la forma de generación de electricidad mayoritaria en Europa; ha superado recientemente al gas natural.

Tanto la movilidad como la generación de energía eléctrica se están transformando, rápida y definitivamente, hacia formas más eficientes y sostenibles.

Electricidad, gran olvidada en automoción

Quién hubiese dicho a inicios del siglo XX, cuando una buena parte de los automóviles ya eran eléctricos, que la tecnología se abandonaría durante más de cien años. Y que volvería a resurgir. ¿Cuál fue la causa? ¿Por qué los automóviles fueron primero eléctricos, después de combustión interna y ahora vuelven los eléctricos?


automóvil eléctrico de Thomas Parker, allá por 1895

La respuesta está en las baterías. Estos dispositivos, que transforman energía química en electricidad, eran inicialmente de plomo (óxido de plomo). Se trata de una robusta tecnología, puesto que aún se fabrica masivamente hoy en día. Pero es demasiado pesada.

Para obtener un mínimo de potencia en el vehículo, deben ensamblarse en serie un buen número de baterías. Por ello el peso es un parámetro clave. Las baterías de plomo no tuvieron nada que hacer frente a la ligereza del combustible derivado del petróleo, de ahí su proliferación durante todo el siglo XX.

Las crisis petrolíferas y los problemas de contaminación incentivaron la investigación en tecnologías alternativas. Las baterías eléctricas entraron de nuevo en el escenario. Y más, teniendo en cuenta las nuevas propuestas.

Las baterías de níquel-cadmio, así como las baterías basadas en metales alcalinos, por ejemplo, fueron usadas en tímidas propuestas durante los años setenta y los ochenta del siglo XX. Pero no solucionaron el problema. Ni con montajes que ocupaban todo el espacio disponible en el vehículo (¡incluyendo el habitáculo de los pasajeros!) fue posible obtener potencias y autonomías mínimamente suficientes.

La situación cambió radicalmente a mediados de los noventa, con la aparición de las baterías de ion-litio, suficientemente ligeras y potentes como para facilitar la actual transición al vehículo eléctrico. Su evolución no ha sido fácil, puesto que requería desarrollar los denominados compuestos de intercalación. Estas sustancias sirven de soporte para que el litio, el metal más ligero que existe, se intercambie entre ambos electrodos mientras genera corriente eléctrica.

Las modernas baterías de ion–litio no son un tema cerrado. Se están investigando otras opciones como las baterías de litio–aire (muchísimo más ligeras), las de litio–azufre, las de ion– sodio, las baterías de combustible (principalmente hidrógeno) y las baterías de flujo.

Más allá de los coches

Su futura aplicación no será solo el automóvil. Puesto que la electricidad no puede almacenarse, es necesario disponer de almacenes de energía o dispositivos que se recargan mediante la red eléctrica, pero que guardan la energía para posterior uso también mediante electricidad. Las viviendas, instalaciones industriales, plantas potabilizadoras de agua e incluso instalaciones agrícolas y ganaderas podrán hacer buen uso de estas baterías, altamente eficientes y no contaminantes.

Se avecina, pues, una verdadera transformación industrial. La fabricación de baterías será un sector mucho más estratégico de lo que ya es hoy en día, con espacio para la fabricación tanto a nivel masivo, como a nivel de nicho. Harán falta tecnologías muy variadas, que servirán a aplicaciones muy específicas.

En este sentido, Europa en general, y España en particular, van con retraso. La Unión Europea tiene prevista una promoción intensa del sector, que debería permitir una presencia en el mercado mucho más elevada que la actual. Alemania, Francia, Polonia y los países escandinavos han activado intensos programas de incremento de producción.

Las previsiones para España son más pesimistas, puesto que anticipan una participación marginal en la cuota de mercado, incluso dentro de diez años. Algo que nos debe alertar e incentivar.

Para saber más:

Pantallas y rayos catódicos (y frikis) (2)

En nuestra incursión con las pantallas, hablamos sobre que los monitores modernos no presentan el color de la misma manera que los antiguos CRT, sea para bien o para mal y por varias razones. Pero también dijimos que esta es, posiblemente, de las diferencias más chorras, salvo para puristas y pejigueros. El elefante más grande de la habitación, en más de un sentido, posiblemente sea la resolución. Vuelvo a repetir lo de la vez pasada. Voy a sobresimplificar. Bastante. Relájense los expertos.

SEAMOS RESOLUTIVOS

Si decimos que las pantallas de las primeras recreativas tenían muy poca resolución, no estamos realmente expresando el problema: hablamos de pantallas en la que cabrían doce móviles modernos, pero que tenían resoluciones veintisiete veces inferiores a las de uno sólo de esos móviles.

Una pantalla CRT de la época tenía una frecuencia de trabajo de 15 kHz, es decir: el haz podía tirar unas quince mil líneas por segundo en la pantalla. Por aquello de que no parezca todo un video de una discoteca y por no provocar epilepsia a nuestros usuarios, queremos pintar la pantalla unas sesenta veces por segundo (los famosos 60 Hz de los CRT), lo que nos deja unas doscientas cuarenta líneas para cada pasada si descontamos tiempos de retorno y mandangas varias provocadas porque la electrónica no es magia, aunque Apple te la cobre como tal.

Si nos fijamos en la forma de aquellos monitores, vemos que tienen proporciones 4:3, que son las proporciones que tiene que tener una pantalla para hacer cosas serias y no para ver series. Contando con esto y nuestra resolución vertical de doscientas cuarenta líneas, y queriendo que los píxeles sean cuadrados, lo que surprise, surprise facilita dibujar las cosas, la resolución horizontal tendrá que ser de ¡trescientos veinte¡.

Ahora intentad pintar una imagen de 320×240 píxeles en un monitor moderno. No; me refiero ocupando toda la pantalla. En un monitor de 24 pulgadas moderno, un píxel tendrá un ancho de 1,7 mm y un alto de… 1,2 mm. Así por la bobada, nuestros píxeles tienen un tamaño que, si fuesen insectos, darían grima. Incluso peor, vienen a medir 6×4,5 píxeles de los modernos —cada píxel de los antiguos estaría formado por un bloque de veintisiete píxeles en una pantalla Full HD, o de 108 si es 4K— y ya no son cuadrados.

Pero, preguntaréis —o deberíais estar preguntando—, ¿por qué aquellos píxeles como puños no se veían tan mal? ¿por qué no tenían esas esquinas que dan ganas de ponerles protectores de goma?

LA REJILLA DE TODOS NUESTROS MALES

Por aquello de que una imagen vale más que cuatro twits, una sencilla comparación: cómo son los píxeles de una pantalla LCD y cómo son los píxeles de una pantalla CRT tradicional (imagen del CRT de gsgx).

Lo vamos viendo, ¿no? La idea es la misma, cada píxel está formado por tres elementos luminosos de tres colores —RGB; rojo, verde y azul—, pero hay una diferencia importante en la forma de iluminarlos: los elementos de los paneles planos están autoiluminados; todo el elemento se ilumina uniformemente, y un píxel se corresponde con tres de estos elementos de colores.

En el caso de las pantallas CRT, tenemos un haz que ilumina, desde atrás, estos elementos, pasando por una una máscara de sombra o una rejilla. Es el mismo efecto que enchufar una linterna a través de unas persianas a medio abrir y verla proyectada en las cortinas. Y lo de apuntar con un cañón de electrones a un montón de agujeros tiene su enjundia. Sobre todo si tenemos que hacerlo cuatro millones y medio de veces por segundo. 4.500.000/s. A la canal. Vamos, que no: de hecho —más sobre ésto luego—, si os fijáis, el haz no ilumina uniformemente todos los componentes.

Puede ocurrir que a algunos sólo los pille de refilón. Puede ocurrir, para algunas resoluciones, que el haz sea demasiado estrecho y queden espacios en negro entre líneas (las famosas scan lines). O puede ocurrir, en monitores de alta resolución configurados a baja resolución, que el haz ilumine simultáneamente varios grupos de fósforos, e incluso que dos píxeles adyacentes compartan (por favor, esos puristas, que dejen de rechinar los dientes) una fila de fósforos, cosa que es imposible en los paneles planos —y la razón de que los monitores CRT pudiesen mostrar gran variedad de resoluciones sin efectos raros que sí se producen en los planos—.

Pero no se vayan todavía, aún hay más: recordemos que hablamos de tres cañones a la vez, por lo de los colorines, sincronizados, tirando a los mismos objetivos. Como los surgical strike de los ejércitos pacifistas modernos, pero de verdad. Vamos, que tampoco.

Bueno, no seamos injustos. En general, casi. Sobre todo con pantallas buenas y bien calibradas por el fabricante. Porque si no, lo que podía ocurrir es que de los tres cañones, cada uno apuntase a un píxel diferente, lo que los técnicos llamaban «problema de convergencia» y los usuarios «se ve raruno».

Ahora, si a todo este conjunto de cosas raras que podían ocurrir le unimos el hecho de que al emular las resoluciones antiguas en los monitores modernos, cada píxel de los antiguos está formado por un bloque de píxeles modernos —lo que exagera la forma poligonal del píxel—, la diferencia es aún más marcada:

El efecto de la baja resolución de estas pantallas CRT, unida a la particular forma en la que se dibujan las imágenes en ellas —la rejilla, la baja precisión del haz—, provoca un efecto de “filtro de baja frecuencia”, más conocido por todos vosotros, pirateadores de Photoshop, como un blur o desenfoque. Un blur muy particular, que los desarrolladores conocían y que tenían en cuenta a la hora de diseñar sus gráficos, entre otras cosas porque los monitores en los que los diseñaban tenían estos efectos: cada píxel en una pantalla CRT de baja resolución era un borrón de color, mientras que en los modernos paneles planos son traducidos a la forma de un rectángulo muy definido.

NO, LO QUE SANGRA NO SON TUS OJOS

El tema de la precisión del haz da para mucho juego —no pun intended—, pero uno de los principales efectos es lo que llaman el “sangrado de color”, un efecto con un nombre mucho más gore que su impacto: básicamente, consiste en que el color de un píxel “sangra” en el de al lado, porque el haz se pase de frenada y pinte parte de un píxel en el anterior o el siguiente, aumentando el efecto de suavizado.

Pero a veces también ocurre lo contrario: cuando el haz barre la pantalla, no sólo se pasa de frenada en la posición sino también en el brillo, “rebotando” a su brillo deseado con rapidez. Esto provoca un efecto de bandas verticales que amplifican el contraste en los bordes en los que hay gran cambio de brillo, produciendo un efecto visual contrario al blur, conocido como “máscara de enfoque”. Si combinamos los efectos de suavizado ya mencionados con esta “máscara de enfoque”, el resultado es una imagen que parece tener mucha mayor definición que la que tiene. Y como no tenéis por qué creerme —yo no creo que vayáis a hacerlo—, he simulado el efecto —con un blur y un unsharp mask— en esta imagen:

ES UN MUNDO ANALÓGICO

Si pensáis que con esto hemos cubierto todas las movidas que afectan a las viejas pantallas CRT, estáis muy equivocados. La tecnología analógica que es, al final, responsable de pintar en pantalla los datos que vienen por el cable RGB, tiene lo que un recruiter definiría como “mucha personalidad” y un responsable de recursos humanos como “ser muy especialito”. Hay mil cosas que se pueden desajustar: partes móviles, cosas que se desgastan o degradan con el tiempo y el uso, y muchas que se ajustaban de manera artesanal, tras terminar el proceso de fabricación, para afinar la imagen: anillos de convergencia de color, de ajuste vertical de la trama, de pureza —más bien, homogeneidad del color…—. Por no hablar de que, para finalizar el ajuste, se usaban una especie de tiritas magnéticas para acabar de corregir, en forma de parche, las deficiencias de fabricación que no pueden solucionarse con los anillos de ajuste. Emúlame eso con un shader, anda, si hay huevos.

Cualquier desajuste en cada uno de estos parámetros tenía efectos más o menos sutiles en la imagen, que en el caso de los menos sutiles tenían nombres bastante ilustrativos —barril, cojín, inclinación— pero que cuando eran más sutiles, provocaban leves desalineaciones de las imágenes con la cuadrícula, como las simuladas en esta imagen del filtro CRT de Super Win The Game:

En resumen, la tecnología de pantallas CRT tenía, perdonad que me ponga cursi, la mística de lo artesanal. Era una pila tan improbable de condiciones las que tenían que cumplirse para que todo saliese bien, que no ocurría. Y esa falta de precisión, esa falibilidad, era lo que dotaba a aquellas imágenes de una apariencia más orgánica, si es que puede definirse de ese modo. Al fin y al cabo, desde siempre, los creadores se adaptan al medio en el que trabajan. Los genios nunca han sido los que meramente dominaban la técnica, sino los que la subvertían para obtener un resultado final que superase las limitaciones de ese medio.

Vamos, lo que llevan los videojuegos haciendo ya más de medio siglo.

Viene de:

Pantallas y rayos catódicos (y frikis) (1)

Sí, lo sé. Ya has jugado ese arcade. Da igual el que sea, lo podrías haber jugado: es tan fácil como descargar el emulador, la ROM y ejecutar, ¿no? Seré breve: no. Sin ánimo de ponerme purista —meramente pejiguero—, lo cierto es que los arcades eran una experiencia multisensorial. No, tampoco me quiero poner New Age, o como lo llamen ahora, pero comparar la experiencia de lidiar con mandos a prueba de borrachos instalados en un mueble de noventa kilos con una pantalla del tamaño de un microondas que tiene un señor cañón de rayos catódicos, a usar un pad de Super Nintendo en una RasPi enchufada a una pantalla LED, es como comer hamburguesas veganas y decir que no notas la diferencia con la picada de Angus. Ni de coña, colega.

Y sí, todo esto da para otra entrada: el arcade como producto integral, formado —más allá de por su jugabilidad— por su experiencia completa: el armario, los mandos, el diseño… Pero hoy vengo a hablar de pantallas. Más en concreto, por qué no ves el mismo juego hoy en día que veías en su momento —si tuviste la suerte de hacerlo—  dentro del mueble original, con su pantalla. No traigo aquí ningún tema esotérico: los propios emuladores llevan un montón de filtros para simular, con mayor o menor acierto, el efecto de ver los juegos en un CRT, reconociendo implícitamente que no es lo mismo. Algo que queda bastante claro con esta imagen que se popularizó hace ya tiempo y que se ha convertido en el icono de la emulación de los CRT.

Espero que ahora entendáis por qué somos unos cuantos los que odiamos profundamente consideramos que los emuladores se ven mal. Y por qué vengo aquí a explicarlo.

NOTA IMPORTANTE: Para —intentar— hacerlo todo más sencillo y ameno, voy a sobresimplificar la explicación, así que aquellos de vosotros que ya conozcáis la física involucrada, controlad ese fruncimiento de ojos, que os salen patas de gallo.

Lo primero es entender que los monitores modernos —LCD, TFT, LED…— no tienen nada que ver, en su forma de pintar la imagen en la pantalla, con los antiguos monitores CRT, literalmente Tubos de Rayos Catódicos. En los modernos, simplificando mucho, la pantalla es una matriz de bombillas de tres colores que encendemos con diferente intensidad para mostrar un píxel de color. Es decir, cada píxel, en cada momento, está encendido a una intensidad concreta o apagado. La mezcla de colores y sus intensidades nos da el color que buscamos.

Los antiguos CRT, bueno, pintaban la imagen con un rayo de electrones pasando a toda velocidad por una pantalla de fósforo. Esos eran los buenos tiempos, cuando no existía Ikea y los muebles te los hacías en tu casa con un hacha y la grapadora.

La cosa es una versión, frenética y con esteroides, de la chorrada posmillennial de pintar con linternas en las fotos nocturnas.

Como nos podemos imaginar, esta forma de hacer las cosas, que es como comparar un reloj de cuco con una imitación norcoreana de una versión china de un Casio de los ochenta, genera un montón de curiosos efectos —indeseados— que los creadores compensaban o incluso explotaban en su beneficio.

UNA DE COLOR

Para empezar, os presento a mi amiga la gama de color, gamut para los amigos. Supongamos un diagrama que represente todos los colores posibles, como el que se encuentra al lado.

Sin entrar en muchos detalles de qué significa cada cosa, vamos a decir —tendréis que creerme— que están todos dentro de esa extraña figura con forma de escama irisada. Vale, no, no se pueden pintar todos los colores en una pantalla —en ninguna—, ni se pueden imprimir, ni nada; no hay tecnología capaz de representarlos todos. Y para saber qué colores puede representar la tecnología, están estos bonitos diagramas que sirven para que los diseñadores gráficos se la midan comparando sus monitores.

En el caso de las pantallas, esta gama viene dada por un triángulo cuyos vértices se encuentran en los colores primarios que son capaces de representar cada una de sus “bombillas”:

Los colores se generan de manera muy distinta en la tecnología CRT si los ponemos frente a los paneles planos; y no comparemos pintar colores excitando una pantalla recubierta de fósforo a golpe de rayo de electrones que encendiendo y apagando LED, que lo hacíamos nosotros en casa de pequeños con el Scatron —también teníamos Cheminova y Quimicefa—. Envidia, malditos millennials. Los colores así obtenidos no son exactamente iguales aunque sean muy parecidos, y tiene que ver con los niveles de energía que ambas tecnologías utilizan y que obligan a los electrones a saltar: al ser distintos, generan luz de frecuencias ligeramente diferentes.

BONUS TRACK: EMULANDO EL COLOR DE LAS PRIMERAS CONSOLAS

La emulación de consolas se enfrenta a otro problema: éstas no se conectaban directamente a la pantalla sino a una toma de antena, en la que había que enchufar la señal en los formatos que usaban las teles: NTSC, PAL o SECAM en función de la región. Estos formatos de señal no llevaban la información de color en espacio RGB, sino en otros formatos cuyas siglas nos dan bastante igual pero, creedme, eran diferentes. Lo importante: en vez de Rojo, Verde y Azul, descomponían cada punto de la imagen en un componente de brillo y dos de información de color, que era muy cómodo para las teles en blanco y negro, porque sólo usaban la de brillo y pasaban del color, haciendo que una generación de chavales de los ochenta que aún no nos habíamos actualizado hiciésemos el gilipollas tratando de ver las pelis en 3D que emitía Tve2 con las gafas de colorines que te regalaba la Teleindiscreta. Pero eso es otra historia.

Los otros dos componentes, decía, almacenaban la información de color. Y lo hacían de una manera que la wikipedia explica muy bien pero que nosotros definiremos como rara. Tan rara que a la hora de transformar los colores RGB que generaba la electrónica de la consola a ese formato y de ese formato de vuelta, los colores habían cambiado cual estudiante a la vuelta de su Erasmus. Cosa, por cierto, que los diseñadores de juegos tenían en cuenta y los emuladores no.

Esto en lo referente al color, que es, seamos sinceros, la menor y posiblemente la más chorra de las diferencias. Nos quedan, por lo menos, dos elefantes en la habitación que no por evidentes dejan de requerir una explicación: la resolución —fun fact, si os fijáis, en los monitores de tubo se veían bien todas las resoluciones, y en los planos sólo algunas— y cómo se componía la imagen en la pantalla —rejillas, shadow masks que no tienen nada que ver con objetos de +10 a la ocultación, y otras hierbas—. Y pequeños detalles multisensoriales como que en aquellos tiempos salvajes podíamos poner la mano en la pantalla y meterle una descarga electrostática de varios miles de voltios a cualquier adulto que intentase alejarnos de ella tirando de la otra. Pero como por hoy ya llevamos suficiente nostalgia, vamos a dejarlo para la próxima, y así tenéis excusa para pasaros otro día por aquí.

Sigue en:

Felicitación navideña 2019

Con nuestros mejores deseos para todos los que estudiáis y trabajáis en el Departamento de Electrónica del Centro Integrado de Formación Profesional Número Uno de Santander:

Pero ¿por qué los villancicos suenan a… Navidad?