3

[1]La primera vez que se utilizaron imágenes en 3D fue en la secuela de “Westworld” titulada Futureworld (1976), dirigida por Richard T. Heffron. En ella se mostró una mano y rostro generados por computadora, creados por los entonces recién egresados de la Universidad de Utah Edwin Catmull y Fred Parke, las cuales habían utilizado en su corto experimental de 1971 llamado “A Computer Animated Hand”41 La tercer película en usar tal tecnología fue Star Wars (1977), escrita y dirigida por George Lucas, en las tomas de la Estrella de la Muerte, la mira de las computadoras de las naves X-wing y el famoso Halcón Milenario.

El corto animado ganador al Oscar en 1975 Great, sobre la vida del ingeniero de la época victoriana de nombre Isambard Kingdom Brunel, incluye una breve secuencia del modelo de uno de los proyectos de Brunel, el barco de vapor SS Great Eastern.

La película de Walt Disney titulada El abismo negro estrenada en 1979, de Gary Nelson utilizó un renderizado para representar un hoyo negro, con equipo creado por los ingenieros de Disney. En el mismo año, el filme de ciencia ficción Alien, de Ridley Scott, también se valió de modelos 3D, en este caso para las escenas que mostraban los monitores de navegación de la nave espacial, dicho material fue producido por Colin Emmett de Atlas Computer Laboratory.42

Aunque el Laboratorio Nacional Lawrence Livermore en California es reconocido por sus investigaciones de alto nivel en pro de la ciencia, también contribuyó a producir grandes avances en el campo de la animación por computadora durante este periodo, destacando a Nelson Max, quien se unió al laboratorio de Livemore en 1971, y cuyo filme en 1977 Turning a sphere inside out es considerado como una película clásica en el medio.43 Max también produjo una serie de modelos moleculares animados con aspecto realista que le sirvieron para demostrar el papel que podría jugar el CGI dentro de la ciencia. El interés de sus investigaciones se enfocó en el realismo tanto de imágenes de la naturaleza, gráficos moleculares, animación por computadora y visuales 3D con propósitos científicos. Posteriormente se desempeñó como director de gráficos computacionales para la empresa japonesa Fujitsu durante la Expo 85 y 90 de ese país.44 45

En 1974, Alex Schure, un prominente empresario de New York, fundó el Laboratorio de Gráficas Computacionales (CGL) en el Instituto de Tecnología de New York (NYIT). Schure logró armar el más sofisticado estudio de aquella época, con computadoras, equipo para la filmación y gráficos, contrató expertos en tecnología y varios artistas para trabajar en él, entre ellos Ed Catmull, Malcolm Blanchard, Fred Parke entre otros egresados de Utah, así como de otras partes del país, destacando a Ralph Guggenheim, Alvy Ray Smith y Ed Emshwiller. A finales de la década de los setenta, su equipo logró grandes contribuciones a las técnicas de renderizado, y desarrollaron software como los programas de animación Tween y SoftCel, así como su programa de dibujo Paint. Varios videos de NYIT se volvieron famosos, entre ellos Sunstone, de Ed Emshwiller, Inside a Quark, de Ned Greene, y The Works escrito por Lance Williams, que pretendìa ser el primer largometraje animado en utilizar imágenes generadas por computadora (CGI por sus siglas en inglés), sin embargo no pudo completarse, aunque un avance de la película si fue mostrado en la convención SIGGRAPH de 1982. Durante estos años, mucha gente dentro del NYIT CG Labs eran considerados como los mejores en el desarrollo e investigación de los gráficos por computadora en todo el mundo.46 47

La calidad de los trabajos realizados en el NYIT atrajo la atención de George Lucas, quien se interesaba en el desarrollo de efectos CGI en su compañía Lucasfilm. En 1979, Lucas reclutó a grandes talentos del NYIT, entre ellos a Catmull, Smith y Guggenheim, mismos quienes años después emprenderían la empresa Pixar, fundada en 1986 con el apoyo de Apple Inc. y Steve Jobs.

El framebuffer o framestore es una pantalla de gráficos configurada a una memoria buffer en donde se almacena la información completa de las imágenes en pantalla. Usualmente se trata de un arreglo rectangular de pixeles, siendo el número de píxeles tanto a lo largo y ancho de la pantalla lo que se denomina como resolución. Los valores de cada color se guardan dentro de los píxeles, abarcando desde 1-bit (monocromáticos), hasta 24-bit (color real, siendo 8-bits por cada color en el modelo RGB (Red-rojo, Green-verde y Blue-azul), e incluso de 32-bit, con 8-bits adicionales que son utilizados como una máscara de transparencia llamada (canal alfa). Antes del framebuffer, todas las pantallas de gráficos estaban basadas en vectores, trazando líneas de una coordenada a otra. El primer ejemplo conocido de framebuffer fue construido en 1969 en los Laboratorios Bell, donde Joan Miller implementó un sencillo programa de dibujo, que permitía a los usuarios “pintar” directamente sobre el framebuffer. Tal dispositivo contaba únicamente con 3-bits (pudiendo manejar sólo ocho colores).48 49

En 1972-73, Richard Shoup desarrolló el sistema SuperPaint en Xerox, el cual utilizaba un framebuffer que permitía mostrar una resolución de 640 × 480 pixeles (en el formato de vídeo estándar NTSC) con una profundidad de 8-bit (permitiendo 256 colores). El software SuperPaint contenía todos los componentes básicos que después incluirían otros paquetes de dibujo; como pintar y modificar pixeles, una paleta de herramientas y efectos, etc. Siendo así la primera solución que ofrecía dibujar y editar imágenes. Shoup también experimentó con las barras de color en las señales modificando sus colores, permitiendo a los sistemas producir una amplia gama de colores que no les permitía la limitante de 8-bit. El framebuffer de SuperPaint también podía utilizarse para capturar imágenes de una fuente de vídeo.50 51

El primer framebuffer comercial se produjo en 1974 en Evans & Sutherland. Su costo era de $15,000 dólares, con una resolución de 512×512 a una escala de grises con 8-bit, fue un éxito entre los desarrolladores que no tenían los recursos para construir un framebuffer por su cuenta.52 Tiempo después, el NYIT creó el primer framebuffer a color con el espectro RGB a 24-bit, al conectar tres de los framebuffers creados por Evans y Sutherland en un mismo dispositivo, esto sirvió de base para el desarrollo de otros proyectos dentro del NYIT.

En 1975, la compañía inglesa Quantel, fundada en 1973 por Peter Michael,53 produjo el primer framebuffer comercial a color, el Quantel DFS 3000. Fue utilizado por primera vez para cubrir la transmisión televisiva de los Juegos Olímpicos de Montreal en 1976, pudiendo sobreponer imágenes (PiP) de la antorcha olímpica mientras en la misma pantalla se podía apreciar el corredor entrando al estadio. La tecnología de framebuffer significó un parte aguas en el futuro desarrollo de la televisión digital.54

A finales de la década de los setenta, las computadoras personales como la Apple II soportaban framebuffers aunque con un espectro de colores reducido. Sin embargo, no fue sino hasta finales de la década de los ochenta que comenzó la verdadera revolución en la industria, cuando los framebuffers fueron capaces de almacenar imágenes de vídeo estándar en las computadoras. Hacia finales de la década de los noventa, los framebuffers eventualmente se convirtieron en un estándar en todas las computadoras personales.

En ésta época, se logró un paso más hacia el realismo en la animación 3D gracias al desarrollo de fractales. El término fue acuñado en 1975 por el matemático Benoit Mandelbrot, quien lo utilizó para extender el concepto teórico de dimensiones fractales en patrones geométricos de la naturaleza, y lo publicó en su libro Fractals: Form, Chance and Dimension en 1977.55 56

En 1979–80, la primera película en hacer uso de fractales fue Vol Libre de Loren Carpenter, quien trabajaba en Boeing. En ella se mostraba un vuelo sobre un paisaje conformado por un fractal, y dicho video fue presentado en la SIGGRAPH de 1980.57Carpenter eventualmente fue contratado por Pixar para crear un planeta fractal para la sequencia de Genesis Effect en Star Trek II: la ira de Khan en junio de 1982.

 

Bob Holzman de la NASA trabajaba en el departamento de Laboratorio de Propulsión a Chorro (Jet Propulsion Laboratory o JPL) en California y creó el Laboratorio de Gráficas Computacionales dentro del JPL en 1977 , junto a un grupo de expertos para crear visuales a partir de los datos que obtenían con las misiones de la NASA. Con la recomendación por parte de Ivan Sutherland, Holzman contrató al graduado de la universidad de Utah Jim Blinn.59 60 Blinn trabajó con varias técnicas de manipulación de imágenes en la universidad, las cuales utilizó en sus tareas dentro de la NASA. Él produjo una serie de animaciones de vuelo entre las que se encontraban el Voyager, Pioneer y Galileo, naves sobrevolando Júpiter y Saturno con sus lunas. Blinn trabajó junto a Carl Sagan, creando las animaciones para su serie de televisión Cosmos: un viaje personal. Blinn desarrolló varias técnicas de modelación 3D, escribiendo varias artículos sobre ellas en el Instituto de Ingeniería Eléctrica y Electrónica IEEE(Institute of Electrical and Electronics Engineers), en su diario Computer Graphics and Applications.

Algunas de ellas incluían el trazado de ambientes, mejoras a modelos, la técnica “blobby”, simulación de superficies ásperas y la simulación de superficies con colinas y terrosas. Después en los ochenta, Blinn desarrolló animaciones por computadora para la serie de televisión The Mechanical Universe, en la cual realizó más de 500 escenas para 52 programas de media hora en donde describía conceptos de física y matemáticas para estudiantes universitarios. Gracias a ello se enroló en otro proyecto sobre matemáticas llamado Project Mathematics!.61

El control de movimientos de cámara o Motion control photography es una técnica que requiere de una computadora para grabar (o seguir) el movimiento exacto de una cámara en una toma específica, con el propósito de recrear nuevamente tal movimiento, ya sea en otra computadora; y en conjunto con los datos de movimiento de diversas fuentes, como por ejemplo elementos CGI. Los inicios de ésta técnica fueron fundados por John Whitney en 1968 con algunos de sus trabajos como 2001: Odisea del espacio, y en los efectos de 1977 para la película de George Lucas, Star Wars: Episodio IV – Una nueva esperanza, en la recién creada empresa Industrial Light & Magic en California. En Industrial Light & Magic lograron crear una cámara controlada digitalmente llamada Dykstraflex, la cual era capaz de realizar movimientos complejos y repetibles alrededor de los modelos a escala y las maquetas, lo que permitió varios elementos por separado (naves, escenografías, etc.), para despúes coordinarlos entre ellos en post-producción. Sin embargo Dykstraflex no era una computadora sino una máquina cableada que se controlaba por medio de interruptores y perillas.62 No fue sino hasta 1981 que el primer sistema computarizado de este tipo fue desarrollado en Reino Unido por el diseñador Bill Mather quien trabajaba para Moving Picture Company.63


  1. Futureworld fue la primera en los años 70´s

Licencia

Icono para la licencia Dominio público

Esta obra (Historia de la animación por computadora por CETA) no tiene restricciones de copyright conocidas.

Comparte este libro