Historicamente, 2K e 4K refere à saída de um scanner line array digitalização de filmes, de modo que para cada frame digitalizado em 4K, você acaba com quatro mil pixels vermelhos, verdes e quatro mil, quatro mil azuis.
Para sensores de câmera cinematográfica, a palavra "pixel" é meio complicado. Nos velhos tempos, houve um-para-um entre photosites e pixels. Qualquer uma das câmeras de vídeo de alta definição high-end, eles tiveram três sensores: um um vermelho, um verde e um azul photosite para criar um RGB pixel.
Mas o que temos visto particularmente com essas câmeras Bayer padrão é que eles são basicamente câmeras chroma sub-amostradas. Em outras palavras, eles têm metade do número de pixels de cor como o fazem luminância e com a luminosidade é o que eles chamam de verde normalmente. Então o que acontece é que você tem dois sites de fotos verdes para cada vermelho e azul.
Então, como conseguir RGB de que? O que você tem a fazer é, você tem que interpolar o vermelho e os azuis para combinar com as verduras. Então você está basicamente criando, interpolação, o que não estava lá, você está imaginando o que ela é, o que vai ser. Isso é essencialmente o que é. Você pode fazer isso muito bem, principalmente se a resposta verde é muito amplo.
Bem 4K no mundo dos profissionais que fazem isso, e você diz "4K", isso significa que você tem 4096 vermelho, verde 4096 e 4096 sites de fotos azuis. Em outras palavras ...
Creative COW: 4000 de cada um. 4K.
[Risos]
John Galt: Certo.
Mas se você usar a aritmética que as pessoas estão usando quando estão tomando todas as photosites em uma linha e dizer que eles estão 4K, eles estão adicionando o verde eo azul juntos e dizer: "Oh, há 4K daqueles, de modo é o sensor de 4K ". Agora, na verdade, a fim de obter RGB de um padrão Bayer você precisa de duas linhas. Porque você só tem verde mais uma cor (vermelho) em uma linha, e mais verde do outro cor (azul) na outra linha. Você então tem que interpolar as cores que estão faltando pixels adjacentes.
Note-se que há o dobro de pixels verdes como vermelho ou azul nesta representação de um sensor padrão Bayer. Para criar um único pixel RGB, deve haver um número igual de cada cor, então a escolha é se a descartar pixels verdes e perder detalhes de luminosidade, ou para usar interpolados, alias vermelho e azul pixels.
Vamos voltar para a digitalização de um quadro de filme. A proporção de uma full frame de filme 35mm aspecto é basicamente 4x3. Então, se você tem 4096 sites de fotos toda a largura do filme, em vermelho e verde e azul, e 3K ao longo da altura, você teria 4K por 3K. Você vai ter 12 milhões de verde Photo-sites, 12 milhões de azul da foto-sites, 12 milhões de vermelho Photo-sites.
Isso é 36 milhões de foto-sites. A imagem mega-pixel 36 é o que você começa a partir de uma varredura 4K.
Agora você sabe muito bem que você não pode tomar um sensor de 8,3 milhões de pixels e criar 36 milhões de que, sem interpolação. Você está a converter, e não há realmente nenhum valor para o up-conversion. Não há nenhuma informação nova.
Então 4K não é estes 8 mega pixel ou 9 mega pixel ou 10 imagens CMOS mega pixel para o padrão Bayer onde somar todos os pixels em uma linha e dizer hey, temos 4K. Os grandes autores de que a mitologia tem sido RED e Dalsa. É por isso que eu chamo estes "pixels de marketing." É obscurecimento intencional. Porque eles realmente não fazem nada para melhorar a qualidade da imagem. Eles podem melhorar o volume de vendas. Mas eles não fazem nada para a qualidade.
Mas de alguma forma o mundo aceitou que isso é 4K. É puramente semântica. É como dizer: "Eu não gosto do meu peso em quilos, então eu convertido em quilos. Soa melhor!" Você ficaria surpreso com quantas pessoas não-técnicas que se encontram, muitas vezes, produtores e diretores, mas às vezes até mesmo cineastas se deixe enganar por essas coisas.
Há um problema fundamental com os sensores Bayer. Quero dizer, em 1972, quando o Dr. Bryce Bayer no Kodak não poderia fazer sensores com lotes de foto-sites, a sua foi uma ideia brilhante, e ele funciona muito bem em câmeras fotográficas. Mas com qualquer câmera com um stucture amostragem fixa, em outras palavras, qualquer câmera CCD ou CMOS com discretas foto-sites, você tem que usar uma passagem baixa óptico filtro para certificar-se de que você não criar um padrão moiré na imagem final.
Se você projetar o filtro de passagem baixa óptico para satisfazer a exigência da freqüência das amostras verdes para manter a mais alta resolução, o vermelho e azul foto-sites, que são metade tão freqüente como o verde terá aliases. No entanto, se você projetar o filtro de passagem baixa óptico para se certificar de que você não tem um alias de cor de vermelho e azul, em seguida, você está jogando fora um pouco da resolução do verde.
Então, você nunca pode obter a resolução que você pode esperar de um padrão Bayer. Alguém pode argumentar que isso até que eles estão com o rosto azul, mas estamos a lidar com as limitações da física de óptica ea matemática da teoria da amostragem, e você não pode escapar. Haverá sempre aliases de um dispositivo com uma estrutura de amostragem fixo, como uma série de foto-sites em um sensor, se você tentar gravar as informações de freqüência que é maior do que a metade do número de amostras disponíveis. Claro que, por vezes, os limites da lente da câmara actua como o filtro óptico passa-baixo!
Agora, se você usar a mesma aritmética que essas pessoas estão alegando que eles são câmeras 4K está usando, então Genesis seria 6K. Porque tem 5760 pixels em uma linha: 1920 vermelho, verde 1920 e 1920 azul. Mas isso não é um pouco absurdo? Mas eu acho que não é mais absurdo do que essencialmente comprimindo o heck fora de uma imagem, em seguida, interpolando-se que para criar um arquivo DPX que é enorme e dizer wow, temos 4K. Acho que as pessoas vão começar a entender isso e perceber que ele cria um problema terrível com o post, porque você tem dados muito mais vazias para processar.
A questão mais importante do nosso ponto de vista, é que queremos ter igual resolução, a resolução VERDADEIRO borda em vermelho, verde e azul. A coisa mais importante é não ter interpolado informações. Você quer saber o que a borda é REAL.
Isso ocorre porque nossas câmeras são usadas para fazer high-end de composição de imagem. Eu não estou falando de cerca de 100 pessoas sentadas em estações de trabalho imagens rotoscopia. Eu estou falando sobre ser capaz de atirar uma tela azul ou uma tela verde e usando softwares como o Advantage Ultimatte e puxe perfeito linear mates de fumaça, fogo, objetos transparentes. ou líquidos - coisas que não podem ser roto'd.
Pixels e RESOLUÇÃO
Outro problema com uma mensagem construída em pixels "marketing" é que ele confunde pixels e resolução. Eles não têm nada a ver uns com os outros. O que define a resolução, francamente, é a ótica mais do que o sensor.
Minha esposa tem uma Ricoh GX 100. É uma câmera pequena bonita com um sensor de 10 milhões de fotos do local. Mas não é tão bom uma imagem como a minha velha 6 mega-pixel Canon D60.
Quando lançamos o [versão panavised da Sony] HDW-F900, apelidada de "a câmera Star Wars", que era uma filmadora polegadas 2/3rd. As pessoas perguntavam: "Por que você está fazendo isso?" Bem, porque ela só pesa 12 quilos, tem uma bateria, não há necessidade de um cordão umbilical, e ele tem um built-in gravador como uma revista de cinema.
Quase todos na indústria riu, mas ela provou ser incrivelmente bem-sucedido. Que a câmera ainda está alugando todos os dias com as lentes Primo digitais nós projetamos para o "formato de 2/3, e realmente, você seria duramente pressionado para obter uma imagem melhor. Então você tem que olhar para todo o sistema, não trava apenas um parâmetro e dizer: "Isso é o que nós vamos para!" Tudo tem que trabalhar juntos como um sistema de imagem.
Infelizmente, uma das tragédias de imagem digital, é que agora temos esses jogos números ridículos, porque tão poucas pessoas entendem os fundamentos da tecnologia de imagem, todo mundo quer um número a ligar-se. Os números não significam nada no contexto de 100 anos de desenvolvimento do cinema e tecnologia de imagem em movimento, a tecnologia óptica e práticas de laboratório e cineastas fizeram um trabalho maravilhoso sem entender nada sobre a química ou tecnologia de emulsão fotográfica.
Sempre que faço uma apresentação sobre a imagem digital, a minha primeira pergunta nos dias de hoje é: "Alguém sabe quantos grãos de prata está em um quadro do filme? Mãos para cima, mãos para cima!" Ninguém coloca a sua mão. A minha segunda pergunta é: "Hands Up! Alguém já pensou nisso antes?" Você pode dizer os nerds na platéia das mãos que sobem!
Para ver os vídeos da apresentação de John Galt com Canon Larry Thorpe, "Desmistificando Câmeras Digitais", clique aqui.
Então, por que se importar? Porque depois de 100 anos de estar confortável com um filme baseado em tecnologia de imagem em movimento relativamente estável, vem esta tecnologia de imagem digital novo e perturbador, e todos nós estamos segurando por algum número mágico que podemos realizar em nossas cabeças, e isso vai definir o processo para nós. Pedimos desculpa, não funciona dessa maneira. É confuso e complicado, e muito mais hoje do que era nos dias de filme.
4k, IMAX e quadro PREÇOS
O sistema 4K que a maioria das pessoas sabe que é IMAX - e não fazer muito 4K, que é uma surpresa para as pessoas. "Como isso pode ser?", Você diz. "É um enorme grande quadro." Bem, por causa do que eu estava falando anteriormente: a física óptica. Quando você toma todo o sistema em conta - a partir da lente da câmera, o movimento da luz através do projetor, toda a resolução de reduzir ligeiramente - você acabar com menos do que a resolução máxima com que começou.
Em seguida, eles começaram a dobrar e dobrar e dobrar as praças. Antes de chegar a 4K a tela era cinza. Você sabe qual é o significado? Não havia mais qualquer diferença entre preto e branco, que é o que permite que você veja nitidez. É o contraste que vemos, e não a informação real. Tecnicamente, a MTF (Modulation Transfer Function) foi zero em 4K!
Vamos fingir por um momento que IMAX é realmente 4K. Você assiste IMAX, entre um e um e meio de altura de imagem da tela. Mas, para começar a apreciar 4K em uma tela normal de cinema, você tem que sentar mais perto que o normal. Em outras palavras, quando você vai a um cinema, ea maioria dos teatros modernos com arquibancada são projetadas de modo que o meio do teatro é de 2 ½ a 3 alturas de imagem da tela, para a maioria de nós que assistir a filmes, isso é bem onde queremos estar sentado. Talvez apenas um pouco mais perto de algum de nós que fazemos isso para a vida, porque estamos talvez à procura de artefatos ou questões. Se você sente-se muito mais do que 2 ½ alturas de imagem, que é o que você está vendo, artefatos, e não filmes!
Então, se você tinha uma resolução de 4K em seu teatro local, todos teriam a sentar-se nos primeiros seis linhas. Caso contrário, não veria nenhum detalhe extra. Seus olhos não iria deixá-los ver. Você sabe disso intuitivamente de passar por essas belas novos monitores em feiras. Você está ficando absolutamente o mais próximo possível ver o detalhe, e ver se há alguma artefatos visíveis. Em distâncias normais de visualização, você não pode.
Então a coisa toda 4K 2K é um pouco de um arenque vermelho.
Creative COW: O que você pensa sobre IMAX como filmgoer?
John Galt: Eu não gosto de a taxa de quadros. Vi Gorillas in the Mist eo gorila estavam voando pelo chão da floresta. Cada quadro que parecia viajar como três pés. [Risos]. É realmente irritante. Quer dizer, eu adorava Showscan : funcionamento 70 milímetros a 60 fps. Em termos de um senso de realidade, eu acho que era muito superior ao IMAX.
É por isso que eu assinar o argumento de Jim Cameron, o que é que iria ficar muito melhor qualidade de imagem, duplicando a taxa de quadros do que pela adição de mais pixels de resolução.
Para muitos cineastas, este é um sacrilégio. É frequente ouvir cinegrafistas dizendo, há algo de especial sobre os filmes a 24 frames por segundo. Isso pode ser verdade, mas eu vou te dizer um dos problemas de 24 fps, é a razão pela qual vemos uma imagem tão escura em uma tela de cinema, porque se você aumentar o brilho da tela, você vai notar o brilho do 24 fps de captura de movimento.
Então, quando você está assistindo em uma bordadura escura e um cinema escuro, o olho eo cérebro entra nesse estado chamado mesópica, que não é nem fotópica, que é a visão a cores em luz brilhante, ou escotópica que é visão noturna e sem cor. É o estado intermediário entre a cores e sem visão de cores. O que acontece lá, o cérebro leva mais tempo para integrar uma imagem, por isso combina o movimento melhor e são menos sensíveis a piscar, mas também perdemos a acuidade de cor.
Mas temos que lembrar que 24 quadros nunca foi projetado a partir de um ponto de vista de imagem. Ele foi projetado para som.
O cinetoscópio original funcionou em cerca de 48 quadros por segundo, com o rápido puxar para baixo.
O cinetoscópio, demonstrou pela primeira vez ao público em 1891
Um escocês com o nome de William Kennedy Dickson (abaixo, à direita), que trabalha para Thomas Alva Edison, descobri que você pode atirar em 16 frames por segundo e mostrar a mesma imagem três vezes com um obturador de três pás no projetor. E você salvar filme - que teve de apelar para um escocês como Dickson! (Eu sou um escocês, a propósito, é por isso que eu posso fazer piadas sobre um escocês).
Quando o som veio e eles não podiam obter um som inteligível aos 16 anos, eles foram para a próxima sub múltiplo de 48, eles foram para a 24 quadros com um 2 do obturador lâmina. E isso é o que terminou com 24 frames. Eles acabaram por se instalar em 24 frames por segundo com um obturador de duas lâminas: 48 flashes de 24 quadros por segundo.
Agora, se você tirar uma fotografia de alguém andando na frente de você em um 48 de segundo, você sabe que eles vão ficar embaçada. Mas se fosse para gravar 48 quadros por segundo, com um obturador de duas lâminas, então o tempo de integração seria apenas um 96 de um segundo, e cada uma das imagens seria mais nítida.
Recentemente fomos alugar uma câmera Vision Research chamado de Fantasma, que facilmente atira a 1000 quadros por segundo. Quando você vê uma gota de água em uma queda comercial lentamente e criar um adorável toque de bolhas, esse é o tipo de coisa baleado por essas câmeras de alta velocidade.
Acima, balão de água, após o balão estourou, mas antes que a água caiu. Abaixo, despejando o líquido em uma TV local. Para streaming de clipes de filme de alta velocidade Fantasma vídeo HD, clique aqui.
Eles são realmente muito baixa resolução, mas porque eles estão atirando em uma velocidade de obturador de curto, eles se parecem muito, muito mais nítidas do que as câmeras que têm quatro vezes a resolução.
Gráfico Vision Research sobre o Phantom HD câmera de cinema digital que mostra o efeito da velocidade na resolução: 1000 quadros em 2K, mas para chegar a 2000fps, a resolução máxima é de 640x480 - ainda fotos de fantasmas são indiscutivelmente lindo.
É por isso que eu honestamente acho que, no futuro, uma direção que vamos ter que ir é para maiores taxas de quadro, e não mais pixels.
Alguém disse que a coisa perfeita seria 60 quadros por segundo em IMAX. Kodak adoraria isso. [Risos].
|
Nós pensamos que a próxima melhoria na qualidade da imagem digital é ser capaz de estender a faixa dinâmica de cena que você pode capturar.
Nós temos vindo a desenvolver uma nova tecnologia de sensor chamado Dynamax. Agora, eu tenho dito que nós não precisamos de 4K - bem, este sensor é de 37.5 megapixels! Você tem basicamente 6 verde, 6 vermelho, e seis photosites azuis para cada pixel. Usando a "nova matemática" é um sensor de 17K!
Você conhece a todos com imagens de alta faixa dinâmica em fotografia? HDRI?
No mundo da fotografia, ainda assim, o que está acontecendo é que as pessoas estão tomando várias exposições e combiná-los. Vamos dizer que eu faço uma exposição em uma parada de 2,8. A próxima é a 4, em seguida, 5,6, depois 8, e 11. Dependendo do que eu estou filmando, a exposição 2.8 poderia explodir completamente fora dos destaques, mas teria muitos detalhes de sombra. E a exposição f11 reteria os destaques, mas não haveria nenhum detalhe nos tons médios e as sombras. Se estivéssemos a combiná-los, teríamos uma única imagem com o máximo possível de detalhes em toda a gama mais ampla possível.
Clique na imagem para ampliar
Assim, em Photoshop e alguns outros programas, você pode realmente misturar essas imagens para criar uma imagem de ultra-alta gama dinâmica. E algumas das imagens, você deve apenas fazer uma pesquisa na web para imagens de alta faixa dinâmica e você vai chegar com o que um monte de fotógrafos têm vindo a fazer. Algumas das imagens são extraordinárias, como pinturas Eles só têm informação extraordinário. Alguns deles são bastante surrealista.
Clique na imagem para ampliar
Hoje, que só está disponível no mundo da fotografia ainda. DYNAMAX é projetado para fazer isso para imagens em movimento. Com os 6 vermelho, 6 verdes e 6 photosites azul para cada pixel de saída, você terá o equivalente a tiro seis imagens com exposições diferentes de uma só vez, e misturá-los juntos para criar uma imagem de alta gama dinâmica única. Você vai ser capaz de capturar destaques extremos, o próximo destaques, meados destaques ....
Creative COW: Seis imagens, com exposições diferentes, combinados em um só.
John Galt: Sim. Vejo basicamente registrar os 6 photosites a 1 pixel de saída. Mas você vê, porque eu tenho seis sites de fotos individuais Posso controlar os sites de fotos individualmente, para que eu possa criar uma característica de transferência não linear.
Todos os sensores CCD ou CMOS agora são dispositivos lineares, como um medidor de luz. Um fóton entra e se sai ... bem, não exatamente, porque a eficiência quântica não é exatamente 100%. Mas vamos dizer que se você tem 10 unidades de luz, você tem 10 unidades de carga, 20 unidades de luz, 20 unidades de carga, e assim por diante. É linear. Emulsões de filmes não funcionam dessa maneira. O filme tem uma função de transferência não linear.
Primeiro de tudo, há uma espécie de inércia. É preciso uma certa quantidade de luz para obter qualquer exposição a todos, razão pela qual o dedão é plana. O que ele realmente diz é que, na parte inferior da curva característica filme temos menos sensibilidade.
Curva para Panalog espaço de cor, um log espaço de cor 04:04:04. Saiba mais aqui.
E, então, ir até a parte reta da curva característica, e lá, ele realmente é logarítmica. E, então, levantar-se e quando ele começa a rolar para fora de novo, o chamado ombro, o que está acontecendo é que você expostos todos os grãos de prata de baixa sensibilidade de luz que requerem muita luz, por isso a sensibilidade cai novamente, e que passa a ser uma coisa maravilhosa! Porque se a faixa dinâmica de cena que você tentar capturar um dia ensolarado, você pode facilmente ter 1 milhão para uma gama dinâmica.
Mas eu vou estar sob a impressão desse pedaço de papel fotográfico, em que o melhor que vai conseguir é 120:1. Ou eu vou vê-lo em um monitor CRT de qualidade profissional muito elevada. O melhor que se tem é de 15.000:1. [Ou um Optoma DLP de 10.000:1.] Mas nós ainda começou com um milhão para um. Como faço para capturar esse?
Houve dispositivos feitos com amplificadores logarítmicas e outras coisas, mas eles não são terrivelmente prático. Assim, a ideia é a de ser capaz de fazer um sensor que tem uma característica de transferência que é mais parecido com um movimento de imagem de emulsão do filme.
Em DYNAMAX podemos controlar esses sites de fotos individuais para que eles tenham uma breve exposição, uma exposição mais longa e assim por diante. Assim, podemos então tomar essas posições e misturá-los juntos para criar uma imagem de alta gama dinâmica, como se estivesse atirando uma meia dúzia de diferentes exposições.
O sensor DYNAMAX-35 é um sensor de vídeo multimodo capaz de operar até 120 fps em HDTV 6x e 30fps em pleno res de 37Mpix
Então, sim, o sensor Dynamax é por qualquer medida de um verdadeiro sensor de 4K. Pelo menos na primeira passagem, não temos nenhuma intenção de tentar gravar cada um dos 37,5 photosites como um número maior de pixels em DYNAMAX. Seria uma perda de tempo. É sobre a obtenção de gama mais dinâmico
Na verdade, tudo falando 4K desmente o fato de que a maioria das instalações de teatro de todo o mundo estão basicamente indo em 2K. Quero dizer, o único comercial de cinema digital 4K projetor que estou ciente é o projetor Sony 4K. Mas a maior parte das instalações teatrais de todo o mundo são a Texas Instruments DLP. E sua resolução máxima é de 2048x1080. Quero dizer, vamos enfrentá-lo. A diferença entre 1920 e 2048 é de 6%. Acredite em mim, você não pode ver a diferença de 6%. Seis por cento é irrelevante.
Para saber mais sobre os aspectos práticos do cinema digital, consulte a Creative COW revista Extra, "21st Century Cinema"
Além disso, quando falamos sobre o filme de digitalização para obter 4K - não fizermos isso, realmente. Nós normalmente digitalizar perf para perf, mas o Aperture Academy real é de 3456 pixels, o que é um pouco menos de 4K. Quando você digitalizar filmes em 2K, você está sempre apenas a varredura 1728 em todo o Aperture Academy. Apenas para tornar as coisas um pouco mais complicado!
Então, esses são todos os projetores de televisão de alta definição que vão aos cinemas se você gosta ou não. Ligeiramente melhor gama de cores, mas todos eles são basicamente promessas vãs para a idéia de que não é HD.
É uma relação horrível de qualquer forma, 2048/1920. Você quer evitar estes números relação pequenas horríveis pouco porque um filtro digital para escalar 10920-2048 é difícil, e você provavelmente perderá mais no filtro do que você pode ganhar por ter mais alguns pixels.
NOVIDADES
Uma das novidades para nós é capturar metadados cena. Então, estamos fazendo um filme agora, eu não tenho certeza se estou autorizado a falar sobre isso, mas de qualquer maneira, este é um filme que vai ser lançado em 3D, a sua realidade a ser filmado em 2D. Usando nossas lentes que têm construído em codificadores para codificar metadados cena que será dado para as pessoas em pós-produção, para que possam corresponder a imagens geradas por computador em 3D, com a fotografia de ação ao vivo 2D.
E o que isso significa, o que significa a captura de metadados, que as pessoas em pós pode render uma imagem gerada por computador, que tem todas as características ópticas da fotografia principal. Incluindo as informações, como um puxão de foco, eles terão as informações para puxar o foco no computador gerado parte da imagem também.
O cineasta quer saber o que a imagem parece, não apenas em um monitor de TV, mas o que ele vai olhar como no filme. Portanto, temos este dispositivo chamado de processador Display (abaixo), onde podemos tomar aparência 3D mesas, carregá-lo no dispositivo que, alimentar a câmera para isso e, em seguida, alimentá-lo em um grande cinema cor monitor, digital de gama, você pode emular um especial negativo impresso em uma impressão especial - enquanto você está gravando. Esta é uma das peças mais populares de hardware que foram desenvolvidas. A maioria dos cineastas sair com um desses por câmera.
ALUGUEL, clientes e democratização do cinema
Creative COW: Quando as pessoas falam sobre uma Arri D20 ou um vermelho ou qualquer outra coisa, uma das primeiras coisas a surgir é o preço dela. Mas isso não é realmente um fator direto, quando falamos de aluguéis.
John Galt: Uma das coisas interessantes sobre a sede da Panavision é que temos de pesquisa e desenvolvimento aqui, nós temos a fábrica para fabricação de lentes e câmeras aqui, e nós temos o piso de aluguel. Isso nos coloca em contato direto com os clientes. Nós sabemos o que eles querem, porque eles nos dizem. "Não, eu não quero mais alta resolução;.. Que eu só tenho que sentar-se mais perto da tela, mas sim, eu gostaria de ter mais detalhes de sombra, eu gostaria de ter mais detalhe do destaque que você pode fazer isso? "
Outra coisa maravilhosa sobre o negócio de aluguel é que todo o processo de desenvolvimento de produto é uma espécie de virada de cabeça para baixo. Quando você vende alguma coisa, o serviço é um centro de lucro. Quando você faz algo disponível para alugar, o serviço é um custo. Porque alugar as coisas em vez de vendê-los, a nossa melhor maneira de manter os custos baixos é a construção de padrões mais elevados.
As lentes são um grande exemplo. A lente zoom é construído nominalmente, todos juntos de acordo com a especificação. O que fazer a seguir ao longo de I & D é começar a fazer ajustes micro. Eles têm um pouco excêntrico que lhes permite medir desvios no ângulo de rotação de onde a câmara é suposto ser. Muitas vezes há mais de quatro centenas de medições feitas, indo para o desempenho máximo do que a lente de zoom em qualquer distância focal particular.
Essa lente é então desmontado, o came de volta para a fábrica, e voltar a cortar as câmaras com base nos resultados do teste. Às vezes a gente vai fazer isso três ou quatro vezes. Por quê? Devido ao fazer isso, pode-se melhorar o desempenho da lente, até 30% ou mais. É muito caro? Sim, é ridiculamente caro. Mas não é caro ao longo da vida da lente.
E não é caro quando você sabe que aquela que a lente não vai estar sentado na prateleira porque um cineasta em particular não gosta. Temos um andar inteiro criado em Panavision, onde os clientes equipamentos de teste todos os dias. Eles vão rejeitar uma lente especial, não porque suas fotos não são boas, mas porque não se sente bem. É por isso que é muito difícil construir coisas para o mercado de arrendamento. Pode haver remorso construtor, mas não há nenhum remorso do comprador. Se não está feliz com alguma coisa, ele vai voltar para nossa prateleira, não o deles.
Podemos também desenvolver novos produtos em formas que não são prática em um ambiente de varejo. Então, você sabe, a câmera de design para a câmera Genesis era para ser capaz de igualar o desempenho do nosso XL câmera de filme 35mm Millennium, em todos os aspectos: taxa de frame, tamanho, peso, tudo isso. E nós não chegar lá. Foi talvez £ 12, £ 13 mais do que um XL com uma revista de cinema de 400 metros - mais do que suficiente para importa para o pobre desgraçado que tem que carregá-lo em um Steadicam todo o dia. Com uma revista de cinema de 400 pés, você está recebendo menos de 5 minutos de tempo de gravação. Isso é bom para Steadicam, mas também queria gravar mais do que isso.
Nós apenas introduziu o SSR-2, um gravador de estado sólido acoplável. Podemos gravar até 84 minutos de descompactado 1920x1080 em 4:02:02 ou 42 minutos a 04:04:04 Isso exige quase três quartos de um terabyte de memória flash em estado sólido. (Não consideramos discos rígidos, porque eles simplesmente não são confiáveis o suficiente.)
Panavision Genesis com SSR-1 gravador de estado sólido
Quando começamos a desenvolvê-lo há três anos, a memória flash custam menos para dar-lhe esse tempo de gravação teria sido 68 mil dólares! Claro, o que aconteceu durante os anos de desenvolvimento é que o preço do Flash caiu para 1/10 do que era quando começamos. Agora, se tivéssemos vindo a construir isso para vender, nós nunca construiu nada. Teria sido totalmente inviável até mesmo a considerar.
Mas se você estiver indo para alugá-la, você pode olhar para o longo prazo. Isso caro pedaço de memória flash salvo dinheiro porque nunca precisa consertá-lo, ou substituí-lo por desgaste. Você só tem tantos ciclos de leitura e escrita, mas um de nossos fabricantes de flash calculou que temos pelo menos 35 anos! A tecnologia será muito obsoleto antes disso.
Creative COW: Eu acho que um dos aspectos da democratização que as pessoas têm perdido é que os produtos podem tornar-se cada vez mais complexo e cada vez mais sofisticado e estão disponíveis para alugar. Que é bastante democrático de fato. Eu provavelmente tenho dinheiro suficiente para alugar essa coisa de alguns meses em relação ao comprá-lo.
John Galt: Eu acho que foi Orson Welles, que disse que a tomada de filme é a única forma de arte onde o artista não pode pagar o material para sua arte. Se você tem o filme que você tem que fazer, você pode ir lá e recolher o dinheiro, e mendigar, pedir emprestado e roubar, e fazer o que for necessário para sair e comprar-se uma câmera que custa menos de 20 mil . Antes que seja útil, é mais perto de 100 mil.
Ou você pode gastar esse dinheiro em sua produção. Eu acho que se o seu filme feito e visto é provavelmente mais importante do que o equipamento se acumulando.
Todos os estúdios também costumava ter sua própria loja de serviço, eles tinham suas próprias câmeras, as suas próprias lentes, tripés seu próprio, suas próprias luzes - tudo.
E o que os estúdios perceberam é que eles não fazem filmes suficientes para justificar a manutenção desse departamento câmera.
Assim, em última análise, os departamentos da câmara desaparecido, e você percebeu que tinha empresas que atendidos todos os estúdios como Panavision, que estavam fornecendo câmeras, lentes e acessórios.
Agora, se não fizermos estas lentes, bem como possível, eles vão sentar-se nas prateleiras e recolher poeira. E isso é verdade para todos os equipamentos que construímos. Não há um monte de vender o que podemos fazer. Nós trazemos as pessoas, nós mostramos a eles, vamos explicar o que faz, que experimentá-lo, se eles gostam eles vão usá-lo, e se o fizerem não se sentam nas prateleiras.
Considerando que, eu sou um trabalhador de madeira amador. Você não acreditaria o número de ferramentas que eu comprei ao longo dos anos que eu achava que eram só vai ser maravilhoso para uma coisa ou outra, que apenas sentar na prateleira para envergonhar o inferno fora de mim quando penso no dinheiro Passei para eles. Acabei de comprar em alguma peça de publicidade ou promoção e parecia ótima idéia na época. Bem, os nossos clientes não têm esse problema. Eles vão tomar alguma coisa, e se isso não funcionar para eles, se trata de volta, e é isso.
No fim das contas, é um ganha-ganha. Nós colocamos um pouco mais para o processo de design, fabricação e montagem, e ficamos com menos equipamentos rejeita, e menos problemas de serviço ao longo do tempo. O ambiente de aluguer permite-lhe fazer uma melhor produto disponível para o cliente.
---------
Em torno deste ponto da conversa - sem brincadeira - ouvimos o interfone anunciar que John era necessário no chão aluguer! Nós realmente apreciar o quão generoso ele dividiu seu tempo com a gente.
John Galt é atualmente o vice-presidente sênior de Advanced Digital Imaging no escritório corporativo da Panavision. Suas responsabilidades na Panavision incluem o desenvolvimento de tecnologias de imagem digital em suporte de filme principal da Panavision e negócios de produção de televisão.
Ele trabalhou anteriormente como vice-presidente de Desenvolvimento de tecnologia de alta definição da Sony Pictures Centro de Alta Definição. Suas principais responsabilidades eram a integração de sistemas de imagens eletrônicas e cinema. Isto inclui a preservação de filmes, sistemas de transferência de filmes de alta definição e cinema eletrônico. Galt foi líder de projeto do grupo que projetou e construiu o primeiro Telecine alta definição na América do Norte.
Antes de ingressar na Sony em 1988 Galt foi presidente da Northernlight & Picture Corporation, em Toronto, no Canadá. Northernlight & Picture foi o co-produtor juntamente com a Canadian Broadcasting Corporation de "Chasing Rainbows", uma série dramática quatorze horas, o primeiro a ser produzido e fotografado usando a tecnologia de vídeo de alta definição. John Galt também foi diretor de fotografia neste projeto.
Ele tem inúmeros EUA, britânicos e patentes japonesas no cinema e áreas afins de imagem eletrônica.
Nenhum comentário:
Postar um comentário