Anos atrás, tudo o que se fazia em vídeo e TV era
pertencente ao mundo analógico: o termo digital era reservado ao mundo dos
programadores e analistas das grandes empresas. Mais tarde passou a fazer parte
também das menores, com a presença dos microcomputadores fazendo ali diversas
funções, de serviços de escritório a contabilidade, de engenharia e diversas
outras. Mais um pouco, o chamado computador pessoal PC surgia no ambiente
doméstico... e logo estendia seus passos em direção à música... ouvir música no
computador, a novidade... Depois, vieram jogos e fotos, com as câmeras
fotográficas digitais, as primeiras, ainda bem rudimentares em termos de
resolução....
Estávamos no início da década de 90 e as câmeras de vídeo já
traziam alguns ítens digitais dentro delas.. foi assim com o zoom digital, com
os efeitos digitais de transição e com o sensor CCD, substituindo o velho tubo
de imagem. Grande sucesso na popularização e barateamento desses equipamentos,
que no entanto, com tudo isso, ainda gravavam seus sinais, mesmo que em alguns
casos pré-processados digitalmente, na forma analógica. Mas nessa metade dessa
década tudo iria mudar, com o surgimento da gravação em fitas não mais de um
sinal analógico e sim de um sinal digital. Enorme salto de qualidade, principalmente
na eliminação das perdas quando um determinado conteúdo era copiado de uma fita
para outra (generation loss).
Era o início do formato DV, primeiramente expresso na forma
Mini-DV e depois em suas outras variantes, como o DVCAM, DVCPRO, etc... Discutia-se
muito o surgimento dos termos "edição linear" x "edição
não-linear" e as vantagens de um e outro, discussão que logo acabaria, com
o surgimento do único vencedor, a edição em computador. Como fazer, era outra
questão... a busca por placas, instalação, cabos FireWire, o nascimento dos
primeiros programas conceituados de edição e com tudo isso a requisição para
que se trocasse o poder de processamento da máquina por um maior... CPUs mais
potentes e mais memória, era o que os editores dessa época mais buscavam.
Tudo isso em definição standard, mas muito melhor do que as
antigas imagens analógicas.... No entanto, do outro lado do mundo, mais
especificamente no Japão, algo viria causar uma nova reviravolta no mundo da
videoprodução: o HD. Se era possível assistir programas HD na TV, porque não
conseguir gravar imagens HD também? E mais ainda, levar essa possibilidade à
mesma pessoa que assistia esses programas em suas casa? Assim, o HD, antes
restrito às grandes emissoras e suas sofisticadas tecnologias ganhou o público
doméstico, com o HDV. Formato que posteriormente, assim como já ocorrera com o
DV, acabou ganhando também o mercado das produtoras, principalmente pela
vantagem da portabilidade sem perda significativa desses equipamentos que,
afinal, e principalmente com o surgimento da tv a cabo, podiam fazer parte de
seu parque gerador.
E, como sempre acontece, a história agora volta a ser
repetir... com o 4K. E, de novo, do lado oriental do globo, com os lançamentos
sucessivos de televisores capazes de exibir imagens nessa resolução - ou quase,
já que a maioria trabalha com o padrão UHD, onde o 4K tem resolução menor do
que o 4K original (3.840 ao invés de 4.096 pixels de resolução horizontal).
Seja como for, a resolução 4K originou-se como um padrão estabelecido por
grandes estúdios cinematográficos para exibir conteúdo nos cinemas com a mesma
qualidade que a película 35mm, em termos de resolução de imagem - não
necessariamente outros fatores, como latitude de imagem por exemplo.
Isso significa que equipamentos de cinema digital capazes de
registrar imagens com essa resolução (4.096 x 2.160 pixels) estão capturando
conteúdo com qualidade para ser exibido em telas cinematográficas comuns. Mas
fabricantes de televisores e projetores de home theather (principalmente os
primeiros) sairam na frente dando o impulso para exibição doméstica nessa
resolução. Daí a colocar no mercado câmeras capazes desse tipo de resolução foi
um pequeno passo, logo seguido por outro, que levou o 4K a celulares como o
Liquid Z3 da Acer ou o Galaxy Note 3 da Samsung. Analistas prevêem que o 4K
chegará a quse 50% dos televisores até 2020...
Mas, como da outra vez, esbarramos nas dificuldades de
sempre, que acontecem na fase inicial de saltos desse tipo. Assim, feito o
registro com a câmera, como editá-lo? Quais requisitos mínimos são necessários?
Embora a resolução seja a mesma, 4K pode ser gravado por diferentes câmeras em
diferentes formatos, onde o que varia é a taxa de bitrate. Equipamentos
semi-profissionais como a FDR-AX1 da Sony gravam 4K com baixos valores de
bitrate, semelhantes aos usados em HD com baixa compressão. Já equipamentos
profissionais como NEX-FS700 da Sony gravam 4K com valores bem maiores de
bitrate. Resultado: maiores exigências de espaço em disco e características de
processador (CPU, GPU para renderização), memória RAM, placa mãe...
E, ainda como da outra vez, apresenta-se a questão da
autoração e destino final do conteúdo: no caso de equipamentos de menor custo,
raramente o objetivo é a tela grande do cinema e sim os pequenos locais de
exibição, home theaters ou televisores domésticos... De forma intermediária, em
um patamar mais elevado, os mesmos usos como na época do HD, agora se repetem,
por exemplo captar em 4K para extrair um quadro menor de imagem, HD, com
possibilidades de reenquadramentos, movimentos, efeitos especiais, etc... No
lado da distribuição esses usos podem incluir a redução da qualidade posterior
para geração de Blu-rays, embora esse formato de disco não tenha tido êxito
como sucessor do DVD e não exista mídia física 4K - provavelmente nem existirá,
estando a internet e tvs a cabo à frente na fila do entretenimento nessa
resolução, além, é claro, do segmento de jogos.
É preciso por enquanto aguardar novos desenvolvimentos
tecnológicos nessa área para saber os rumos do mercado 4K, embora sem dúvida a
ele está destinada a repetição da história, como um novo HD.
Nenhum comentário:
Postar um comentário