Computação trazendo 3
A fotografia costumava ser limitada a imagens planas e bidimensionais. Hoje, a arte e a ciência da captura de imagem são estimuladas pela ótica, computação e eletrônica, e os engenheiros da Cornell estão trabalhando na vanguarda da geração de imagens 3-D.
Suren Jayasuriya, um estudante de pós-graduação no laboratório de Alyosha Molnar, professor associado de engenharia elétrica e de computação, está desenvolvendo uma câmera 3-D com sensores de imagem especialmente projetados que podem levar a aplicações inimagináveis, de carros inteligentes a imagens médicas e visualmente impressionantes. computação gráfica.
Os sensores, que são feitos de pixels que podem detectar a intensidade e o ângulo de incidência da luz, podem refocar digitalmente uma fotografia depois que uma imagem é tirada, obter diferentes perspectivas de uma cena a partir de uma única foto e calcular um mapa de profundidade da imagem.
Em apoio ao trabalho, Jayasuriya recebeu recentemente uma bolsa de estudos de inovação da Qualcomm no valor de US$ 100.000 por sua proposta conjunta com Achuta Kadambi, aluno de doutorado do grupo de cultura de câmeras do MIT Media Lab de Ramesh Raskar. A proposta deles é chamada de "Nanofotografia: Projeto de Sensor CMOS Computacional para Imagens 3-D".
“O que é empolgante sobre os pixels sensíveis ao ângulo é que eles estão inovando no lado do detector, para ajudar a motivar novas aplicações em computação gráfica e visão, onde estamos dando mais dimensionalidade aos nossos dados, a um custo de computação”, disse Jayasuriya. "Mas do jeito que as coisas estão escalando, com a Lei de Moore e [unidades de processamento gráfico] e computação paralela, a computação está se tornando um problema cada vez menor. A era do big data está aqui. Agora, é mais como, quais dados apresentamos a esses algoritmos para torná-los mais inteligentes?"
Em outras palavras, a captura de imagem não é mais apenas tirar uma foto. Trata-se de capturar uma imagem e usar aprendizado de máquina e computação para pós-processar a imagem, em um piscar de olhos.
Para o projeto da Qualcomm, eles estão trabalhando em um sensor de profundidade baseado em uma técnica de imagem chamada "time of flight", que é cada vez mais popular e usada principalmente em câmeras Microsoft Kinect. A imagem do tempo de voo mede o tempo que os fótons levam para refletir os objetos em uma cena. Os pesquisadores estão adicionando codificação de tempo de voo para permitir que seu sistema de imagem visualize a luz enquanto ela viaja por uma cena e veja os cantos. Ao capturar a luz durante o voo, os pesquisadores podem criar uma câmera que funciona – efetivamente – em 1 bilhão de quadros por segundo, por meio de computação de pós-processamento.
Os sensores de imagem de pixel sensíveis ao ângulo são feitos a partir do que é chamado de processo de semicondutor de óxido de metal complementar (CMOS), uma técnica de fabricação de chips bem estabelecida. Essa é uma das vantagens que Jayasuriya traz para o projeto; seu consultor, Molnar, tem muitos anos de experiência projetando chips baseados em CMOS para aplicações de imagem, biomédicas e de radiofrequência.
O projeto de Jayasuriya e Kadambi foi um dos oito vencedores do Qualcomm Fellowship, entre 146 candidatos. Eles dividirão o prêmio de $ 100.000.
Receba as notícias da Cornell diretamente na sua caixa de entrada.