Skip to content

Latest commit

 

History

History
179 lines (101 loc) · 10.8 KB

File metadata and controls

179 lines (101 loc) · 10.8 KB

Detecção de Objetos

Os modelos de classificação de imagens que abordamos até agora tomavam uma imagem e produziam um resultado categórico, como a classe 'número' em um problema MNIST. No entanto, em muitos casos, não queremos apenas saber que uma imagem retrata objetos - queremos determinar sua localização precisa. Este é exatamente o objetivo da detecção de objetos.

Detecção de Objetos

Imagem do site YOLO v2

Uma Abordagem Ingênua para Detecção de Objetos

Suponha que queremos encontrar um gato em uma imagem. Uma abordagem muito ingênua para detecção de objetos seria a seguinte:

  1. Dividir a imagem em vários blocos.
  2. Executar a classificação de imagem em cada bloco.
  3. Os blocos que resultarem em uma ativação suficientemente alta podem ser considerados como contendo o objeto em questão.

Detecção Ingênua de Objetos

Imagem do Notebook de Exercícios

No entanto, essa abordagem está longe de ser ideal, pois só permite que o algoritmo localize a caixa delimitadora do objeto de forma muito imprecisa. Para uma localização mais precisa, precisamos executar algum tipo de regressão para prever as coordenadas das caixas delimitadoras - e, para isso, precisamos de conjuntos de dados específicos.

Regressão para Detecção de Objetos

Este post no blog oferece uma ótima introdução à detecção de formas.

Conjuntos de Dados para Detecção de Objetos

Você pode encontrar os seguintes conjuntos de dados para essa tarefa:

  • PASCAL VOC - 20 classes
  • COCO - Objetos Comuns em Contexto. 80 classes, caixas delimitadoras e máscaras de segmentação

COCO

Métricas de Detecção de Objetos

Interseção sobre União

Enquanto na classificação de imagens é fácil medir o desempenho do algoritmo, na detecção de objetos precisamos medir tanto a correção da classe quanto a precisão da localização inferida da caixa delimitadora. Para este último, usamos a chamada Interseção sobre União (IoU), que mede o quão bem duas caixas (ou duas áreas arbitrárias) se sobrepõem.

IoU

Figura 2 de este excelente post sobre IoU

A ideia é simples - dividimos a área de interseção entre duas figuras pela área de sua união. Para duas áreas idênticas, o IoU seria 1, enquanto para áreas completamente disjuntas será 0. Caso contrário, variará de 0 a 1. Normalmente, consideramos apenas aquelas caixas delimitadoras para as quais o IoU está acima de um determinado valor.

Precisão Média

Suponha que queremos medir o quão bem uma determinada classe de objetos $C$ é reconhecida. Para medir isso, usamos a métrica de Precisão Média, que é calculada da seguinte forma:

  1. Considere a curva de Precisão-Recall que mostra a precisão dependendo de um valor de limiar de detecção (de 0 a 1).
  2. Dependendo do limiar, detectaremos mais ou menos objetos na imagem, e diferentes valores de precisão e recall.
  3. A curva terá este formato:

Imagem do NeuroWorkshop

A Precisão Média para uma classe $C$ é a área sob essa curva. Mais precisamente, o eixo de Recall é normalmente dividido em 10 partes, e a Precisão é calculada como a média de todos esses pontos:

$$ AP = {1\over11}\sum_{i=0}^{10}\mbox{Precision}(\mbox{Recall}={i\over10}) $$

AP e IoU

Consideramos apenas aquelas detecções para as quais o IoU está acima de um determinado valor. Por exemplo, no conjunto de dados PASCAL VOC, normalmente $\mbox{IoU Threshold} = 0.5$ é assumido, enquanto no COCO o AP é medido para diferentes valores de $\mbox{IoU Threshold}$.

Imagem do NeuroWorkshop

Precisão Média Global - mAP

A principal métrica para Detecção de Objetos é chamada de Precisão Média Global, ou mAP. É o valor da Precisão Média, calculado como a média entre todas as classes de objetos, e às vezes também sobre $\mbox{IoU Threshold}$. Em mais detalhes, o processo de cálculo do mAP é descrito neste post do blog), e também aqui com exemplos de código.

Diferentes Abordagens para Detecção de Objetos

Existem duas grandes classes de algoritmos de detecção de objetos:

  • Redes de Proposta de Região (R-CNN, Fast R-CNN, Faster R-CNN). A ideia principal é gerar Regiões de Interesse (ROI) e executar CNN sobre elas, procurando a ativação máxima. É um pouco semelhante à abordagem ingênua, com a exceção de que as ROIs são geradas de forma mais inteligente. Uma das principais desvantagens desses métodos é que eles são lentos, porque precisamos de muitas passagens do classificador CNN sobre a imagem.
  • Métodos de uma única passagem (YOLO, SSD, RetinaNet). Nessas arquiteturas, projetamos a rede para prever classes e ROIs em uma única passagem.

R-CNN: CNN Baseada em Região

R-CNN usa Selective Search para gerar uma estrutura hierárquica de regiões ROI, que são então passadas por extratores de características CNN e classificadores SVM para determinar a classe do objeto, e regressão linear para determinar as coordenadas da caixa delimitadora. Artigo Oficial

RCNN

Imagem de van de Sande et al. ICCV’11

RCNN-1

Imagens de este blog

F-RCNN - Fast R-CNN

Essa abordagem é semelhante à R-CNN, mas as regiões são definidas após as camadas de convolução terem sido aplicadas.

FRCNN

Imagem do Artigo Oficial, arXiv, 2015

Faster R-CNN

A ideia principal dessa abordagem é usar uma rede neural para prever ROIs - a chamada Rede de Proposta de Região. Artigo, 2016

FasterRCNN

Imagem do Artigo Oficial

R-FCN: Rede Totalmente Convolucional Baseada em Região

Este algoritmo é ainda mais rápido que o Faster R-CNN. A ideia principal é a seguinte:

  1. Extraímos características usando ResNet-101.
  2. As características são processadas por Position-Sensitive Score Map. Cada objeto de $C$ classes é dividido em regiões $k\times k$, e treinamos para prever partes dos objetos.
  3. Para cada parte das regiões $k\times k$, todas as redes votam pelas classes de objetos, e a classe de objeto com o maior número de votos é selecionada.

r-fcn image

Imagem do Artigo Oficial

YOLO - You Only Look Once

YOLO é um algoritmo de uma única passagem em tempo real. A ideia principal é a seguinte:

  • A imagem é dividida em regiões $S\times S$.
  • Para cada região, CNN prevê $n$ objetos possíveis, coordenadas da caixa delimitadora e confiança=probabilidade * IoU.

YOLO

Imagem do Artigo Oficial

Outros Algoritmos

✍️ Exercícios: Detecção de Objetos

Continue seu aprendizado no seguinte notebook:

ObjectDetection.ipynb

Conclusão

Nesta lição, você fez um tour rápido por todas as várias maneiras de realizar a detecção de objetos!

🚀 Desafio

Leia estes artigos e notebooks sobre YOLO e experimente por conta própria:

Revisão & Autoestudo