126

Universidade Federal de Pernambuco - UFPE · be forgotten or shared and hardly changed. Among various biometric methods, iris recognition systems are frequently cited as one of the

  • Upload
    others

  • View
    0

  • Download
    0

Embed Size (px)

Citation preview

Page 1: Universidade Federal de Pernambuco - UFPE · be forgotten or shared and hardly changed. Among various biometric methods, iris recognition systems are frequently cited as one of the

Universidade Federal de Pernambuco

Centro de Informática

Pós-Graduação em Ciência da Computação

SEGMENTAÇÃO E RECONHECIMENTO

DE ÍRIS

Carlos Alberto Carneiro Marinho Bastos

DISSERTAÇÃO DE MESTRADO

Recife

23 de fevereiro de 2010

Page 2: Universidade Federal de Pernambuco - UFPE · be forgotten or shared and hardly changed. Among various biometric methods, iris recognition systems are frequently cited as one of the

Universidade Federal de Pernambuco

Centro de Informática

Carlos Alberto Carneiro Marinho Bastos

SEGMENTAÇÃO E RECONHECIMENTO DE ÍRIS

Trabalho apresentado ao Programa de Pós-Graduação em Ciência daComputação do Centro de Informática da Universidade Federal dePernambuco como requisito parcial para obtenção do grau de Mestreem Ciência da Computação.

Orientador: Prof. Dr. Tsang Ing RenCo-orientador: Prof. Dr. George Darmiton da Cunha Cavalcanti

Recife

23 de fevereiro de 2010

Page 3: Universidade Federal de Pernambuco - UFPE · be forgotten or shared and hardly changed. Among various biometric methods, iris recognition systems are frequently cited as one of the

Bastos, Carlos Alberto Carneiro MarinhoSegmentação e reconhecimento de íris / Carlos Alberto

Carneiro Marinho Bastos. - Recife: O Autor, 2010.xiv, 110 folhas : il., fig., tab.

Dissertação (mestrado) - Universidade Federal dePernambuco. Cln. Ciência da Computação, 2010.

Inclui bibliografia.

1. Processamento de imagem. 2. Reconhecimento depadrão. 3. Biometria. 4. Reconhecimento de íris. l. Título.

621.367 CDD (22. ed.) MEI2010 - 062

Page 4: Universidade Federal de Pernambuco - UFPE · be forgotten or shared and hardly changed. Among various biometric methods, iris recognition systems are frequently cited as one of the

Dissertação de Mestrado apresentada por Carlos Alberto Carneiro Marinho Bastos àPós-Graduação em Ciência da Computação do Centro de Informática da UniversidadeFederal de Pernambuco, sob o título "Segmentação e Reconhecimento de íris",orientado pelo Prof. Tsang Ing Ren e aprovada pela Banca Examinadora formada pelosprofessores:

Prof. Aluiiio Fausto Ribeiro AraújoCentro de Informática / UFPE

/ /í |3/\jtf*_í«l(j3 W UJlll

Prof. Francisco Madeiro Beraardino JúniorDepartamento de Estatística e Informática / UNICAP

Prof.Centro de informática / UFPE

Visto e permitida a impressão.Recife, 23 de fevereiro de 2010.

l\D

Prof. Nelson Souto RtísaCoordenador da Pós-Graduação em Ciência da Computação doCentro de Informática da Universidade Federal de Pernambuco.

Page 5: Universidade Federal de Pernambuco - UFPE · be forgotten or shared and hardly changed. Among various biometric methods, iris recognition systems are frequently cited as one of the

Gostaria que a vida pudesse ser tão simples e direta como uma equaçãomatemática. Se assim fosse, eu a definiria como

Vida(τ) =ˆ τ

nascimentoexperiencias(t)dt.

Page 6: Universidade Federal de Pernambuco - UFPE · be forgotten or shared and hardly changed. Among various biometric methods, iris recognition systems are frequently cited as one of the

AGRADECIMENTOS

Agradeço a DEUS pela oportunidade da vida.Aos Espíritos de Luz por me acompanhar ao longo de toda minha jornada.Ao meu orientador, Professor Dr. Tsang Ing Ren, primeiramente por apostar em

mim quando me escolheu como seu orientando no mestrado. Agradeço também peloapoio e ajuda recebidos em diversos momentos difíceis. Obrigado por compreendere sempre me motivar com novas discussões, idéias, sugestões e comentários a cadareunião.

Ao Professor Dr. George Darmiton da Cunha Cavalcanti pelos comentários,observações e discussões que contribuíram para a evolução deste trabalho.

Ao Professor Dr. Francisco Madeiro pelas considerações realizadas e idéiassugeridas para serem adotadas na continuação deste trabalho.

Aos Professores Dr. Francisco Madeiro, Dr. Daniel Cunha e Dr. Remy Eskinazi peloincentivo e apoio na decisão de ingressar no mestrado e pela constante preocupaçãocom seu andamento.

Aos meus colegas de mestrado que compartilharam os momentos difíceis emcada disciplina cursada, principalmente na execução dos projetos. Pelas discussõese interesse na melhoria do meu trabalho e por estarem presentes na minha defesa.

À minha família pela paciência, compreensão, suporte e ajuda dispendidos aolongo de mais dois anos.

À Marília Miranda pelo carinho, atenção, paciência e companheirismo. Agradeçopor compreender como este curso é importante para mim.

Aos Professores e Funcionários do Centro de Informática que, na medida dopossível, tentam criar um ambiente propício à execução das atividades de pesquisa.

Aos amigos da POLI-UPE, por me incentivarem e apoiarem a decisão de ingressarno mestrado. Em especial a Romero Braga, Rodrigo Cézar e Andreza Gomes.

À FACEPE pelo suporte financeiro.À todos aqueles que direta ou indiretamente me ajudaram na conquista de mais

uma importante vitória em minha vida.

iv

Page 7: Universidade Federal de Pernambuco - UFPE · be forgotten or shared and hardly changed. Among various biometric methods, iris recognition systems are frequently cited as one of the

RESUMO

A atual sociedade demanda métodos cada vez mais eficazes para proteger o acessoa instalações, a bens e a informações. Este controle, que pode ser entendido como umproblema de identificação, é tradicionalmente realizado através do uso de nomes oucódigos de usuário, senhas, chaves e cartões. Entretanto, cartões e chaves podem serperdidos, roubados ou copiados e nomes de usuário e senhas podem ser esquecidos,compartilhados ou até adivinhados.

Métodos biométricos utilizam características físicas ou comportamentais possuídaspelos indivíduos para realizar a identificação. O uso de informações biométricas temrecebido grande atenção devido ao fato de que tais características não podem ser(ou dificilmente são) esquecidas, compartilhadas ou modificadas, sem assumir certorisco. Entre os diversos métodos biométricos, os sistemas de identificação baseados noreconhecimento da íris humana são frequentemente citados como uma das biometriasmais precisas.

A presente dissertação descreve um sistema de reconhecimento de íris, baseadono modelo proposto por Libor Masek, composto pelas etapas de segmentação,normalização, extração de características (e codificação) e comparação. Modificações,em relação ao modelo original, foram propostas para as etapas de segmentação eextração de características. O uso de filtros log-Gabor 2D é investigado e os resultadosalcançados são comparados com os obtidos pelo método sugerido por Masek.

Um novo esquema para a etapa de segmentação também é apresentado. O métodoproposto combina técnicas de contorno ativo (AC) ao algoritmo Pulling-Pushing (PP –desenvolvido por Zhaofeng He), dando origem ao modelo PP–AC.

Os resultados obtidos neste trabalho corroboram a idéia de que o reconhecimentode indivíduos através da íris possui ótima precisão, constituindo uma excelenteescolha para a construção de sistemas de identificação.

Palavras-chave: Biometria, reconhecimento de íris, segmentação, filtros log-Gabor2D, contornos ativos.

v

Page 8: Universidade Federal de Pernambuco - UFPE · be forgotten or shared and hardly changed. Among various biometric methods, iris recognition systems are frequently cited as one of the

ABSTRACT

In modern societies, security has become an extremely important issue. In recentyears, the demand for proving the identity of an individual in order to have accessto facilities and services have been increasing. Usually this identity verification isperformed by usernames, passwords, tokens and identification cards. However,passwords can be forgotten or guessed and cards can be stolen, lost or copied.

Biometric methods use physical and behavioral characteristics to identify people.In the last decades, these methods have received greater attention because they cannotbe forgotten or shared and hardly changed. Among various biometric methods, irisrecognition systems are frequently cited as one of the most reliable.

This work describes an iris recognition system based on the model proposed byLibor Masek. The system is composed by four modules: segmentation, normalization,feature extraction (and encoding) and matching. We proposed some changes in thesegmentation and feature extraction stages. The modifications in the segmentationprocedure have increased the number of correctly segmented images. In the featureextraction stage, we performed an investigation about the use of 2D log-Gabor filtersto extract and encode iris patterns. The results are compared with the ones obtainedby Masek.

A new algorithm for the segmentation module is also presented. The proposedmethod combines an Active Contour Model with a spring force-driven iterativescheme called Pulling-Pushing developed by Zhaofeng He. The new model is calledPulling & Pushing and Active Contour Model.

The results highlights the idea that biometric systems based on iris recognitionare accurate and reliable, constituting an excelent choice to be used in identificationsystems.

Keywords: Biometrics, iris recognition, segmentation, 2D log-Gabor filters, activecontour.

vi

Page 9: Universidade Federal de Pernambuco - UFPE · be forgotten or shared and hardly changed. Among various biometric methods, iris recognition systems are frequently cited as one of the

SUMÁRIO

Capítulo 1�Introdução 1

1.1 Métodos de identificação . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31.2 Métodos biométricos de identificação . . . . . . . . . . . . . . . . . . . . 41.3 Avaliação de desempenho de sistemas biométricos . . . . . . . . . . . . . 81.4 Motivação . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101.5 Objetivos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121.6 Estrutura da dissertação . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12

Capítulo 2�Reconhecimento de Íris 13

2.1 Aquisição da imagem . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 162.2 Segmentação da íris . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20

2.2.1 O operador integro-diferencial de Daugman . . . . . . . . . . . . 202.2.2 Transformada de Hough . . . . . . . . . . . . . . . . . . . . . . . . 212.2.3 Pulling & Pushing . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23

2.2.3.1 A idéia básica . . . . . . . . . . . . . . . . . . . . . . . . 242.2.3.2 O algoritmo . . . . . . . . . . . . . . . . . . . . . . . . . . 24

2.2.4 Detecção de cílios, pálpebras e reflexões . . . . . . . . . . . . . . . 262.2.4.1 Pálpebras . . . . . . . . . . . . . . . . . . . . . . . . . . . 282.2.4.2 Cílios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 282.2.4.3 Reflexões especulares . . . . . . . . . . . . . . . . . . . . 29

2.3 Normalização . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 302.3.1 Modelo de deformação elástica . . . . . . . . . . . . . . . . . . . . 312.3.2 Modelo de registro de imagens . . . . . . . . . . . . . . . . . . . . 32

2.4 Codificação . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 332.4.1 Filtros Gabor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 342.4.2 Filtros log-Gabor . . . . . . . . . . . . . . . . . . . . . . . . . . . . 392.4.3 Laplaciano da Gaussiana . . . . . . . . . . . . . . . . . . . . . . . 40

vii

Page 10: Universidade Federal de Pernambuco - UFPE · be forgotten or shared and hardly changed. Among various biometric methods, iris recognition systems are frequently cited as one of the

SUMÁRIO viii

2.5 Comparação . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 422.5.1 Distância de Hamming . . . . . . . . . . . . . . . . . . . . . . . . . 422.5.2 Distância Euclidiana ponderada . . . . . . . . . . . . . . . . . . . 442.5.3 Correlação normalizada . . . . . . . . . . . . . . . . . . . . . . . . 45

2.6 Bases de imagens de íris . . . . . . . . . . . . . . . . . . . . . . . . . . . . 452.6.1 CASIA v1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 472.6.2 CASIA v3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 482.6.3 MMU1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49

Capítulo 3�Reconhecimento de íris usando �ltros log-Gabor 2D 50

3.1 Descrição do sistema . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 513.1.1 Segmentação . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 513.1.2 Normalização . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 573.1.3 Codificação . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59

3.1.3.1 Filtro log-Gabor 2D . . . . . . . . . . . . . . . . . . . . . 593.1.3.2 Geração dos templates . . . . . . . . . . . . . . . . . . . . 60

3.1.4 Comparação . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 643.2 Definições importantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 643.3 Experimentos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66

Capítulo 4�Nova proposta para segmentação da pupila 77

4.1 Contornos Ativos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 784.2 Identificação e preenchimento de reflexões na pupila . . . . . . . . . . . 824.3 Considerações sobre o Pulling-Pushing . . . . . . . . . . . . . . . . . . . . 844.4 PP–AC . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85

4.4.1 O algoritmo do PP–AC . . . . . . . . . . . . . . . . . . . . . . . . . 864.5 Experimentos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89

Capítulo 5�Conclusões e Trabalhos Futuros 97

5.1 Conclusões e contribuições . . . . . . . . . . . . . . . . . . . . . . . . . . 975.2 Trabalhos futuros . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102

Page 11: Universidade Federal de Pernambuco - UFPE · be forgotten or shared and hardly changed. Among various biometric methods, iris recognition systems are frequently cited as one of the

LISTA DE FIGURAS

1.1 Métodos tradicionais de identificação pessoal. . . . . . . . . . . . . . . . 41.2 Diferentes tipos de características que podem ser usadas na construção

de sistemas biométricos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51.3 Representação de um sistema biométrico genérico. . . . . . . . . . . . . . 81.4 Ambiente de decisão para sistemas biométricos. . . . . . . . . . . . . . . 91.5 Curva ROC para um sistema biométrico. Os pontos em destaque

representam diferentes pontos de operação do sistema. . . . . . . . . . . 10

2.1 Anatomia do olho humano. A íris encontra-se localizada atrás dacórnea, sendo protegida do ambiente externo. A pupila controlaa quantidade de luz que chega à retina através do ajuste de suasdimensões, realizada pelas fibras musculares que compõem a íris. . . . . 14

2.2 Detalhe de diferentes texturas de íris. . . . . . . . . . . . . . . . . . . . . 152.3 Diferentes sistemas de aquisição de imagem. . . . . . . . . . . . . . . . . 162.4 O projeto Iris on the Move tem como objetivo diminuir as restrições de

captura, adquirindo imagens da íris enquanto um indivíduo caminhaatravés de seu portal. Retirado de [4]. . . . . . . . . . . . . . . . . . . . . 18

2.5 A máscara espacial e seu respectivo espectro de potência utilizadas porDaugman, para rápida avaliação de foco. Retirado de [17]. . . . . . . . . 19

2.6 Imagem segmentada usando o operador integro-diferencial [17].Observe que tanto as bordas da pupila e íris, assim como as bordas daspálpebras inferior e superior foram determinadas. . . . . . . . . . . . . . 21

2.7 Um conjunto de N molas interligadas no ponto O′. O método PP usa aLei de Hooke para, iterativamente, aproximar o ponto O′ de O. Retiradode [42]. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25

ix

Page 12: Universidade Federal de Pernambuco - UFPE · be forgotten or shared and hardly changed. Among various biometric methods, iris recognition systems are frequently cited as one of the

LISTA DE FIGURAS x

2.8 (a) Estimativas iniciais do centro O0p(x0

p, y0p) e raio R0

p; (b) Definiçãodos pontos de borda, cálculo do comprimento médio das molas R(nova estimativa do raio) e da força exercida por cada mola

−→di =

−→fi ; (c) Deslocamento do centro e teste de convergência. (d,e,f)

Segunda iteração do algoritmo; (g,h,i) Iteração final. As duas setase o arco presentes nas imagens (a, d, g) representam os setoresefetivamente utilizados na transformação para coordenadas polares.Este procedimento é opcional e foi usado para evitar a interferência doscílios superiores. Retirado de [42]. . . . . . . . . . . . . . . . . . . . . . . 27

2.9 Exemplo de preenchimento de reflexões utilizando o algoritmodesenvolvido por He et al. [43]. . . . . . . . . . . . . . . . . . . . . . . . . 30

2.10 Transformação da região da íris entre sistemas de coordenadas.Retirado de [12]. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32

2.11 Filtro Gabor unidimensional. . . . . . . . . . . . . . . . . . . . . . . . . . 362.12 Filtro Gabor bidimensional. . . . . . . . . . . . . . . . . . . . . . . . . . . 372.13 Determinação da codificação a ser utilizada quando se projeta o fasor

representativo do pixel no plano complexo. . . . . . . . . . . . . . . . . . 392.14 Perfis da função log-Gabor quando observado em diferentes escalas.

Neste exemplo ω0 = 50 e σ/ω0 = 0, 55 (duas oitavas). . . . . . . . . . . . 412.15 Representação de como é realizado o deslocamento dos bits dos

templates para atingir invariância à rotação. Ao final dos deslocamentosmenor distância é a selecionada como grau de dissimilaridade entre ospadrões. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44

2.16 Exemplos de imagens das bases de imagens públicas Casia v1, Casia v3e MMU1. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47

3.1 Diferenças entre os mapas de ponto de borda, a partir da ponderaçãodos gradientes. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52

3.2 Comparação do efeito da equalização de histograma na geração demapas de pontos de borda. . . . . . . . . . . . . . . . . . . . . . . . . . . 53

3.3 Fluxograma do procedimento utilizado para encontrar as bordas dapupila e íris. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54

Page 13: Universidade Federal de Pernambuco - UFPE · be forgotten or shared and hardly changed. Among various biometric methods, iris recognition systems are frequently cited as one of the

LISTA DE FIGURAS xi

3.4 Detecção de pálpebras: (a) Imagem com bordas da pupila e írisdetectadas; (b) Linhas detectadas através da Transformada de HoughLinear, correspondente as bordas das pálpebras superior e inferior; (c)Linhas horizontais que interceptam as primeiras no ponto de borda daíris mais próximo da pupila; (d) Demarcação das regiões detectadascomo pálpebras. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55

3.5 Exemplos de imagens corretamente segmentadas. As figuras (a, c, e, g)exibem imagens de olhos e as figuras (b, d, f, h) mostram o resultado dasegmentação. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56

3.6 Detalhe da variação do comprimento das linhas radiais ρ, quandoo centros dos círculos que definem a pupila e íris estão em locaisdiferentes. Linhas radiais são traçadas a partir do centro da pupila eo seu novo comprimento ρ′ é determinado para amostrar os pontos queformarão o template uniformemente em cada direção angular. . . . . . . 57

3.7 Exemplos de regiões da íris normalizadas, que aparecem em maiorresolução para facilitar a visualização. As áreas em preto indicamregiões com ruído (cílios ou pálpebras). As imagens mostram a regiãoda íris dos olhos apresentados na Figura 3.5 (b, d, f, h), respectivamente. 58

3.8 Diferentes funções de transferência da componente de simetria par dofiltro Gabor 2D. Note que, à medida que a largura de banda do filtroaumenta, as gaussianas se sobrepõem na origem, resultando em umaindesejada componente DC. . . . . . . . . . . . . . . . . . . . . . . . . . . 60

3.9 (a) Componente radial, ω0 = 1/10 e σω = 0,55. (b) Componente angular,θ0 = 0 e σθ = π/8. (c) Filtro log-Gabor 2D: composição de (a) e (b).Adaptado de [76]. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61

3.10 Filtro log-Gabor 2D (o mesmo apresentado pela Figura 3.9),representado em três dimensões. . . . . . . . . . . . . . . . . . . . . . . . 62

3.11 Exemplos das imagens codificadas (a, c, e, g) e suas respectivasmáscaras de ruído (b, d, f, h). Nas imagens da máscara, as áreas empreto indicam bits válidos. . . . . . . . . . . . . . . . . . . . . . . . . . . . 63

3.12 Exemplos de imagens incorretamente segmentadas. As figuras (a, c, e,g) exibem imagens de olhos e as figuras (b, d, f, h) mostram o resultadoda segmentação. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67

Page 14: Universidade Federal de Pernambuco - UFPE · be forgotten or shared and hardly changed. Among various biometric methods, iris recognition systems are frequently cited as one of the

LISTA DE FIGURAS xii

3.13 Comparações entre filtros log-Gabor 2D com frequência central ω0 =1/14. As imagens apresentam curvas agrupadas de acordo com alargura de banda radial, variando o ângulo de orientação. As figuras(a) e (b) apresentam resultados agrupados para cada uma das possíveisescolhas de largura de banda angular. . . . . . . . . . . . . . . . . . . . . 69

3.14 Comparações entre filtros log-Gabor 2D com frequência central ω0 =1/18. As imagens apresentam curvas agrupadas de acordo com alargura de banda radial, variando o ângulo de orientação. As figuras(a) e (b) apresentam resultados agrupados para cada uma das possíveisescolhas de largura de banda angular. . . . . . . . . . . . . . . . . . . . . 70

3.15 Comparações entre filtros log-Gabor 2D com frequência central ω0 =1/22. As imagens apresentam curvas agrupadas de acordo com alargura de banda radial, variando o ângulo de orientação. As figuras(a) e (b) apresentam resultados agrupados para cada uma das possíveisescolhas de largura de banda angular. . . . . . . . . . . . . . . . . . . . . 71

3.16 Comparações de decidabilidade em função da largura de banda radial,selecionando apenas os filtros com θ0 = 0. . . . . . . . . . . . . . . . . . . 72

3.17 Variação da decidabilidade em função da frequência central. O gráficomostra a comparação para os três melhores resultados encontrados naFigura 3.16. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73

3.18 Ampliação da região da Figura 3.17 que contém os pontos com maiordecidabilidade. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74

3.19 Comparação entre o desempenho dos esquemas de codificação atravésda curva ROC. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75

3.20 Comparação entre o desempenho dos esquemas de codificação atravésda curva ROC. Note que o eixo FAR é mostrado em escala logarítmica. . 76

4.1 Consideração dos possíveis casos de posição da curva. O termo deajuste é minimizado apenas nos casos onde a curva encontra-se sobreas bordas do objeto. Adaptado de [80]. . . . . . . . . . . . . . . . . . . . . 81

4.2 Etapas do processo de identificação e remoção de reflexões proposto. . . 844.3 Fluxograma do algoritmo PP–AC. Adaptado de [78]. . . . . . . . . . . . 864.4 Diferenças na homogeneidade da região da pupila através do uso de

diferentes técnicas para identificação e remoção de reflexões. . . . . . . . 92

Page 15: Universidade Federal de Pernambuco - UFPE · be forgotten or shared and hardly changed. Among various biometric methods, iris recognition systems are frequently cited as one of the

LISTA DE FIGURAS xiii

4.5 Exemplo de imagens corretamente segmentadas. A estrela indica aestimativa inicial do centro e a cruz exibe a posição final do centro. Asimagens (a-b), (c-d) e (e-f) pertencem, respectivamente, as bases CASIAv1, CASIA v3 e MMU1. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93

4.6 Exemplo de imagens incorretamente segmentadas. Os problemas maiscomuns devem-se a reflexões próximas as bordas da pupila, reflexõessecundárias, oclusão excessiva por cílios e sombras. As imagens (a-b),(c-d) e (e-f) pertencem, respectivamente, as bases CASIA v1, CASIA v3e MMU1. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94

4.7 Execução do algoritmo PP–AC. A imagem em segmentação é a mesmada Figura 4.5 (c). As linhas em verde e preto indicam o contorno final emcada iteração. Observe que as reflexões da pupila aparecem preenchidas. 95

4.8 Execução do PP–AC observada através do domínio original da imagem.Em cada iteração o resultado do contorno ativo aparece em verde e, emvermelho, é exibido o círculo candidato a pupila. . . . . . . . . . . . . . 96

5.1 Ambiente de decisão para os filtros Masek e Filtro 2. O gráfico mostraque a melhor separação entre as classes pode não ser obtida utilizandoas retas, possibilitando o uso de métodos de aprendizagem de máquina. 100

Page 16: Universidade Federal de Pernambuco - UFPE · be forgotten or shared and hardly changed. Among various biometric methods, iris recognition systems are frequently cited as one of the

LISTA DE TABELAS

1.1 Exemplos de aplicações de métodos biométricos de identificação. . . . . 6

2.1 Relação de bases de dados de imagens de íris, retirado de [4]. . . . . . . 46

3.1 Quantidade de comparações intra e inter-classes. . . . . . . . . . . . . . . 663.2 Valores base para a investigação sobre a melhor combinação de

parâmetros para o filtro log-Gabor 2D. . . . . . . . . . . . . . . . . . . . . 683.3 Os três filtros candidatos e seus parâmetros. . . . . . . . . . . . . . . . . . 733.4 Valores de decidabilidade, média e desvio padrão das classes intra e

inter, dos quatro filtros usados para avaliar o desempenho. . . . . . . . . 743.5 Taxas CAR, FAR e limiar dos pontos de operação destacados na

Figura 3.19. A última coluna mostra a EER para cada filtro. . . . . . . . . 76

4.1 Bases de dados usadas para avaliar o desempenho do PP–AC. . . . . . . 904.2 Parâmetros utilizados para realizar segmentação de pupila. . . . . . . . . 904.3 Resultado da segmentação de pupila para a base CASIA v1, usando o

PP–AC sem nenhum método de remoção de reflexões. . . . . . . . . . . . 914.4 Taxa de acerto para a segmentação de pupila, utilizando o PP–AC e uma

técnica de identificação e remoção de reflexões. . . . . . . . . . . . . . . . 91

xiv

Page 17: Universidade Federal de Pernambuco - UFPE · be forgotten or shared and hardly changed. Among various biometric methods, iris recognition systems are frequently cited as one of the

CAPÍTULO 1

INTRODUÇÃO

Através da história os seres humanos demonstraram a necessidade de secomunicar e trocar informações. As razões que levam a esta necessidade são as maisdiversas possíveis: para emitir alarmes, prover necessidades comuns, estabelecer osenso de comunidade e empatia, fornecer informações e notícias, etc. Entre muitosoutros aspectos, uma civilização é caracterizada pela necessidade e pela habilidade desua população em se comunicar e trocar informações.

Essas habilidades, entretanto, sempre foram prejudicadas por fatores comodistância, tempo ou localização. As pessoas podem sinalizar ou se comunicardiretamente umas com as outras, mas não a grandes distâncias. Um indivíduo podereduzir a distância entre ele e a pessoa com quem deseja se comunicar, entretanto,este processo pode levar tempo e nem sempre há essa disponibilidade. Existemocasiões nas quais a localização de um dos membros da comunicação pode dificultarou até torná-la impossível. Uma outra preocupação antiga refere-se à recepção demensagens: o desejo por privacidade, segurança, autenticidade e garantia de recepçãoinfluenciaram a maneira como métodos de comunicação são utilizados e, muitasvezes, guiaram o desenvolvimento de novas tecnologias.

Desde o início da década de 80 o mundo vive a chamada Era da Informação.Esta Era é caraterizada pela disseminação de emergentes tecnologias de informação ecomunicação e na capacidade que essas tecnologias proporcionam para a superaçãode barreiras impostas as comunicações pela distância, tempo e localização e parasuperar dificuldades inerentes a capacidade humana de processar informações etomar decisões. Muitos especialistas afirmam que a informação e a comunicação serãoas forças dominantes que determinarão e modelarão as ações, interações, atividades einstituições humanas [1].

A atual Era da Informação é marcada pela Revolução do Conhecimento, poisos avanços recentes nas tecnologias de informação alteraram significativamentea política, a economia, a sociologia, a cultura e, principalmente, a criação deconhecimento e sua distribuição [1]. Estes novos conteúdos possuem, em geral,propósito determinado e são de utilidade ao ser humano. Eles podem ser

1

Page 18: Universidade Federal de Pernambuco - UFPE · be forgotten or shared and hardly changed. Among various biometric methods, iris recognition systems are frequently cited as one of the

INTRODUÇÃO 2

armazenados ou transferidos e, devido a estas características, pode surgir anecessidade de proteger o acesso a estas informações.

Diferentes tipos de informações necessitam de variados níveis de proteção. Háconteúdos que não precisam ser protegidos, como acontece na educação básica.Entretanto, existem informações sensíveis, como o desenvolvimento de novastecnologias ou produtos, localização de instalações militares, estratégias de atuaçãode segurança (para governos) e planos de ataque, para as quais deseja-se que apenasum limitado grupo de pessoas possa ter acesso.

Dessa forma, há uma crescente demanda em prover maior segurança no acesso,tanto virtual como físico, a informações e instalações apenas a pessoas autorizadas.Assim, a segurança tornou-se uma questão de extrema importância para a sociedadeatual. Atribui-se a ela a idéia de estar livre de perigo ou de perda (o estar seguro). Oconceito de segurança e proteção está tão intimamente ligado ao homem que remontaaos tempos mais antigos da humanidade, sendo modificado e aprimorado ao longodos anos, refletindo as transformações que ocorreram na sociedade.

Os últimos anos foram marcados por uma crescente preocupação pela garantiade segurança, tanto no cenário nacional como no mundial. Eventos relacionadosao aumento da criminalidade, roubo e exposição de informações confidenciais e,principalmente, devido ao extremismo religioso, como nos atentatos terroristas de 11de setembro de 2001 em Nova Iorque, de 11 de março de 2004 em Madri, de 7 dejulho de 2005 em Londres, além de inúmeros outros atentados ocorridos ao longo dadécada [2], intensificaram a necessidade dos governos e empresas investirem grandesquantidades de recursos em soluções de segurança.

Entre diversos tipos de soluções de segurança, os métodos de identificaçãopossuem grande importância, pois tanto permitem comprovar a identidade dosindivíduos como permitem garantir a autenticidade de informações. Esses métodostêm sido utilizados há muito tempo: Chemello [3] cita que os Babilônicos, já em 2000a.C, utilizavam padrões de impressão digital em barro para acompanhar documentose, assim, prevenir falsificações.

À medida que as pessoas tornam-se cada vez mais conectadas eletronicamente, anecessidade de métodos de identificação pessoal confiáveis torna-se cada vez maisevidente, pois ninguém deseja ter seus dados pessoais, bens materiais ou outrasinformações expostas a desconhecidos.

Page 19: Universidade Federal de Pernambuco - UFPE · be forgotten or shared and hardly changed. Among various biometric methods, iris recognition systems are frequently cited as one of the

1.1 MÉTODOS DE IDENTIFICAÇÃO 3

1.1 MÉTODOS DE IDENTIFICAÇÃO

Entende-se como Identificação Pessoal todo e qualquer processo que visaassociar uma identidade a um indivíduo. Esta associação pode ocorrer deduas maneiras: verificação (ou autenticação) e reconhecimento, também conhecidacomo identificação. Na verificação ocorre a confirmação (ou não) da identidadereivindicada. Nela tenta-se responder a seguinte pergunta: "Esta pessoa é quem afirmaser?". Já no reconhecimento acontece a determinação da identidade de um indivíduo.Neste caso, a questão a ser respondida é: "Quem é esta pessoa?", realizando uma buscapor sua identidade a partir de um conjunto previamente conhecido.

As técnicas que se baseiam em posse ou conhecimento são as duas abordagensmais difundidas e utilizadas na construção de sistemas de identificação pessoal.Para sistemas baseados em posse, como o próprio nome sugere, a confirmaçãode identidade é realizada através de objetos que o indivíduo possui. Cartões deidentificação, chaves, carteira de motorista, passaporte e cartões de crédito sãoexemplos de tais objetos. Analogamente, nos sistemas baseados em conhecimento,a confirmação de identidade é realizada através de informações conhecidas peloindivíduo como senhas, nomes de usuário, números de identificação pessoal (PIN- personal identification number), entre outros. A Figura 1.1 mostra exemplos dessesmétodos.

Como nenhuma das abordagens é baseada em características próprias, inerentesao indivíduo, elas possuem sérias desvantagens: objetos podem ser perdidos,roubados ou copiados e nomes de usuários e senhas podem ser esquecidos ou atéadivinhados [4]. Outro grande problema refere-se ao desrespeito aos protocolosde segurança: Jain et al. [5] apresentam dados que mostram que 25% das pessoasguardam suas senhas próximas aos cartões de crédito. Este tipo de comportamentocompromete todo o esquema de segurança quando os cartões são perdidos ouroubados.

A maior desvantagem desses métodos de identificação reside na incapacidadede distinguir entre um impostor que, de forma fraudulenta, adquiriu informaçõesou objetos válidos, e uma pessoa devidamente cadastrada e autorizada (um usuáriogenuíno). Este tipo de situação não mais condiz com as necessidades de segurança daatual sociedade da informação. Dessa forma, o interesse na melhoria dos métodos deidentificação é cada vez maior.

Page 20: Universidade Federal de Pernambuco - UFPE · be forgotten or shared and hardly changed. Among various biometric methods, iris recognition systems are frequently cited as one of the

1.2 MÉTODOS BIOMÉTRICOS DE IDENTIFICAÇÃO 4

(a) Cartões de crédito ou débito. (b) Cartões de Identificação.

(c) Carteira de Motorista. (d) Nome de usuário e senha.

Figura 1.1: Métodos tradicionais de identificação pessoal.

1.2 MÉTODOS BIOMÉTRICOS DE IDENTIFICAÇÃO

Apesar de não serem recentes, as pesquisas que utilizam informações biométricasforam impulsionadas nas últimas décadas pela crescente necessidade em aumentara confiabilidade dos sistemas de segurança e, assim, diminuir a possibilidade defraudes.

De acordo com a etimologia, o significado da palavra biometria advém do grego,onde Bios = vida e metron = medida, ou seja, o termo biometria representa a medidada vida. Métodos biométricos de identificação referem-se, então, a abordagens queutilizam características fisiológicas (físicas ou químicas) ou comportamentais paracomprovar a identidade. Dentre características biométricas citam-se: impressãodigital, voz, palma da mão, face, assinatura, dinâmica da digitação, retina, íris, entreoutros [5, 6]. A Figura 1.2 exibe algumas dessas características.

O uso de tais atributos resulta em uma mudança de paradigma: ao contráriodas abordagens tradicionais, baseadas em posse ou conhecimento, a associação

Page 21: Universidade Federal de Pernambuco - UFPE · be forgotten or shared and hardly changed. Among various biometric methods, iris recognition systems are frequently cited as one of the

1.2 MÉTODOS BIOMÉTRICOS DE IDENTIFICAÇÃO 5

(a) Impressão Digital. (b) Palma da Mão. (c) Orelha.

(d) Face. (e) Íris. (f) Dinâmica daDigitação.

(g) Veias da Mão. (h) Retina. (i) Termografia Facial.

(j) Voz. (k) Assinatura. (l) Modo de Caminhar.

Figura 1.2: Diferentes tipos de características que podem ser usadas na construção desistemas biométricos.

da identidade passa a ser baseada no que o indivíduo é ou no que ele faz (oucomo faz). Isto permite que as informações biométricas não possam ser esquecidasou compartilhadas e dificilmente são reproduzidas, copiadas ou modificadas, semassumir certo risco.

Devido ao fato de grande parte das caraterísticas fisiológicas ou comportamentaispossuírem alta variabilidade entre indivíduos, os métodos biométricos de

Page 22: Universidade Federal de Pernambuco - UFPE · be forgotten or shared and hardly changed. Among various biometric methods, iris recognition systems are frequently cited as one of the

1.2 MÉTODOS BIOMÉTRICOS DE IDENTIFICAÇÃO 6

identificação são inerentemente mais confiáveis e, sobretudo, possuem maiorcapacidade para diferenciar um impostor de um usuário genuíno. Essas vantagenssobre os métodos tradicionais possibilitaram o surgimento de um grande número deaplicações nas áreas comercial, governamental e forense [5, 6, 7]. A Tabela 1.1 mostraalgumas das possíveis aplicações de biometria.

Tabela 1.1: Exemplos de aplicações de métodos biométricos de identificação.

Governamental Comercial Forense

Cartões de identificação Controle de logins Investigações criminais

Controle de fronteiras Transações bancárias Identificação de corpos

Eleições1 Controle de acesso Determinação de paternidade

Passaporte Comércio eletrônico Procura por desaparecidos

Virtualmente qualquer característica física pode ser reivindicada para uso emsistemas de identificação. Entretanto, nem todas são viáveis. Um atributo biométricoideal deve ser:

• Universal – ou seja, todas as pessoas devem possuí-lo;

• Único – duas pessoas não devem compartilhar a mesma característica ou,analogamente, ela deve variar muito entre os indivíduos;

• Permanente – o atributo não deve se modificar ao longo do tempo, ou ser dedifícil alteração;

• Coletável – a característica precisa ser acessível e facilmente representada (ouquantificada).

A prática, entretanto, revela que um atributo biométrico que satisfaça as exigênciasacima descritas pode não ser uma escolha viável para a construção de um sistema deidentificação. O projetista também deve considerar outros fatores, incluindo:

• Desempenho: questões relativas à precisão, à velocidade, à robustez e aosrecursos necessários à sua execução;

1Desde 2006 o Tribunal Superior Eleitoral (TSE) planeja a utilização de urnas eletrônicas comidentificação biométrica através da impressão digital [8]. Em 2008 ocorreu o primeiro teste em trêscidades, com aproximadamente 45 mil eleitores. A expectativa do TSE é que até 2018 todos os brasileirosjá estejam cadastrados no novo sistema [9].

Page 23: Universidade Federal de Pernambuco - UFPE · be forgotten or shared and hardly changed. Among various biometric methods, iris recognition systems are frequently cited as one of the

1.2 MÉTODOS BIOMÉTRICOS DE IDENTIFICAÇÃO 7

• Aceitabilidade2: o quão dispostas as pessoas estão para aceitarem o usocotidiano de determinada biometria;

• Proteção contra fraudes: facilidade de burlar o sistema através do uso deesquemas fraudulentos.

Um sistema biométrico de identificação é, em sua essência, um sistema dereconhecimento de padrões, possuindo dois módulos ou etapas: treinamento (registroou cadastramento) e identificação (ou reconhecimento).

Durante a etapa de cadastramento, a característica biométrica é inicialmentecapturada por um sensor, que a representa de forma digital. A representação digitalé, então, processada por um extrator de informações, que procura pelas característicasmais discriminantes, de modo a gerar uma representação mais compacta, chamadade template, modelo ou protótipo. Dependendo da aplicação, o armazenamento dostemplates pode ser centralizado em um banco de dados ou entregue aos usuáriosatravés de cartões inteligentes (smartcards) ou outro tipo de mídia. O cadastramentopode funcionar durante todo ciclo de vida do sistema, devido à necessidade deinclusão de novos usuários.

Na etapa de reconhecimento (que tanto pode ser uma verificação comoidentificação), um leitor biométrico captura a característica e a transforma para oformato digital. Em seguida, o extrator de características processa os dados a fimde produzir uma representação similar aos templates previamente armazenados. Arepresentação é repassada para um módulo comparador, que a compara a outrosmodelos, a fim de associar o indivíduo a uma identidade. Este processo é ilustradona Figura 1.3.

Sistemas biométricos podem operar nos contextos de verificação e dereconhecimento. Na verificação, um usuário diz possuir determinada identidadee o sistema simplesmente aceita ou rejeita esta reivindicação, comparando ascaracterísticas biométricas deste usuário com as informações da identidade de quemdiz ser, armazenadas em sua base de dados. Assim, ocorre uma busca do tipo um-para-um.

2A aceitabilidade pode, sozinha, determinar o sucesso de um sistema biométrico. No Japão, porexemplo, sistemas de controle de acesso que utilizam a palma da mão não recebem aprovação, pois osjaponeses não gostam da idéia de compartilhar com várias pessoas a superfície na qual põem a mão,devido a problemas relacionados à higiene.

Outro exemplo de problema relativo à aceitabilidade seria o de tentar utilizar reconhecimento facialem países muçulmanos, como o Afeganistão. Lá as mulheres, devido a questões religiosas, usamvestimentas que cobrem todo o corpo, deixando apenas parte dos olhos e mãos expostas.

Page 24: Universidade Federal de Pernambuco - UFPE · be forgotten or shared and hardly changed. Among various biometric methods, iris recognition systems are frequently cited as one of the

1.3 AVALIAÇÃO DE DESEMPENHO DE SISTEMAS BIOMÉTRICOS 8

Figura 1.3: Representação de um sistema biométrico genérico.

No reconhecimento, o sistema tenta determinar a identidade de um usuário,extraindo suas características biométricas e as comparando com todas as outraspresentes em sua base. Caso nenhuma associação possa ser estabelecida, osistema rejeita o usuário. Desta forma, ocorre uma busca do tipo um-para-muitos.Obviamente, o reconhecimento exige melhor desempenho das técnicas (assim comodos recursos computacionais) que a verificação, em primeiro lugar porque umnúmero maior de comparações precisa ser realizado e em segundo lugar porque aprobabilidade de tomar uma decisão errada aumenta, a medida que o número decomparações cresce [6, 5].

1.3 AVALIAÇÃO DE DESEMPENHO DE SISTEMAS BIOMÉTRICOS

A avaliação do desempenho de sistemas biométricos de identificação é uma dasáreas de pesquisa mais desafiadoras. O desempenho é avaliado em termos desua precisão, velocidade e armazenamento, entretanto, outros fatores, como custo efacilidade de uso, também afetam a eficácia [5].

Ao contrário do que se pode pensar, sistemas de identificação baseados emcaracterísticas biométricas não são perfeitos. Existem casos nos quais aceitam umimpostor como sendo um usuário genuíno (um erro chamado de falsa aceitação), emoutros, rejeitam um usuário válido (falsa rejeição). A probabilidade da ocorrênciadesses dois erros são chamadas de taxa de falsa aceitação (FAR – False AcceptanceRate) e taxa de falsa rejeição (FRR – False Rejection Rate). Os valores complementares aestas duas taxas são conhecidos como taxa de correta rejeição (CRR – Correct Rejection

Page 25: Universidade Federal de Pernambuco - UFPE · be forgotten or shared and hardly changed. Among various biometric methods, iris recognition systems are frequently cited as one of the

1.3 AVALIAÇÃO DE DESEMPENHO DE SISTEMAS BIOMÉTRICOS 9

Figura 1.4: Ambiente de decisão para sistemas biométricos.

Rate) e taxa de correta aceitação (CAR – Correct Acceptance Rate), respectivamente.Considerando que a distribuição das distâncias entre os templates para as classes deusuários genuínos e impostores podem ser modeladas por gaussianas, a Figura 1.4exibe a localização das regiões ocupadas por cada taxa. A magnitude dos errosdepende de seu ponto de operação (limiar) e informa o quão rigoroso o sistema é.A relação entre as taxas CAR e FAR (ou FAR e FRR) através de diferentes pontosde operação é melhor observada com o auxílio da curva ROC (Receiver OperatingCharacteristics).

Curvas ROC são técnicas gráficas que permitem visualizar, organizar e selecionarclassificadores baseados em seu desempenho [10]. Elas têm seu uso bastantedifundido na teoria de detecção de sinais para representar a relação existente entreas taxas de acerto e erro de classificadores. As curvas ROC ganharam destaquena comunidade de aprendizagem de máquina, devido a simples taxa de acertoser, sozinha, considerada uma métrica pobre para a avaliação de desempenho,principalmente em problemas de classes desbalanceadas, como no caso de sistemasbiométricos. A Figura 1.5 exibe um exemplo de uma curva ROC.

Apesar de existirem muitas considerações sobre o melhor ponto de operaçãopara um sistema, o fator mais importante é a aplicação para o qual será destinado.

Page 26: Universidade Federal de Pernambuco - UFPE · be forgotten or shared and hardly changed. Among various biometric methods, iris recognition systems are frequently cited as one of the

1.4 MOTIVAÇÃO 10

Figura 1.5: Curva ROC para um sistema biométrico. Os pontos em destaquerepresentam diferentes pontos de operação do sistema.

Aplicações de controle de acesso a instalações de alta segurança, nas quais apreocupação contra invasões é grande, operam com uma FAR baixa. Já aplicaçõesforenses, onde a necessidade de encontrar um criminoso supera os inconvenientes deexaminar um grande número de suspeitos, devem operar com uma FAR relativamentealta. Aplicações civis, de uso geral, tentam operar em um ponto onde tanto a FARcomo a FRR são baixas. A taxa de erro de um sistema que opera no ponto onde FAR= FRR, recebe o nome de taxa de igual erro (EER – Equal Error Rate) e, muitas vezes, éusada como terceiro parâmetro na avaliação do desempenho destes sistemas.

O desempenho de um sistema biométrico é considerado satisfatório quando osriscos (benefícios) associados aos erros na tomada de decisão (para um determinadoponto de operação na curva ROC) são aceitáveis. De maneira similar, o desempenho éconsiderado insatisfatório quando estes riscos são inaceitáveis (insuficientes).

1.4 MOTIVAÇÃO

A correta identificação das pessoas é um dos fatores que contribui para obom funcionamento das atividades sociais, financeiras e políticas. Entretanto, aidentificação sem falhas ainda é um problema extremamente difícil.

Métodos biométricos de identificação, diferentemente dos métodos tradicionais,

Page 27: Universidade Federal de Pernambuco - UFPE · be forgotten or shared and hardly changed. Among various biometric methods, iris recognition systems are frequently cited as one of the

1.4 MOTIVAÇÃO 11

utilizam características inerentes aos indivíduos para realizar a identificação. Elesvêm recebendo bastante atenção nos últimos anos devido à necessidade de aumentara segurança dos processos de identificação utilizados na vida cotidiana. Doisfatores podem ser considerados como principais na disseminação do uso de sistemasbiométricos: as características biométricas não podem ser esquecidas e estãodisponíveis para uso na maior parte do tempo.

Entre diversos métodos biométricos, os sistemas baseados no reconhecimento deíris ganharam destaque, sendo frequentemente citados como um dos mais precisos [4,5, 6, 21, 7]. Acredita-se que cada íris humana, devido a características de sua formação,possua um padrão de textura único, permitindo que seu uso seja apropriado para adiferenciação dos indivíduos. Comparada com outras biometrias, como a impressãodigital, o reconhecimento de íris possui uma história recente, o que o torna um campode pesquisas bastante ativo e aberto para o surgimento de novas técnicas.

Devido aos bons resultados publicados na literatura, os sistemas dereconhecimento de íris despertaram grande interesse em seu estudo. O interesseultrapassou a esfera acadêmica e virou questão de segurança nacional nos EmiradosÁrabes Unidos, no controle de fronteiras, como descrito por Al-Raisi e Al-Khouri [11].

No Brasil, as pesquisas sobre reconhecimento de íris ainda são incipientes. Apósuma vasta busca, poucos trabalhos foram encontrados: as dissertações de mestradode Pereira [12], Nascimento [13] e Chavez [14] e suas respectivas publicações em anaisde congressos. Além destes, também foram encontrados alguns trabalhos teóricose seminários que fazem parte de disciplinas de biometria. Eles descrevem, em suamaioria, as pesquisas publicadas por Daugman [15, 16, 17].

Em sistemas de reconhecimento de íris duas etapas possuem destaque: asegmentação, responsável por determinar a região da íris em uma imagem, ea análise e representação da textura, que extrai características para formar umarepresentação mais compacta, sem perder o poder discriminante. Na etapa de análisee representação, o uso de filtros é predominante. Dentre vários filtros utilizados,estão os filtros log-Gabor 2D. Apesar de já existirem trabalhos que utilizam estesfiltros, as publicações são pobres de análise e comparação, o que motiva realizar umainvestigação sobre a obtenção dos melhores parâmetros para compor este filtro. Naetapa de segmentação, a precisa identificação da região da íris é primordial, pois,regiões incorretamente segmentadas corrompem os modelos biométricos, afetando odesempenho geral do sistema. Segmentação é um problema de extrema importânciana área de processamento de imagens e o estudo, melhoria e desenvolvimento de

Page 28: Universidade Federal de Pernambuco - UFPE · be forgotten or shared and hardly changed. Among various biometric methods, iris recognition systems are frequently cited as one of the

1.5 OBJETIVOS 12

novas técnicas é de interesse para a comunidade científica. Dessa forma, novosmétodos mais gerais e que consigam realizar esta determinação de forma automáticae correta são necessários.

1.5 OBJETIVOS

Os principais objetivos deste trabalho são:

• Realizar um estudo do estado da arte em reconhecimento de íris, abordando osaspectos técnicos e científicos relacionados à construção desses sistemas;

• Realizar uma investigação sobre o uso de filtros log-Gabor 2D na extração decaracterísticas dos padrões de textura da íris;

• Analisar um sistema completo de reconhecimento de íris, avaliar seudesempenho e confirmar sua capacidade de distinção dos indivíduos;

• Abordar o problema da identificação da região da íris, propondo um novométodo para realizar a segmentação de pupila.

Além desses, outros objetivos também podem ser destacados:

• Contribuir para a disseminação das pesquisas em reconhecimento de íris noBrasil, ajudando na formação de capital humano nacional;

• Gerar material didático que ajude na exemplificação de aplicações práticas paraas disciplinas de processamento de sinais e imagens.

1.6 ESTRUTURA DA DISSERTAÇÃO

Este trabalho está organizado da seguinte forma: o Capítulo 2 apresenta a estruturaocular, as motivações para usar a íris como biometria e a revisão da literaturasobre os sistemas de reconhecimento de íris. O Capítulo 3 descreve o sistema dereconhecimento de íris desenvolvido para realizar a investigação sobre o uso de filtroslog-Gabor 2D na extração das informações de textura e avalia seu desempenho. NoCapítulo 4 é apresentada um novo método para realizar a identificação da região dapupila, baseado na combinação de técnicas de segmentação via contornos ativos e Leide Hooke. Nele também são exibidos os resultados dos experimentos realizados. OCapítulo 5 finaliza a dissertação com as conclusões, contribuições e recomendaçõespara trabalhos futuros.

Page 29: Universidade Federal de Pernambuco - UFPE · be forgotten or shared and hardly changed. Among various biometric methods, iris recognition systems are frequently cited as one of the

CAPÍTULO 2

RECONHECIMENTO DE ÍRIS

A íris é "o tecido colorido que circunda a pupila". Sua estrutura é formada pelacombinação de camadas de células epiteliais pigmentadas (que definem sua cor),estroma (tecido conjuntivo) e vasos sanguíneos. A íris também é composta por fibrasmusculares (dilatador e esfíncter) que, ao se contraírem ou dilatarem, controlam aquantidade de luz que entra através da pupila para excitar a retina [18, 19].

À frente da íris está posiciona a córnea, uma membrana transparente que ofereceproteção contra o ambiente externo. Um pequeno espaço, chamado de câmaraanterior, separa a córnea da íris. Ele é preenchido pelo humor aquoso, um líquidoque controla a pressão intra-ocular. A íris é anexada ao corpo ciliar através de suabase. Esta disposição, observada através de um corte transversal do olho mostrado naFigura 2.1, faz com que a íris seja o único órgão interno, visível externamente.

A íris tem sua formação iniciada a partir do terceiro mês de gestação, estabilizando-se nos dois primeiros anos após o nascimento, permanecendo praticamente constanteao longo da vida [20, 18, 17]. Ela é composta por uma série de camadas [18]:a superfície posterior é formada por células epiteliais pigmentadas, o que a tornaopaca e impede a passagem de luz. Sob esta superfície encontram-se os músculosresponsáveis pela abertura e fechamento da pupila. Em seguida há uma camada detecido conjuntivo, o estroma, onde estão dispostos alguns vasos sanguíneos de formaradial. A última camada da íris é mais densa que a anterior e também contém célulaspigmentadas. Nela, uma formação aparentemente circular e cheia de estrias, chamadade colarete, divide a superfície em duas regiões: as zonas pupila e ciliar.

A complexidade fisiológica do órgão resulta na formação de padrões de texturaque possuem comportamento caótico. As formações possíveis incluem, entre outros,sulcos, vales, criptas, ranhuras e manchas, algumas das quais são observadas naFigura 2.2. Pesquisadores também observaram que os padrões de textura da írissão diferentes entre gêmeos idênticos e até entre olhos de uma mesma pessoa,indicando que sua formação é independe de características genéticas (exceto a suacor) [18, 20, 21]. Juntas, as características descritas: estabilidade, distinção e proteção,fazem da íris uma excelente escolha para identificação biométrica.

13

Page 30: Universidade Federal de Pernambuco - UFPE · be forgotten or shared and hardly changed. Among various biometric methods, iris recognition systems are frequently cited as one of the

RECONHECIMENTO DE ÍRIS 14

Figura 2.1: Anatomia do olho humano. A íris encontra-se localizada atrás da córnea,sendo protegida do ambiente externo. A pupila controla a quantidade de luz quechega à retina através do ajuste de suas dimensões, realizada pelas fibras muscularesque compõem a íris.

A história do reconhecimento da íris remonta a meados do século 19, quandoo médico francês Alphonse Bertillon, sugeriu que a cor da íris fosse utilizadacomo característica discriminante [22]. No entanto, acredita-se que a idéia do usode padrões da íris para identificação, como é realizado hoje, foi introduzida pelaprimeira vez pelo cirurgião oftalmológico Frank Burch, em 1936 [23]. Em 1987,dois oftalmologistas, Leonard Flom e Aran Safir, patentearam o protótipo de umsistema [24] e propuseram a John Daugman, na época professor da Universidade deHarvard, estudar a possibilidade de desenvolver um algoritmo de reconhecimento deíris. Após alguns anos de pesquisa, Daugman desenvolveu os algoritmos, os métodosmatemáticos e as técnicas necessárias para identificar, codificar e comparar os padrõesde textura da íris, de maneira eficiente, com alta confiabilidade. Além disso, elepublicou suas técnicas e resultados [15, 16, 23, 17], que o tornaram referência paraa área.

O sistema de reconhecimento de íris proposto por Daugman despertou tantointeresse, devido ao seu potencial comercial, que ele criou a empresa IridianTechnologies, para a qual repassou sua patente [16], a fim de explorá-lacomercialmente. Este potencial despertou o interesse de outras empresas, comoa IrisGuard Inc., IBM e Securimetrics Inc., que também passaram a comercializar

Page 31: Universidade Federal de Pernambuco - UFPE · be forgotten or shared and hardly changed. Among various biometric methods, iris recognition systems are frequently cited as one of the

RECONHECIMENTO DE ÍRIS 15

Figura 2.2: Detalhe de diferentes texturas de íris.

soluções para o reconhecimento de íris. Ainda hoje, mais de quinze anos apósa primeira publicação, a maior parte dos sistemas comerciais utilizam tecnologiasbaseadas nos estudos publicados por Daugman [15, 17, 4].

Apesar do prolongado tempo desde quando foi concebido, o sistema de Daugmancontinua sendo considerado estado-da-arte [4]. Logo após sua primeira publicação,pesquisadores ao redor do mundo iniciaram o desenvolvimento de novos algoritmospara o reconhecimento de íris. Dentre os mais conhecidos citam-se Wildes et al. [25,26, 27], Boles e Boashash [28, 29], Tisse et al. [30], Zhu et al. [31], Lim et al. [32], Noh etal. [33] e Ma et al. [34].

A partir de 2001 verificou-se um aumento significativo na produção científica sobreo tema. Grande parte dos novos trabalhos, ao contrário dos citados anteriormente,possuem foco na exploração de problemas encontrados em módulos específicos dossistemas [4].

Os sistemas de reconhecimento de íris podem ser compostos por vários módulos,entretanto, quatro são considerados fundamentais [4]: (1) aquisição da imagem, (2)segmentação da íris, (3) análise e representação da textura da íris e (4) comparação dasrepresentações.

A análise e representação da textura é uma etapa que, de acordo com a abordagemutilizada, pode possuir diferentes fases. Os sistemas mais conhecidos [15, 25, 28]a dividem em: normalização, extração de características e codificação. Nestetrabalho, será considerado que um sistema de reconhecimento de íris é compostopelos seguintes módulos: (1) aquisição da imagem, (2) segmentação da íris, (3)normalização, (4) codificação e (5) comparação. Cada módulo será explicado em

Page 32: Universidade Federal de Pernambuco - UFPE · be forgotten or shared and hardly changed. Among various biometric methods, iris recognition systems are frequently cited as one of the

2.1 AQUISIÇÃO DA IMAGEM 16

detalhes, nas seções a seguir.

2.1 AQUISIÇÃO DA IMAGEM

Como primeira etapa de um sistema de reconhecimento de íris, a aquisição daimagem é responsável pela captura e análise de sua qualidade, seguida ou não deaprovação, para que a mesma possa ser utilizada nas etapas subsequentes. Apesar deexistirem pesquisas que tentam realizar a captura da imagem com menor cooperaçãodo usuário, como no projeto Iris on the Move [35], esta ainda não é uma práticacomum. Até 2007, todos os sistemas comerciais ainda restringiam fortemente ascondições de aquisição da imagem e necessitavam, de alguma forma, da cooperaçãodos usuários [4].

A captura da imagem do olho é realizada através de câmeras digitais, utilizandopreferencialmente iluminação infravermelha (com comprimento de onda na faixaentre 700-900 nm). O usuário é conduzido ao correto posicionamento através do usode marcas visuais ou através do uso de informações sonoras. Este posicionamento visa

(a) (b)

(c) (d)

Figura 2.3: Diferentes sistemas de aquisição de imagem.

Page 33: Universidade Federal de Pernambuco - UFPE · be forgotten or shared and hardly changed. Among various biometric methods, iris recognition systems are frequently cited as one of the

2.1 AQUISIÇÃO DA IMAGEM 17

garantir que o olho esteja em foco e possua um tamanho mínimo. Daugman sugereque a íris deva possuir diâmetro de, pelo menos, 140 pixels [17]. De acordo com aresolução da imagem, a posição do usuário em relação à câmera pode variar de algunscentímetros a alguns metros.

A iluminação é a maior preocupação desta etapa do sistema. Tanto o esquema e otipo de iluminação usados no aparato de captura, como as condições do ambiente noqual estão inseridos afetam bastante a qualidade das imagens. A luz branca (espectrovisível) não é tão frequentemente usada na captura, devido a problemas relacionadosao baixo contraste entre as regiões da pupila e íris nos indivíduos que apresentampigmentação da íris escura. O tipo de iluminação mais recomendado e utilizado é oinfravermelho, pois permite a captura dos detalhes de textura, mesmo quando írisde pigmentação escura são fotografadas [17]. Apesar de apresentarem forte apelovisual, informações sobre pigmentação não são tão discriminantes quanto os padrõesde textura e, por isso, as imagens capturadas são comumente representadas em escalade cinza. Exemplos de sistemas de aquisição são mostrados na Figura 2.3.

O projeto Iris on the Move1, descrito por Matey et al. [35] é, até hoje, o sistemade aquisição que apresenta as menores restrições de captura. Seu objetivo é adquiririmagens da íris à medida que uma pessoa caminha através de um portal (ou pontode controle), tal qual aqueles encontrados em aeroportos. O sistema utiliza câmerasde alta resolução, iluminação estroboscópica sincronizada por vídeo e segmentaçãobaseada nas diferenças de reflexão. A uma distância de 3 metros, o sistema é capaz decapturar imagens em um volume de 20 cm de largura por 10 cm de profundidade e 20cm de altura. O cenário para o qual foi projetado considera que indivíduos cooperemmoderadamente, ou seja: que olhem para frente e que não possuam comportamentoque evite a captura da íris, tais como possuir estrabismo ou olhar para a direçãocontrária à câmera. Um exemplo do portal utilizado no projeto Iris on the Move podeser observado na Figura 2.4.

A qualidade das imagens da íris é uma função que engloba vários fatores, entreeles: foco, presença de oclusões (tais como cílios e pálpebras), iluminação (presençade reflexões e sombras) e número de pixels da região da íris. Apesar de estudos [36,37] afirmarem que o uso de uma métrica para avaliação da qualidade das imagenspode afetar o desempenho final do sistema (seja através de rejeição das imagens ruinsou por ponderação na comparação), não existe consenso sobre qual medida deva ser

1Através do link: http://www.sarnoff.com/products/iris-on-the-move/demo é possível assistir aum vídeo que demonstra o funcionamento do sistema e suas possíveis aplicações.

Page 34: Universidade Federal de Pernambuco - UFPE · be forgotten or shared and hardly changed. Among various biometric methods, iris recognition systems are frequently cited as one of the

2.1 AQUISIÇÃO DA IMAGEM 18

Figura 2.4: O projeto Iris on the Move tem como objetivo diminuir as restrições decaptura, adquirindo imagens da íris enquanto um indivíduo caminha através de seuportal. Retirado de [4].

utilizada.Vários pesquisadores têm estudado diferentes formas para determinar o foco de

uma imagem, visto que seu conceito visual varia dependendo do tipo de aplicação.Fatores como a ampliação óptica, restrições de iluminação, movimentação do olho,distância e tamanho aumentam a dificuldade de adquirir imagens de íris com boaqualidade.

Zhang e Salganicoff [38], em 1999, patentearam um método que avalia o focode uma imagem através da análise da nitidez da fronteira pupila/íris. Daugman,entretanto, sugere que o foco pode ser medido através do cálculo das componentesde alta frequência, presentes no espectro de potência da imagem [17]. Ele sustentasua análise afirmando que o desfocamento óptico pode ser totalmente descrito comoum fenômeno no domínio 2D de Fourier. No domínio da imagem, o desfocamentopode ser representado como a convolução de uma imagem em foco por uma função

Page 35: Universidade Federal de Pernambuco - UFPE · be forgotten or shared and hardly changed. Among various biometric methods, iris recognition systems are frequently cited as one of the

2.1 AQUISIÇÃO DA IMAGEM 19

(a) Máscara de convolução espacial8x8.

(b) Espectro de potência.

Figura 2.5: A máscara espacial e seu respectivo espectro de potência utilizadas porDaugman, para rápida avaliação de foco. Retirado de [17].

de espalhamento. Esta função é geralmente modelada como uma Gaussiana, comdesvio proporcional ao grau do desfocamento. A análise espectral dos efeitos dodesfocamento, conduzida por Daugman, sugere que uma maneira efetiva de avaliara qualidade do foco de uma imagem resulta em simplesmente calcular a energiapresente nas componentes de alta frequência, pois são as componentes mais atenuadaspelo desfocamento. De modo a evitar operações de ponto flutuante e, aumentar avelocidade dos cálculos, Daugman desenvolveu um kernel espacial 8x8 que apresentaeste comportamento. O kernel e seu respectivo espectro de Fourier podem serobservados na Figura 2.5.

Kang e Park [39] propuseram um kernel 5x5, similar ao de Daugman, e observaramque sua máscara é mais rápida e possui mais bandas de frequência que a de Daugman.Eles também incorporam uma etapa de restauração para imagens cuja pontuação sejamenor que um determinado limiar.

Chen et al. [36] argumentam que a textura da íris é tão localizada, que suaqualidade varia de região para região. Eles utilizaram a transformada Wavelet pararealizar avaliações e relatam que o índice de qualidade proposto pode prever, comalto grau de confiança, o desempenho da etapa de comparação de um sistema dereconhecimento de íris. Também mostram que incorporando a medida de qualidadeda imagem à etapa de comparação podem melhorar a EER.

Como alternativa à análise das componentes de alta frequência presentes nasimagens, outros métodos de aprendizagem de máquina são utilizados. Proença e

Page 36: Universidade Federal de Pernambuco - UFPE · be forgotten or shared and hardly changed. Among various biometric methods, iris recognition systems are frequently cited as one of the

2.2 SEGMENTAÇÃO DA ÍRIS 20

Alexandre [40] usaram uma rede neural para identificar cinco tipos de ruído: cílios,pálpebras, pupila e reflexões fortes e fracas. Ye et al. [41] treinaram um sistemacomposto de redes neurais para classificar imagens em duas categorias: boa ou ruim.He et al. [42, 43] e Cui et al. [44] usaram AdaBoost para identificar a região da írispresente em uma imagem, aproveitando os bons resultados atingidos por esta técnicana detecção de faces (ou melhor, objetos em geral) [45].

2.2 SEGMENTAÇÃO DA ÍRIS

A segmentação é a etapa responsável pela determinação da região da íris presenteem uma imagem. Esta região, em forma de coroa circular, é comumente aproximadapor dois círculos: um para a fronteira íris/esclerótica (o tecido branco do olho) e outrapara a borda pupila/íris, interior à primeira. Entretanto, apesar desta modelagem,nem sempre é possível assumir que os dois círculos são concêntricos. Em muitos casos,o centro da pupila é nasal e inferior ao da íris [17].

Pálpebras e cílios normalmente produzem oclusão nas partes superior e inferiorda íris e reflexões especulares e sombras também podem corromper sua textura.Uma técnica de segmentação bem sucedida deve localizar e tratar estes aspectos. Autilização de iluminação infravermelha no processo de aquisição da imagem diminuio aparecimento de reflexões diretamente na íris, entretanto, o esquema de iluminaçãotende a ser reproduzido (refletido) na pupila. Em alguns casos, este efeito atrapalha adeterminação das bordas da pupila/íris .

A segmentação é a etapa mais crítica em um sistema de reconhecimento, pois,dados que representam falsamente uma região de íris corrompem os modelosbiométricos, resultando em taxas de reconhecimento ruins.

Grande parte dos algoritmos desenvolvidos para determinar as fronteiras da írissão baseados em informações de gradiente, ou seja, eles procuram pelas bordas a fimde determinar as fronteiras. A seguir, algumas técnicas para segmentar a região da írissão explicadas em maior detalhe.

2.2.1 O operador integro-diferencial de Daugman

Para localizar as bordas da pupila e íris, Daugman propôs a utilização do operadorintegro-diferencial [15, 17]. Ele assume que as bordas da pupila e da íris podem seraproximadas por dois círculos (não necessariamente concêntricos). Desta forma, ooperador comporta-se como um detector de bordas circular.

Page 37: Universidade Federal de Pernambuco - UFPE · be forgotten or shared and hardly changed. Among various biometric methods, iris recognition systems are frequently cited as one of the

2.2 SEGMENTAÇÃO DA ÍRIS 21

Cada círculo é definido por três parâmetros: (r, x0, y0), em que (x0, y0) definemseu centro e r seu respectivo raio. A busca nas imagens, pelos parâmetros que definemcada círculo, é realizada através do operador integro-diferencial dado por:

max(r, x0, y0)

∣∣∣∣∣Gσ(r) ∗ ∂

∂r

˛(r,x0,y0)

I(x, y)2πr

ds

∣∣∣∣∣ , (2.1)

onde I(x, y) representa a intensidade do pixel, na posição (x, y), da imagem I, Gσ(r)é um filtro Gaussiano usado como função de suavização, ∗ denota uma operação deconvolução e s é o contorno do círculo definido por r, x0, y0.

O uso do operador integro-diferencial também permite a busca pela região daspálpebras, bastando, para isso, modificar o contorno de integração s, de circular para,por exemplo, um arco parabólico. O resultado da segmentação utilizando o operadorintegro-diferencial é exibido na Figura 2.6.

Figura 2.6: Imagem segmentada usando o operador integro-diferencial [17]. Observeque tanto as bordas da pupila e íris, assim como as bordas das pálpebras inferior esuperior foram determinadas.

2.2.2 Transformada de Hough

A Transformada de Hough, uma técnica bastante utilizada em processamento deimagens, auxilia a busca por curvas que possam ser definidas de forma paramétrica,em imagens binárias. Linhas, círculos, elipses e parábolas são exemplos de curvas quepossuem representação paramétrica.

A Transformada de Hough define um mapeamento entre o espaço original daimagem (x, y) e um espaço de parâmetros (p1, p2, . . . , pn), que depende da forma

Page 38: Universidade Federal de Pernambuco - UFPE · be forgotten or shared and hardly changed. Among various biometric methods, iris recognition systems are frequently cited as one of the

2.2 SEGMENTAÇÃO DA ÍRIS 22

a ser detectada. A definição desta transformação requer a geração de um espaço n-dimensional, com número de dimensões igual ao número de parâmetros necessáriospara definir a forma desejada: uma linha possui o espaço de parâmetros definido por(ρ, θ), já para um círculo os parâmetros são (x0, y0, r) [46].

Através desse método, o reconhecimento de um padrão global (linha, círculo) érealizado utilizando padrões locais (pontos). Por exemplo, a identificação de umcírculo pode ser obtida considerando os pontos de borda de uma imagem como ospadrões locais, buscando o valor máximo da Transformada de Hough em seu espaçode parâmetros. A esta variação dá-se o nome de Transformada de Hough Circular(THC). Desta forma, a THC pode ser usada para determinar os parâmetros dos círculosque definem a pupila e a íris.

Wildes et al. [27], Kong e Zhang [47], Tisse et al. [30], Ma et al. [34] e Masek [48]utilizam a THC para localizar as bordas da íris e da pupila. Esse método, semelhanteao método de Daugman, também é baseado na primeira derivada da imagem.

Como a THC opera apenas sobre imagens binárias, é necessário gerar um mapa depontos de borda a partir da imagem de entrada. Mapas de pontos de borda podemser gerados a partir do uso de diversas técnicas, como, por exemplo, através do CannyEdge Detector [49]. A seguir descreve-se o procedimento usado por Wildes et al. [27]para gerar este mapa:

Primeiro calcula-se a magnitude do gradiente da imagem, obtida através daequação:

M(x, y) = |∇G(x, y) ∗ I(x, y)| , (2.2)

em que ∇ ≡ [∂/∂x; ∂/∂y] representa a derivada parcial em cada direção e G(x, y) éuma função Gaussiana de suavização, dada por

G(x, y) =1

2πσ2 · exp{− (x− x0)2 + (y− y0)2

2σ2

}, (2.3)

onde σ é o fator de suavização a ser aplicado e (x0, y0) definem a posição central dofiltro na imagem.

Em seguida, através da limiarização da imagem magnitude M, obtém-se o mapade pontos de borda. A imagem binária resultante é, então, utilizada para acumularvotos no espaço transformado de Hough.

Considerando que os pontos de borda sejam representados por (xj, yj), j =1, 2, . . . , N, a Transformada de Hough Circular pode ser definida através da equação

Page 39: Universidade Federal de Pernambuco - UFPE · be forgotten or shared and hardly changed. Among various biometric methods, iris recognition systems are frequently cited as one of the

2.2 SEGMENTAÇÃO DA ÍRIS 23

H(xc, yc, r) =N

∑j=1

h(xj, yj, xc, yc, r), (2.4)

em que:

h(xj, yj, xc, yc, r) =

{1, caso g(xj, yj, xc, yc, r) = 0;0, caso contrario.

(2.5)

Para o caso de busca por círculos, a função g é definida por

g(xj, yj, xc, yc, r) = (xj − xc)2 + (yj − yc)2 − r2. (2.6)

Assumindo um círculo centrado em (xc, yc) de raio r, os pontos de borda (xj, yj)que estejam localizados sob o círculo, zeram a função g. Nesses pontos, o valor de gé transformado para o valor 1, através da função h, que representa o padrão local docontorno.

Dessa forma, os padrões locais votam no espaço transformado H. A coordenada(xc, yc, r) que possuir maior quantidade de votos representa os parâmetros do círculomais provável a estar presente na imagem.

Esse tipo de abordagem permite que mesmo formas circulares parcialmenteobstruídas sejam identificadas, garantindo certa robustez ao processo. Entretanto, nãoé garantido que os parâmetros sempre correspondam a círculos realmente presentesna imagem.

Apesar da facilidade de uso, a Transformada de Hough possui um custocomputacional alto devido ao grande espaço de parâmetros que é criado, o que podeinviabilizar seu uso em sistemas de tempo real.

2.2.3 Pulling & Pushing

O Pulling & Pushing (PP), proposto por He et al. [42], é um método iterativo,inspirado na Lei de Hooke, que visa determinar os parâmetros do centro e raio dasregiões interna e externa da íris.

A Lei de Hooke afirma que a força elástica em uma mola é proporcional àdeformação a qual está sujeita, ou seja:

−→F = −k · −→x , (2.7)

onde −→x representa o deslocamento da mola em relação a sua posição de equilíbrio, k

Page 40: Universidade Federal de Pernambuco - UFPE · be forgotten or shared and hardly changed. Among various biometric methods, iris recognition systems are frequently cited as one of the

2.2 SEGMENTAÇÃO DA ÍRIS 24

é sua constante elástica e o sinal negativo indica que a força se opõe a deformação.

2.2.3.1 A idéia básica Considere Si, i = 1, 2, . . . , N, um conjunto de N molasidênticas sem massa, de comprimento relaxado R e constante elástica k. Para cadamola, assuma que uma de suas pontas esteja conectada a borda de uma região circularde raio R e que a outra ponta interliga-se a todas as outras molas através do ponto O.

No início, todas as molas estão relaxadas e O é a posição de equilíbrio. A aplicaçãode uma força externa sobre O que cause uma mudança de seu posicionamento paraO′ resulta no aparecimento de uma força de restauração

−→fi , em cada mola, de modo a

resistir a deformação introduzida:

−→fi = −k · −→x = −k · (R− ri) · −→ei , i = 1, 2, . . . , N (2.8)

em que ri é o atual comprimento da mola Si e −→ei indica sua direção a partir de O′. Asoma das forças exercidas por todas as molas,

−→Fc =

N

∑i=1

−→fi , (2.9)

empurra O′ de volta para a posição de equilíbrio O, assim que a força externaé removida. Este processo é ilustrado na Figura 2.7 através das imagens (a-b).Já as imagens (c-d) mostram como o conceito pode ser utilizado para realizar adeterminação dos parâmetros correspondentes à borda da pupila.

2.2.3.2 O algoritmo Apesar da tendência natural das molas de relaxarem eencontrarem a posição de equilíbrio, este processo dificilmente acontece de uma sóvez para um sistema discretizado, como o aqui utilizado. Em alguns casos, a forçacalculada pela equação 2.9 é insuficiente e em outros é maior que a necessária paradeslocar O′ diretamente para a real posição de equilíbrio O. Assim, mais de umaiteração pode ser necessária para fazer com que O′ convirja para O. Tomando a buscapelos parâmetros de centro Op(xp, yp) e raio Rp da pupila como exemplo, o algoritmoPP é apresentado a seguir.

O método é um processo iterativo e seu algoritmo é dividido em cinco etapas: (1)estimativa inicial, (2) transformação da região para coordenadas polares; (3) extraçãodos pontos de borda, (4) empurrar e puxar e (5) teste de convergência.

A primeira etapa fornece uma estimativa grosseira do centro da pupila. He et

Page 41: Universidade Federal de Pernambuco - UFPE · be forgotten or shared and hardly changed. Among various biometric methods, iris recognition systems are frequently cited as one of the

2.2 SEGMENTAÇÃO DA ÍRIS 25

Figura 2.7: Um conjunto de N molas interligadas no ponto O′. O método PP usa a Leide Hooke para, iterativamente, aproximar o ponto O′ de O. Retirado de [42].

al. [42, 43] utilizam um classificador AdaBoost para detectar a região da íris presenteem uma imagem e, a partir dela, extrai a estimativa inicial do centro da pupila O

′p =

Ol(xl, yl), l = 0, onde l denota a iteração. O raio também recebe um valor inicial R0p,

constante.A segunda etapa transforma a imagem para coordenadas polares, a partir do centro

Ol. Esta transformação simplifica a detecção de formas circulares, pois, quando umcírculo é observado a partir de seu centro, em coordenadas polares, torna-se umalinha. Assim, a difícil tarefa de detectar as bordas circulares é transformada para umasimples detecção de uma linha.

Na terceira etapa, a detecção dos pontos de borda é realizada na imagemtransformada para coordenadas polares. Esta detecção de bordas pode ser realizadade diversas maneiras, como, por exemplo, através do operador Sobel ou pelométodo Canny. Entretanto, apenas um ponto deve ser preservado para cada direçãoradial [42]. Os pontos remanescentes são, então, denotados por Pl+1

i (θl+1i ,rl+1

i ), i =1, 2, . . . , N , onde θl+1

i é a direção e rl+1i a distância do ponto Pl+1

i até o centro Ol.Na quarta etapa, a partir das informações do centro Ol e dos N pontos de borda

Pl+1i , o comprimento de referência (equilíbrio) das molas é calculado através do

Page 42: Universidade Federal de Pernambuco - UFPE · be forgotten or shared and hardly changed. Among various biometric methods, iris recognition systems are frequently cited as one of the

2.2 SEGMENTAÇÃO DA ÍRIS 26

comprimento médio, dado por:

Rl+1 =(

1N

N

∑i=1

ri, (2.10)

que serve como estimativa do raio da pupila para a iteração l.Assim, cada mola irá empurrar ou puxar o centro Ol com uma força

−→fi , dada por:

−→fi = −kpp

(Rl+1 − ri

)−→ei , i = 1, 2, . . . , N, (2.11)

onde kpp = 1/N é a constante das molas e −→ei é o vetor unitário da direção da i-ésima

mola (−−−−→OlPl+1

i ). A soma das forças resultantes da contribuição individual das molas é:

−→F =

N

∑i=1

−→fi, (2.12)

e fornece o deslocamento a ser aplicado ao antigo centro, forçando-o a mover-se paraa posição:

Ol+1(xl+1, yl+1) = Ol +−→F . (2.13)

O teste de convergência, realizado na quinta etapa, verifica a necessidade daexecução de mais iterações, para permitir que o ponto O′ encontre a posição deequilíbrio. O algoritmo pára quando uma das condições é satisfeita:

1. Ol+1 e Rl+1 convergiram; ou

2. Quando o número de iterações é maior que Imax.

A convergência descrita em 1. é calculada através da equação:

Cl+1 =∣∣∣−→F ∣∣∣+ ∣∣∣Rl+1 − Rl

∣∣∣ < Cmax, (2.14)

onde Cmax possui valor um. Caso nenhuma das condições seja satisfeita, o algoritmovolta para a etapa 2. A Figura 2.8 exibe algumas iterações do algoritmo.

2.2.4 Detecção de cílios, pálpebras e re�exões

Cílios, pálpebras e reflexões, quando aparecem na região interna a íris, sãofatores de ruído que atrapalham a formação do template biométrico. Quandonão são propriamente identificadas, essas regiões degradam consideravelmente o

Page 43: Universidade Federal de Pernambuco - UFPE · be forgotten or shared and hardly changed. Among various biometric methods, iris recognition systems are frequently cited as one of the

2.2 SEGMENTAÇÃO DA ÍRIS 27

Figura 2.8: (a) Estimativas iniciais do centro O0p(x0

p, y0p) e raio R0

p; (b) Definição dospontos de borda, cálculo do comprimento médio das molas R (nova estimativa doraio) e da força exercida por cada mola

−→di =

−→fi ; (c) Deslocamento do centro e teste

de convergência. (d,e,f) Segunda iteração do algoritmo; (g,h,i) Iteração final. As duassetas e o arco presentes nas imagens (a, d, g) representam os setores efetivamenteutilizados na transformação para coordenadas polares. Este procedimento é opcionale foi usado para evitar a interferência dos cílios superiores. Retirado de [42].

Page 44: Universidade Federal de Pernambuco - UFPE · be forgotten or shared and hardly changed. Among various biometric methods, iris recognition systems are frequently cited as one of the

2.2 SEGMENTAÇÃO DA ÍRIS 28

desempenho de sistemas de reconhecimento de íris. À medida que novas aplicaçõessurgem com o intuito de diminuir as restrições impostas na etapa de captura, aumentaa necessidade de identificar corretamente estes ruídos.

Várias técnicas que determinam oclusões por cílios ou pálpebras são comumentedesenvolvidas utilizando a imagem da íris normalizada (transformação paracoordenadas polares, a ser abordado na Seção 2.3). Apesar disso, não há nenhumimpedimento de realizar esta detecção no domínio original, em coordenadascartesianas.

2.2.4.1 Pálpebras Kang e Park [50] encontram regiões de pálpebras usando aTransformada de Hough Parabólica. O arco parabólico usado para determinar estasregiões é modelado através da expressão:

((x− h) · sin θ + (y− k) cos θ)2 = a((x− h) · sin θ − (y− k) cos θ), (2.15)

onde a representa a curvatura, (h, k) determinam o vértice e θ o ângulo de rotação emrelação ao eixo x.

Liu [51, 52] divide a procura por pálpebras em quatro regiões (superior e inferior,esquerda e direita) e utiliza a Transformada de Hough Linear para determinarsegmentos de reta que mais se aproximem deste tipo de oclusão.

A Transformada de Hough Linear possui menos parâmetros e, dessa forma,necessita de menos tempo de processamento que a versão parabólica. Entretanto, aversão linear possui uma chance muito maior de falhar na identificação destas regiões,ao contrário da que utiliza arcos parabólicos, devido a maior semelhanças das regiões.

Ming e Park [53] usam a Transformada de Hough Parabólica em imagensnormalizadas, alegando que essa estratégia proporciona uma redução no espaçode parâmetros de busca. Eles são motivados pela observação de que rotações doglobo ocular, em imagens normalizadas, causam simplesmente um deslocamento (àesquerda ou à direita) dos pixels da imagem.

2.2.4.2 Cílios Em geral, os tons de cinza de regiões de cílios apresentam valoresbaixos. Esta característica permite que estratégias utilizem a limiarização como formade detecção de cílios, como ocorre na abordagem proposta por Masek [48].

Kong e Zhang [47] apresentam um método para a detecção de cílios onde são

Page 45: Universidade Federal de Pernambuco - UFPE · be forgotten or shared and hardly changed. Among various biometric methods, iris recognition systems are frequently cited as one of the

2.2 SEGMENTAÇÃO DA ÍRIS 29

tratados como pertencentes a dois tipos: os cílios separáveis, que apresentam-seisolados na imagem, e os cílios múltiplos, que encontram-se juntos e se sobrepõemno olho. Os cílios separáveis são detectados através de filtros Gabor unidimensionais,uma vez que a convolução de uma região que contém um cílio separável com umafunção de suavização Gaussiana resulta em valores de saída baixos. Assim, se oresultado da filtragem em determinado ponto é menor que um limiar, este ponto éidentificado como sendo um cílio. Cílios múltiplos são detectados através da variaçãode intensidade. Se a variação de valores de intensidade em uma pequena janela forinferior a um limiar, o centro da janela é considerado como pertencente a um cílio. Omodelo de Kong e Zhang também utiliza um critério conectivo, de modo a conectarcada ponto identificado como cílio a outro ponto do mesmo tipo ou pertencente a umapálpebra.

Regiões com presença de cílios apresentam grandes variações de gradiente, devidoa mudanças repentinas que ocorrem nos valores dos pixels. Além disso, regiõesque contêm muitos cílios também apresentam forte variação na direção do gradiente.Baseados nessas características Zhang et al. [54] extraem pontos candidatos. Os pontosdetectados são avaliados através de uma filtragem não-linear e, caso necessário, sãorestaurados. Esta filtragem é realizada através de um filtro mediana unidimensional ese processa na direção perpendicular à direção dos gradientes dos pontos candidatos.Caso a diferença entre as intensidades do ponto original e sua versão filtrada excedacerto limiar, o pixel original é trocado pelo valor correspondente na imagem filtrada.

2.2.4.3 Reflexões especulares Reflexões especulares se apresentam como os pontosmais claros (brilhosos) de uma imagem, ocorrendo predominantemente dentro dapupila. Em alguns casos, as reflexões também podem acontecer na região daíris. Devido a esta peculiaridade, a limiarização é uma das técnicas comumenteempregadas para realizar sua determinação. Kong e Zhang [47] aplicam esse métodopara determinar reflexões.

He et al. [43] não apenas identificam, como também restauram pontos de reflexão,através de um processo que utiliza interpolação bilinear. O algoritmo inicia com acriação de um mapa binário de reflexão R(x,y), gerado a partir da imagem I(x,y), atravésda limiarização por um valor adaptativo Tre f , descrito como o valor de intensidadeda posição ocupada por 5% dos pixels mais brilhosos. Então, para cada pontode reflexão P0

(x0,y0), quatro pontos "envelope"

{Ple f t

(xl ,y0), Pright

(xr,y0), Ptop

(x0,yt), Pdown

(x0,yd)

}são

definidos. Estes são os pontos de não-reflexão, separados por uma distância mínima

Page 46: Universidade Federal de Pernambuco - UFPE · be forgotten or shared and hardly changed. Among various biometric methods, iris recognition systems are frequently cited as one of the

2.3 NORMALIZAÇÃO 30

(a) Imagem de um olho comreflexões.

(b) Mapa de Reflexão. (c) Imagem (a) com reflexõespreenchidas.

Figura 2.9: Exemplo de preenchimento de reflexões utilizando o algoritmodesenvolvido por He et al. [43].

L, a partir do último ponto de reflexão, em cada uma das quatro direções.Por exemplo, ao calcular Ple f t

(xl ,y0)a partir de P0

(x0,y0), observa-se que yl = yo,

indicando que os pontos pertencem a mesma linha. Assim, resta determinar xl, paraencontrar Ple f t.

No mapa de reflexão R(x,y), a busca é iniciada a partir de xo, seguindo para aesquerda até encontrar o primeiro ponto de não-reflexão. Entretanto, continua-secaminhando para a esquerda até que o (L + 1)-ésimo ponto consecutivo de não-reflexão seja encontrado. A mesma idéia aplica-se para as outras direções. L controlaa separação mínima entre o ponto de reflexão e seus respectivos pontos "envelope",possuindo valor 2 [43]. Após a obtenção de todos os pontos "envelope", cada ponto dereflexão é, então, preenchido pelo valor calculado através da equação:

I(P0) =I(Pl)(xr − x0) + I(Pr)(x0 − xl)

2(xr − xl)

+I(Pt)(yd − y0) + I(Pd)(y0 − yt)

2(yd − yt). (2.16)

A Figura 2.9 exibe o preenchimento das reflexões através dos passos descritosanteriormente.

2.3 NORMALIZAÇÃO

A normalização é a etapa na qual a região da íris é transformada para auxiliara extração de suas características e permitir que comparações possam ser realizadas

Page 47: Universidade Federal de Pernambuco - UFPE · be forgotten or shared and hardly changed. Among various biometric methods, iris recognition systems are frequently cited as one of the

2.3 NORMALIZAÇÃO 31

facilmente. Entretanto, a primeira dificuldade surge do fato de que nem todas asimagens de íris possuem o mesmo tamanho. A distância do olho em relação a câmeraafeta o tamanho da íris nas imagens e pequenas mudanças na iluminação fazemcom que a pupila se contraia ou dilate, causando variações na área da região da íris.Inclinações da cabeça, movimentação do olho no globo ocular e uma possível rotaçãoda câmera são outras fontes de dificuldades. As técnicas de normalização devemcompensar ou minimizar estes problemas, para que as características da íris ocupema mesma localização espacial, mesmo quando imagens capturadas sob diferentescondições sejam utilizadas.

2.3.1 Modelo de deformação elástica

O Rubber Sheet Model é o método de normalização utilizado por Daugman [15, 17].Ele lida com contrações e dilatações da pupila para criar uma representação uniformeda região da íris, considerando que esta região pode ser modelada através de doiscírculos, resultando em um formato próximo ao de uma coroa circular. Este formato,modelado como um "anel de borracha", possui o centro da pupila como ponto dereferência. A idéia é apresentada na Figura 2.10.

O método consiste em remapear a região da íris, originalmente em coordenadascartesianas (x, y), para um sistema adimensional em coordenadas polares (ρ, θ), sendoρ ∈ [0, 1] e θ ∈ [0, 2π]. Esta transformação é realizada através da equação [15, 17]:

I(x(ρ, θ), y(ρ, θ))→ I(ρ, θ), (2.17)

com

x(ρ, θ) = (1− ρ)xP(θ) + ρxI(θ), (2.17a)

y(ρ, θ) = (1− ρ)yP(θ) + ρyI(θ). (2.17b)

em que I(x, y) é a imagem da região da íris em coordenadas cartesianas, I(ρ, θ)corresponde a imagem em coordenadas polares, (xP, yP) e (xI , yI) são os pontos dasbordas da pupila e da íris, respectivamente, na direção θ.

A representação retangular é gerada considerando o centro da pupila como pontode referência para o sistema de coordenadas polares. A partir dele, linhas radiais,separadas por certo ângulo φ, são traçadas até atingirem a borda da íris. Em cada linharadial uma determinada quantidade de pontos é amostrada uniformemente, iniciando

Page 48: Universidade Federal de Pernambuco - UFPE · be forgotten or shared and hardly changed. Among various biometric methods, iris recognition systems are frequently cited as one of the

2.3 NORMALIZAÇÃO 32

Figura 2.10: Transformação da região da íris entre sistemas de coordenadas. Retiradode [12].

nas bordas definidas pela pupila e finalizando nas bordas da íris. O número de pontosescolhidos em cada linha radial determina a resolução radial, definindo a dimensãovertical da representação retangular. Analogamente, a quantidade de linhas determinaa resolução angular, definindo, assim, a dimensão horizontal.

O método é capaz de compensar variações devido à escala (tamanho) e à translação(posição da íris na imagem). Entretanto, ele não é invariante à rotação da íris.Rotações, em coordenadas cartesianas, são equivalentes a simples deslocamentos àesquerda ou à direita, em coordenadas polares. Apesar disto, o sistema de Daugmantambém consegue obter invariância à rotação, realizando deslocamento dos templatesna etapa de Comparação (Seção 2.5).

2.3.2 Modelo de registro de imagens

Wildes et al. [27] propuseram uma técnica baseada em registro de imagens pararealizar a normalização das regiões da íris. O método deforma geometricamentea imagem a ser testada Ia(x, y), para que possa ser alinhada à imagem Id(x, y),pertencente ao banco de imagens, com a qual a comparação deverá ocorrer.

O alinhamento é realizado de acordo com uma função de mapeamento

Page 49: Universidade Federal de Pernambuco - UFPE · be forgotten or shared and hardly changed. Among various biometric methods, iris recognition systems are frequently cited as one of the

2.4 CODIFICAÇÃO 33

(u(x, y), v(x, y)), de modo que, para cada posição (x, y), o valor do pixel (x, y) −(u(x, y), v(x, y)) em Ia seja próximo ao da posição (x, y) em Id. Mais precisamente,a função de mapeamento (u, v) é calculada de modo a minimizar

ˆx

ˆy

(Id(x, y)− Ia

(x− u, y− v

))2dxdy, (2.18)

sendo obrigada a incorporar a transformação de similaridade das coordenadas daimagem: (

x′

y′

)=

(xy

)− sR(φ)

(xy

), (2.19)

onde s é um fator de escala e R(φ) a matriz que representa a rotação por φ. Osparâmetros s e φ são encontrados através de um procedimento de minimizaçãoiterativo [27].

A normalização proposta por Wildes et al. apresenta uma abordagem diferenteda utilizada por Daugman. Neste caso, a normalização acontece apenas na fasede comparação. Comparado com a proposta de Daugman, o método consomemuito tempo para ser executado, não sendo tão indicado para ser utilizado noreconhecimento. Para verificação, no entanto, o método é capaz de compensar fatoresindesejáveis como variações de rotação e de escala.

2.4 CODIFICAÇÃO

A codificação, que também engloba a extração de características, é a etapa naqual a íris é processada para que seu modelo biométrico seja criado. A extraçãode características deve ressaltar alguns dos atributos de textura da íris e minimizaroutros. Com o intuito de tornar o processo de reconhecimento mais preciso, apenas asinformações mais discriminantes devem ser codificadas. A codificação tem o objetivode representar as informações extraídas para uma forma que seja mais conveniente,por exemplo: vetores numéricos ou cadeias de bits. O descarte das informaçõesdesnecessárias possibilita a criação de modelos mais compactos.

A extração das características da íris aproveita todo o desenvolvimento já realizadona área de análise de textura, na qual diversas abordagens foram testadas, comdestaque para o uso de filtros. A análise e a representação da textura (que combinam,entre outras, as etapas de extração de características e de codificação) é a área maispopular de pesquisa relacionada a biometria da íris [4].

Page 50: Universidade Federal de Pernambuco - UFPE · be forgotten or shared and hardly changed. Among various biometric methods, iris recognition systems are frequently cited as one of the

2.4 CODIFICAÇÃO 34

Muitas publicações sugerem a utilização de uma ampla gama de filtros: Gabor2D [17, 55, 56, 57], log-Gabor 1D [48], Laplaciano [25], as Wavelets de Haar [55, 58],Daubechies-8 [58] e Biortogonal [58] e o Laplaciano da Gaussiana [55] são alguns dosfiltros propostos.

2.4.1 Filtros Gabor

Investigações relativas à maneira como o ser humano percebe e identificadiferentes texturas apontam para um processo de extração de características baseadoem elementos como orientação, frequência, dimensão e posicionamento. Acredita-seque certas áreas do córtex cerebral de mamíferos, responsáveis pela visão, apresentamum grande número de neurônios distribuídos em grupos, conectados tanto de formalinear como de forma não-linear. Este tipo de estrutura permite a recepção de umaampla gama de estímulos, tais como localização no espaço bidimensional, frequênciaespacial e profundidade estereoscópica, orientação, entre outros, sendo a análise deimagens no córtex semelhante à realizada por um analisador de Fourier no domínioespacial [59].

As representações obtidas através da Transformada de Fourier, apesar de seremcompletas (isto é, nenhuma informação da imagem original é perdida durante suatransformação), não deixam explícitas as informações necessárias para uma rápidadiscriminação de diferentes texturas, pois apenas apresentam as frequências espaciaisencontradas na imagem original, sem identificarem sua posição na mesma. Istoindica que a representação através da Transformada de Fourier não é capaz de exibirvariações na distribuição do brilho ao longo de uma região da imagem.

A incapacidade da Transformada de Fourier despertou o interesse na busca portécnicas que pudessem prover informações simultâneas sobre os domínios espacial(ou temporal, caso o sinal estudado seja unidimensional) e de frequências.

Utilizando a desigualdade de Schwarz, Dennis Gabor [60] demonstrou que, deforma análoga à relação de incerteza de Heisenberg, a caracterização simultâneade um sinal nos domínios temporal e de frequências espaciais apresenta um limiteinferior, definido pelo produto de sua extensão pela sua duração. Gabor derivou estarelação, encontrando uma família de sinais que alcançavam o limite inferior teórico deincerteza conjunta nos domínios temporal e de frequências. Esta função passou a serconhecida como filtro Gabor, que é definido através da equação:

Page 51: Universidade Federal de Pernambuco - UFPE · be forgotten or shared and hardly changed. Among various biometric methods, iris recognition systems are frequently cited as one of the

2.4 CODIFICAÇÃO 35

g(x) = exp{−1

2

( xσ

)2+ 2πikx

}(2.20)

em que σ é a extensão do envelope Gaussiano, k é a frequência espacial da ondasenoidal e i é o operador imaginário. O filtro Gabor pode ser entendido como sendouma senóide/cossenóide modelada por uma gaussiana. A Figura 2.11, ilustra ascomponentes real e imaginária deste filtro.

Daugman [61] ampliou o trabalho realizado por Gabor, extendendo o filtro paraduas dimensões. A versão bidimensional do filtro Gabor pode ser obtida através daequação:

G(x, y) = e−π

[(x−x0

α

)2+(

y−y0β

)2]· e−2πi[u0(x−x0)+v0(y−y0)], (2.21)

em que (x0, y0) determina a posição relativa do filtro na imagem, (α, β) delimitam ocomprimento e largura efetivos da Gaussiana e (u0, v0) especificam os parâmetros da

modulação pela senóide, que possui frequência espacial ω0 =√

u20 + v2

0 e orientaçãoθ0 = arctan(u0/v0). O filtro Gabor é um filtro em quadratura e suas componentes desimetria par e ímpar são mostradas na Figura 2.12. Estudos mostraram que as funçõesGabor 2D simulam adequadamente o comportamento dos perfis de campos receptivosencontrados nas células do córtex cerebral de mamíferos [62].

Pesquisas anteriores [61, 62] que investigaram o uso de filtros Gabor para análisede textura, realizadas pelo próprio Daugman, influenciaram na determinação do usodestes filtros em seu sistema [16, 15, 17]. Como a imagem da íris é representada emcoordenadas polares (devido à normalização), o filtro Gabor é adaptado a este sistemade coordenadas. Sua nova representação é dada por:

G(r, θ) = e−iω(θ−θ0) · e−(r−r0)2/α2 · e−(θ−θ0)

2/β2, (2.22)

em que (r0, θ0) determinam a posição do filtro na imagem e sua orientação, ω

representa a frequência da senóide e (α, β) controlam o espalhamento nas direçõesradial e angular, respectivamente.

A modulação da imagem da íris pelo filtro em quadratura transporta suasinformações para o domínio complexo. A extração das características é realizadaatravés da quantização das informações de fase, obtida pela projeção do fasorrepresentativo de cada pixel no plano complexo, em quatro níveis (um paracada quadrante). A quantização é codificada por dois bits (hRe, hIm), que utiliza

Page 52: Universidade Federal de Pernambuco - UFPE · be forgotten or shared and hardly changed. Among various biometric methods, iris recognition systems are frequently cited as one of the

2.4 CODIFICAÇÃO 36

−5 −4 −3 −2 −1 0 1 2 3 4 5

−1

−0.8

−0.6

−0.4

−0.2

0

0.2

0.4

0.6

0.8

1

x

Am

plitu

de −

G(x

)Filtro de Gabor 1D − Componente Real

(a) Componente real.

−5 −4 −3 −2 −1 0 1 2 3 4 5

−1

−0.8

−0.6

−0.4

−0.2

0

0.2

0.4

0.6

0.8

1

x

Am

plitu

de −

G(x

)

Filtro de Gabor 1D − Componente Imaginária

(b) Componente imaginária.

Figura 2.11: Filtro Gabor unidimensional.

Page 53: Universidade Federal de Pernambuco - UFPE · be forgotten or shared and hardly changed. Among various biometric methods, iris recognition systems are frequently cited as one of the

2.4 CODIFICAÇÃO 37

(a) Componente real.

(b) Componente imaginária.

Figura 2.12: Filtro Gabor bidimensional.

Page 54: Universidade Federal de Pernambuco - UFPE · be forgotten or shared and hardly changed. Among various biometric methods, iris recognition systems are frequently cited as one of the

2.4 CODIFICAÇÃO 38

representação em código Gray. Este procedimento é ilustrado na Figura 2.13, sendodefinido pelas equações a seguir:

hRe = 1 se Real

{ˆρ

ˆφ

e−iω(θ−φ) · e−(r−ρ)2/α2

·e−(θ−φ)2/β2I(ρ, φ)ρdρdφ

}≥ 0, (2.23)

hRe = 0 se Real

{ˆρ

ˆφ

e−iω(θ−φ) · e−(r−ρ)2/α2

·e−(θ−φ)2/β2I(ρ, φ)ρdρdφ

}< 0, (2.24)

hIm = 1 se Imag

{ˆρ

ˆφ

e−iω(θ−φ) · e−(r−ρ)2/α2

·e−(θ−φ)2/β2I(ρ, φ)ρdρdφ

}≥ 0, (2.25)

hIm = 0 se Imag

{ˆρ

ˆφ

e−iω(θ−φ) · e−(r−ρ)2/α2

·e−(θ−φ)2/β2I(ρ, φ)ρdρdφ

}< 0. (2.26)

na qual I(ρ, φ) é a imagem normalizada em coordenadas polares e Real {·} e Imag {·}representam, respectivamente, as partes real e imaginária do seu conteúdo.

O template, chamado de iriscode2, é formado pela substituição de cada pixel daimagem filtrada por dois bits, que representam cada um dos quatro quadrantespossíveis. Um total de 2048 bits são calculados para formar o template e um númeroigual de bits é usado para formar a máscara de ruído. Esta máscara de ruído tema função de informar ao estágio de comparação quais são as áreas corrompidas porruído como cílios, pálpebras e reflexões, que devem ser desconsideradas. O iriscode é

2O termo iriscode foi primeiro empregado por Daugman em 1993 [15, 16]. Entretanto, é comum usareste termo ao referir-se a qualquer representação binária das características da íris, similar a utilizadapor Daugman.

Page 55: Universidade Federal de Pernambuco - UFPE · be forgotten or shared and hardly changed. Among various biometric methods, iris recognition systems are frequently cited as one of the

2.4 CODIFICAÇÃO 39

uma representação compacta que diminui a demanda no armazenamento e possibilitaque comparações sejam realizadas fácil e rapidamente, através do uso de operadoreslógicos (bit-a-bit).

Devido aos padrões de textura da íris possuírem alto grau de liberdade, espera-seque os templates gerados por duas íris diferentes apresentem formação independentee divirjam fortemente um do outro. Por outro lado, duas sequências de códigosproduzidas por uma mesma íris devem apresentar alta correlação.

Figura 2.13: Determinação da codificação a ser utilizada quando se projeta o fasorrepresentativo do pixel no plano complexo.

2.4.2 Filtros log-Gabor

Field [63], quem primeiro propôs o uso de filtros log-Gabor, sugere que imagensnaturais são melhor codificadas por filtros que possuam função de transferênciagaussiana, quando observadas numa escala logarítmica de frequência.

Devido à particularidade da função logaritmo na origem, o filtro log-Gabor éconstruído diretamente no domínio da frequência, entretanto, sua representaçãoespacial pode ser obtida através do cálculo da Transformada Inversa de Fourier. Ofiltro log-Gabor possui uma função de transferência dada por:

Glog(ω) = exp

{− (log (ω/ω0))

2

2 (log (σ/ω0))

}, (2.27)

em que ω0 é a frequência central e σ determina o espalhamento. À medida que afrequência central é variada, manter a razão σ/ω0 constante possibilita a obtençãode filtros proporcionalmente constantes, ou seja, com a mesma largura de banda.

Page 56: Universidade Federal de Pernambuco - UFPE · be forgotten or shared and hardly changed. Among various biometric methods, iris recognition systems are frequently cited as one of the

2.4 CODIFICAÇÃO 40

Kovesi [64] sugere que os valores 0,74, 0,55 e 0,41 resultam em filtros com largura debanda de aproximadamente uma, duas e três oitavas, respectivamente. A Figura 2.14exibe o comportamento do filtro log-Gabor quando observados nas escalas linear elogarítmica de frequências.

Utilizando um procedimento semelhante ao de Daugman, Masek [48] e Pereira [12]também geram templates codificados binariamente, substituindo cada pixel da imagemfiltrada por dois bits que representam as informações de fase quantizadas. A filtragemdas imagens normalizadas é realizada linha a linha (que correspondem a anéiscirculares da região da íris), devido à característica unidimensional do filtro.

2.4.3 Laplaciano da Gaussiana

O Laplaciano da Gaussiana é o filtro utilizado no sistema proposto por Wildes etal. [25] para codificar as características da íris. Estes filtros são definidos por:

∇G = − 1πσ4

(1− ρ2

2σ2

)e−ρ2/2σ2

, (2.28)

onde σ é o desvio padrão da Gaussiana e ρ a distância radial entre um ponto e o centrodo filtro.

Na prática, Wildes et al. usam o esquema de pirâmide laplaciana, um dos primeirosmétodos sugeridos para compressão de imagens, filtrando as imagens através de umasérie de pequenos filtros gaussianos em cascata.

Considere que w = [1 4 6 4 1]/16, seja um kernel unidimensional e W = wTw,uma máscara bidimensional que resulta do produto de w por ele mesmo. Sendo Iuma imagem normalizada da íris, a construção da pirâmide laplaciana inicia pelaconvolução de I com W, de modo a obter um conjunto de imagens suavizadas gk,de acordo com:

gk = (W ∗ gk−1)↓2, (2.29)

onde g0 = I e (·)↓2 representa uma amostragem em cada dimensão da imagem porum fator de 2 (esta operação também é conhecida como decimação). O k-ésimo nívelda pirâmide laplaciana lk é formado pela diferença existente entre gk e gk+1. A imagemgk+1 deve ser expandida antes da subtração, de modo a possuir as mesmas dimensõesde gk. Esta expansão é realizada através da adição de novas linhas e colunas, seguidasde interpolação. Este processo é descrito através da equação:

Page 57: Universidade Federal de Pernambuco - UFPE · be forgotten or shared and hardly changed. Among various biometric methods, iris recognition systems are frequently cited as one of the

2.4 CODIFICAÇÃO 41

0 50 100 150 200 250 300 350 400 450 5000

0.1

0.2

0.3

0.4

0.5

0.6

0.7

0.8

0.9

1

Frequência (ω)

Am

plitu

de

Função log−Gabor 1D

(a) Escala linear.

100

101

102

103

0

0.1

0.2

0.3

0.4

0.5

0.6

0.7

0.8

0.9

1

Frequência (ω)

Am

plitu

de

Função log−Gabor 1D

(b) Escala logarítmica.

Figura 2.14: Perfis da função log-Gabor quando observado em diferentes escalas.Neste exemplo ω0 = 50 e σ/ω0 = 0, 55 (duas oitavas).

Page 58: Universidade Federal de Pernambuco - UFPE · be forgotten or shared and hardly changed. Among various biometric methods, iris recognition systems are frequently cited as one of the

2.5 COMPARAÇÃO 42

lk = gk − 4W ∗ (gk+1)↑2, (2.30)

em que (·)↑2 indica que a expansão das linhas e colunas é realizada através de umarazão de 2. O kernel bidimensional W é utilizado como filtro de interpolação e o fator4 é necessário de modo a preservar a intensidade média dos pixels, devido a 3/4 dospontos da imagem serem zeros recentemente inseridos pela expansão.

O conjunto das matrizes lk possuem as características extraídas da íris. Wildeset al. determinam que quatro níveis devem ser usados na construção da pirâmidelaplaciana.

2.5 COMPARAÇÃO

Os diferentes padrões de codificação definem, cada um, uma métricacorrespondente para ser utilizada na comparação. Quando dois padrões de íris sãocomparados, esta métrica deve informar o grau de similaridade (ou dissimilaridade)existente entre as duas representações. São esperados dois tipos de intervalos,resultantes das comparações entre os templates: um para comparações entre templatesde um mesmo olho (genuínos ou comparações intra-classe) e outro para comparaçõesrealizadas entre templates de olhos diferentes (impostores ou comparações inter-classe). Para que decisões possam ser tomadas com alto grau de confiança, essesintervalos precisam ser os mais distintos e separados possível.

2.5.1 Distância de Hamming

A distância de Hamming opera sobre duas sequências de bits, calculando aquantidade de bits que divergem. Considerando B e C duas cadeias de bits de mesmocomprimento n, a distância de Hamming entre elas é calculada através da equação:

HD =1n

n

∑j=1

(B(j) ⊕ C(j)) , (2.31)

onde ⊕ representa uma operação ou-exclusivo (XOR) e o 1/n é um fator denormalização para que a distância de Hamming fique confinada ao intervalo [0; 1].Qualquer codificação que gere uma cadeia de bits pode utilizar esta medida na etapade comparação.

Daugman modifica a equação 2.31, de modo a desconsiderar áreas ruins(corrompidas) definidas na máscara de ruído. A nova distância de Hamming é

Page 59: Universidade Federal de Pernambuco - UFPE · be forgotten or shared and hardly changed. Among various biometric methods, iris recognition systems are frequently cited as one of the

2.5 COMPARAÇÃO 43

calculada por:

HD =‖(iriscodeA ⊕ iriscodeB) ∩ mascaraA ∩ mascaraB‖

‖mascaraA ∩ mascaraB‖ , (2.32)

onde iriscodeA, iriscodeB são os templates de duas íris e mascaraA, mascaraB são suasrespectivas máscaras de ruído. Os operadores ⊕ e ∩ representam as operaçõeslógicas XOR e AND, respectivamente. O fator presente no denominador determinaa quantidade de bits válidos, ou seja, aqueles que não foram identificados comoruído, para normalizar a distância de Hamming (de forma análoga a explicadaanteriormente).

Devido à natureza das operações, as comparações realizadas no sistema deDaugman são executadas de forma muito rápida. Os computadores mais modernospermitem realizar operações entre sequências de 64 bits em um único ciclo demáquina. Outro fator importante reside no fato de poder utilizar processamentoparalelo para distribuir a busca por um padrão, impactando diretamente naescalabilidade do sistema. Este procedimento é melhor aproveitado em situações dereconhecimento (identificação), no qual é necessário executar uma grande quantidadede comparações. Acredita-se que a maior parte do sucesso comercial do algoritmo deDaugman deva-se a este conjunto de fatores além, é claro, da sua alta precisão.

A normalização dos templates proporciona invariância à translação e à escala. Ainvariância à rotação é atingida deslocando os bits que compõem o template para adireita e para a esquerda, selecionando a combinação que apresente a menor HD.Este procedimento é sugerido por Daugman [15, 17], e corrige desalinhamentos queporventura existam no padrão normalizado. A Figura 2.15 mostra como ocorre odeslocamento e seu efeito no cálculo da distância de Hamming. Observe que paracada deslocamento os bits devem saltar duas posições.

A equação da distância de Hamming permite, ao menos teoricamente, que valoresentre 0,0 e 1,0 sejam obtidos. O valor zero para a HD corresponde ao caso onde todosos bits das duas sequências são iguais. Inversamente, uma HD = 1 é obtida quandotodos os bits do template são diferentes.

No cenário ideal, a comparação entre templates de uma mesma íris resultaria emuma HD = 0,03. Na prática, entretanto, este valor se aproxima mas não chega a serexatamente zero, uma vez que o processo de normalização não é perfeito, sem falar dapossível interferência causada por ruídos não detectados.

3Utilizando as técnicas disponíveis até o momento, apenas em uma única situação uma HD igual azero pode ser obtida: quando a mesma imagem é usada para criar ambos os templates.

Page 60: Universidade Federal de Pernambuco - UFPE · be forgotten or shared and hardly changed. Among various biometric methods, iris recognition systems are frequently cited as one of the

2.5 COMPARAÇÃO 44

Figura 2.15: Representação de como é realizado o deslocamento dos bits dos templatespara atingir invariância à rotação. Ao final dos deslocamentos menor distância é aselecionada como grau de dissimilaridade entre os padrões.

No caso de comparações realizando templates de íris não correlacionadas (deindivíduos diferentes), o valor esperado para a distância de Hamming é próxima a0,5. Este valor decorre do fato de que a correspondência entre as sequências bináriasapresenta comportamento altamente aleatório, com probabilidade de 50% para cadabit possuir valor 0 ou 1. Dessa forma é muito provável que, para padrões nãocorrelacionados, seus bits divirjam em 50%, resultando em uma HD ≈ 0,5 [15, 17].

2.5.2 Distância Euclidiana ponderada

A distância Euclidiana ponderada (WED - Weighted Euclidean Distance) pode serusada para comparar dois templates, especialmente nos casos em que são compostospor valores pertencentes a classe dos números inteiros. A WED, diferentemente dadefinição padrão da distância de Hamming, mede o grau de similaridade existenteentre dois templates. Esta métrica foi empregada por Zhu et al. [31] e é calculada atravésda equação:

WED(k) =N

∑i=1

(fi − f k

i)2(

δki)2 , (2.33)

onde fi, f ki representam a i-ésima característica do template em teste e do template k,

respectivamente, e δki é o desvio padrão da i-ésima característica do template k.

Quando a distância Euclidiana ponderada é mínima para certo k, correlaciona-se opadrão em teste ao da íris definida por k.

Page 61: Universidade Federal de Pernambuco - UFPE · be forgotten or shared and hardly changed. Among various biometric methods, iris recognition systems are frequently cited as one of the

2.6 BASES DE IMAGENS DE ÍRIS 45

2.5.3 Correlação normalizada

A correlação normalizada é a técnica de comparação utilizada no sistema de Wildeset al. [25], que determina o quão bom é o casamento das características entre duasrepresentações. Na sua forma discreta, a correlação normalizada pode ser definidada seguinte maneira: considere p1[i, j] e p2[i, j], duas imagens de tamanho n × m.Considere também que:

µ1 =(

1nm

) n

∑i=1

m

∑j=1

p1[i, j] (2.34)

e

σ1 =

√√√√( 1nm

) n

∑i=1

m

∑j=1

(p1[i, j]− µ1)2 (2.35)

sejam a média e o desvio padrão dos valores de intensidade de p1, respectivamente.Também considere que µ2 e σ2 sejam definidas de modo análogo, com referência a p2.Dessa forma, a correlação normalizada entre p1 e p2 é definida como:

NC =∑n

i=1 ∑mj=1 (p1[i, j]− µ1) (p2[i, j]− µ2)

nmσ1σ2. (2.36)

Wildes et al. citam que a apesar da correlação normalizada capturar o mesmo tipode informação que a correlação padrão (similaridade entre pontos correspondentesde uma região), ela também considera variações locais na intensidade da imagem,que degradam o desempenho da correlação padrão. Este melhor desempenho resultaquando as intensidades médias são subtraídas no numerador do coeficiente decorrelação, enquanto que os desvios-padrão aparecem no denominador.

Diferentemente dos métodos anteriores, que podem ser usadas em situações tantode reconhecimento como de verificação, a correlação normalizada só foi testada emcenários de verificação.

2.6 BASES DE IMAGENS DE ÍRIS

As bases de imagens de íris desempenham um papel de extrema importânciapara o desenvolvimento de novas técnicas para o reconhecimento de íris e seussubsistemas. Elas permitem que pesquisas sejam conduzidas sem necessidade dedesenvolvimento ou compra de equipamentos específicos, que poderiam inviabilizaralgumas pesquisas. Além disso, removem a preocupação de realizar todo um

Page 62: Universidade Federal de Pernambuco - UFPE · be forgotten or shared and hardly changed. Among various biometric methods, iris recognition systems are frequently cited as one of the

2.6 BASES DE IMAGENS DE ÍRIS 46

Tabela 2.1: Relação de bases de dados de imagens de íris, retirado de [4].

Base N° de Olhos N° de Imagens CâmeraCASIA v1 [65] 108 756 Câmera CASIACASIA v3 [65] 1.500 22.051 Câmera CASIA e OKI irispass-hICE 2005 [66] 244 2953 LG2200ICE 2006 [66] 480 60.000 LG2200MMU1 [67] 90 450 LG IrisAccessMMU2 [67] 199 995 Panasonic BM-ET100USUBIRIS [68] 241 1.877 Nikon E5700BATH [69] 800 16.000 ISG LightWise LW-1.3-S-1394UPOL [70] 128 384 Sony DXC-950P 3CCDWVU [71] 488 3.099 OKI irispass-h

protocolo de aquisição que pode demandar um tempo relativamente alto.Não é raro, em problemas de reconhecimento de padrões, encontrar pesquisas

que descrevem novas técnicas ou abordagens utilizando bases de dados proprietárias(não acessíveis ao público) com resultados extremamente animadores. Entretanto,quando testes usando essas "técnicas promissoras" são conduzidos em ambientesmenos restritos ou com uma quantidade maior de exemplos, elas podem apresentarresultados bem diferentes daqueles previamente divulgados.

Este problema é minimizado quando são utilizadas bases de dados publicamentedisponíveis. Elas permitem que pesquisadores divulguem e comparem maisfacilmente suas novas técnicas com outras previamente publicadas, evitandocomparações tendenciosas, aumentando a credibilidade da pesquisa, facilitando umaposterior reprodução.

Bowyer et al. [4] resumem algumas bases de imagens de íris comumente utilizadasem pesquisas da área. Esta relação pode ser observada através da Tabela 2.1. Apesarde existir uma certa quantidade de opções, as bases nem sempre são facilmenteadquiridas como no caso das bases ICE, MMU2, UBIRIS e WVU, que precisam detodo um trâmite burocrático.

A Figura 2.16 mostra dois exemplos de imagens para cada uma das bases deimagens utilizadas nas diferentes etapas deste trabalho. Essas bases são descritas aseguir.

Page 63: Universidade Federal de Pernambuco - UFPE · be forgotten or shared and hardly changed. Among various biometric methods, iris recognition systems are frequently cited as one of the

2.6 BASES DE IMAGENS DE ÍRIS 47

(a) 003_2_4 (Casia v1). (b) S1045L07 (Casia v3). (c) bryanl5 (MMU1).

(d) 087_2_4 (Casia v1). (e) S1068L02 (Casia v3). (f) fatmar1 (MMU1).

Figura 2.16: Exemplos de imagens das bases de imagens públicas Casia v1, Casia v3 eMMU1.

2.6.1 CASIA v1

A base CASIA versão 1 [65] foi o primeiro banco público de imagens de íris aser disponibilizado gratuitamente, sendo mantido pelo Instituto de Automação daAcademia Chinesa de Ciências (Chinese Academy of Sciences - Institute of Automation,CASIA). Ele contém um total de 756 imagens de íris de 108 olhos, em escala de cinza.Para cada olho, sete imagens foram capturadas em duas sessões com intervalo deseparação de um mês, onde três imagens foram coletadas na primeira sessão e quatrona segunda.

As imagens foram capturadas a partir de uma câmera desenvolvida pelo próprioinstituto, que contava com oito leds infravermelho (na faixa de 850 nm), dispostoscircularmente ao redor do sensor da câmera, para assegurar que a íris seria iluminadaadequada e uniformemente. A escolha do infravermelho para iluminação tambémdeve-se ao fato de que os indivíduos, a partir dos quais foram capturadas as imagens,são asiáticos que possuem, predominantemente, pigmentação da íris escura.

Por questões de proteção de patente, a região interior à pupila foi preenchida

Page 64: Universidade Federal de Pernambuco - UFPE · be forgotten or shared and hardly changed. Among various biometric methods, iris recognition systems are frequently cited as one of the

2.6 BASES DE IMAGENS DE ÍRIS 48

artificialmente, antes da primeira divulgação pública da base, para preservar osequipamentos usados em sua aquisição [65]. Este procedimento facilita a detecção daborda pupila/íris, pois, esta área possui valor uniforme. Entretanto, as demais etapasnão são afetadas por tal manipulação artificial.

2.6.2 CASIA v3

O banco CASIA versão 3 [65] é proveniente do mesmo instituto de pesquisas quedisponibilizou a CASIA v1. Ele é composto por três subgrupos, denominados CASIA-IrisV3-Interval, CASIA-IrisV3-Lamp e CASIA-IrisV3-Twins. No total, a CASIA v3contém 22.051 imagens de 700 indivíduos. As imagens são disponibilizadas em tonsde cinza e foram adquiridas usando iluminação infravermelha.

Duas características são importantes de destacar:

1. Grande parte dos indivíduos são chineses, exceto por alguns de outrasnacionalidades4 presentes no subgrupo Interval;

2. Existe uma pequena duplicidade de indivíduos entre os subgrupos Interval eLamp.

Estas considerações são importantes quando se deseja utilizar todas as imagens paraa construção de um sistema de reconhecimento.

O subgrupo Interval é um superconjunto da base CASIA v1 e contém 395 olhos de249 diferentes indivíduos, com um total de 2655 imagens. Um detalhe importante éque, diferentemente da CASIA v1, as imagens deste subgrupo foram disponibilizadassem o preenchimento artificial da pupila.

O subgrupo Lamp possui 819 olhos de 411 indivíduos, com um total de 16213imagens. As imagens deste subgrupo foram adquiridas em uma única sessão, ligandoe desligando uma lâmpada próximo aos indivíduos para introduzir uma maiorvariação do tamanho da pupila entre imagens do mesmo olho.

O subgrupo Twins é a primeira base de dados publicamente disponível somentecom imagens de olhos de gêmeos. Ele contém 400 olhos de 200 indivíduos e um totalde 3183 imagens adquiridas em uma única sessão.

4Apesar de mencionar que alguns não são chineses, os criadores da base não deixam explícitoquantos são não-chineses, nem quais as nacionalidades. Entretanto, a indisponibilidade destes dadosnão traz nenhum prejuízo na sua utilização.

Page 65: Universidade Federal de Pernambuco - UFPE · be forgotten or shared and hardly changed. Among various biometric methods, iris recognition systems are frequently cited as one of the

2.6 BASES DE IMAGENS DE ÍRIS 49

2.6.3 MMU1

A MMU1 [67], construída pela Multimedia University, possui um total de 450imagens coletadas de 45 indivíduos. Cada indivíduo teve 10 imagens capturadas,sendo 5 para cada olho.

As imagens foram coletadas a uma distância variável ente 7 a 25 cm, utilizandoiluminação no espectro visível. Duas características principais são destacadas:

• Possuem pontos de reflexão na pupila;

• Contêm grandes áreas de pele.

Além disso, algumas imagens apresentam certas particularidades: em algumasimagens observa-se a formação de sombra (causada pelo esquema de iluminação) e ouso de óculos e reflexões em suas lentes. Estas particularidades tornam a segmentaçãodas imagens ainda mais desafiadora.

Page 66: Universidade Federal de Pernambuco - UFPE · be forgotten or shared and hardly changed. Among various biometric methods, iris recognition systems are frequently cited as one of the

CAPÍTULO 3

RECONHECIMENTO DE ÍRIS USANDO FILTROS

LOG-GABOR 2D

Sistemas de reconhecimento de íris são compostos por diferentes fases. Em cadauma delas existem vários fatores que podem interferir no desempenho geral dosistema.

Este capítulo descreve a construção de um sistema completo de reconhecimentode íris (exceto para fase de aquisição de dados), baseado nas pesquisas realizadaspor Masek [48], e se concentra, principalmente, na investigação do uso de Filtroslog-Gabor bidimensionais para extração das características presentes nos padrões detextura da íris.

Apesar de já existirem trabalhos que usam o filtro log-Gabor 2D, esta investigaçãofoi motivada pelos resultados de difícil análise e interpretação e pobres de comparaçãoapresentados nas pesquisas publicadas por Y. Du [72] e Yao et al. [7].

Yao et al. sugerem uma modificação do filtro log-Gabor para que sua construçãoseja realizada em um sistema de coordenadas cartesianas no domínio das frequências,de modo a permitir um aumento da largura de banda angular, limitada pelaperiodicidade 2π, em coordenadas polares. Ele compara sua codificação com umaoutra utilizando filtros Gabor 2D e apresenta resultados baseados em uma curva ROCsem valores numéricos em seus eixos e na EER. Além disso, nenhum comentário sobrea escolha dos parâmetros dos filtros utilizados na comparação é realizado.

Y. Du justifica o uso de filtros log-Gabor 2D devido a sua capacidade decapturar características bidimensionais dos padrões de textura da íris quandocomparados a abordagens que utilizam filtros unidimensionais, que capturam apenasas características radial ou angular de imagens normalizadas. Os filtros sãoconstruídos no domínio das frequências e um par de máscaras espaciais é obtidaatravés do cálculo da transformada inversa de Fourier, tomando as partes real eimaginária. Seus resultados apresentam apenas taxas de acerto para cenários ondesão cadastradas uma, duas ou três imagens por olho, para compor a base de dados deindivíduos conhecidos. Nenhuma comparação com outro tipo de filtro é realizada e,

50

Page 67: Universidade Federal de Pernambuco - UFPE · be forgotten or shared and hardly changed. Among various biometric methods, iris recognition systems are frequently cited as one of the

3.1 DESCRIÇÃO DO SISTEMA 51

assim como Yao et al. [7], nenhuma consideração sobre a escolha dos parâmetros dofiltro é abordada.

3.1 DESCRIÇÃO DO SISTEMA

Diferentes tipos de abordagens têm sido usadas para realizar a extração decaracterísticas presentes na textura da íris, como descrito na Seção 2.4. O presentecapítulo investiga o uso de filtros log-Gabor 2D na etapa de extração de características.Para isso, um sistema completo de reconhecimento de íris foi construído, excetopela etapa de aquisição da imagem, que foi substituída pela utilização de imagensencontradas em bancos públicos de imagens de íris.

O sistema de reconhecimento de íris em questão, composto pelos módulos desegmentação, normalização, codificação e comparação, é baseado no modelo sugeridopor Libor Masek [48]. Seu trabalho é muito referenciado, por ser uma das primeiraspublicações a descrever um sistema de reconhecimento de íris com profundidade dedetalhes. Os trabalhos de Pereira [12], Liu [52], Kalka et al. [37] e Hollingsworth [73]são algumas das publicações que se beneficiaram do estudo realizado por Masek.

3.1.1 Segmentação

A etapa da segmentação assume que as bordas definidas pelas fronteiraspupila/íris e íris/esclera podem ser modeladas através de dois círculos nãoconcêntricos. Para achar os parâmetros que definem cada um dos círculos, utiliza-se aTransformada de Hough Circular (THC), através das etapas descritas a seguir.

Primeiro, um mapa dos pontos de borda é gerado usando uma versão modificadado detector de bordas Canny (Canny Edge Detector) [74, 75], que possibilita a obtençãode gradientes em uma direção desejada (vertical, horizontal ou ambas), como sugeridopor Wildes et al. [25]. A observação de Wildes et al. consiste no fato de que o gradientevertical possui os pontos mais relevantes para a detecção da borda íris/esclerótica,enquanto que o gradiente horizontal possui maior relevância para a detecção depálpebras, como pode ser observado na Figura 3.1. A diminuição dos pontos deborda, através da ponderação dos gradientes, reduz o custo computacional atreladoao cálculo da Transformada de Hough Circular.

Masek sugere primeiro realizar a procura pelos parâmetros da bordaíris/esclerótica, seguida pela busca da borda pupila/íris, alegando que esta estratégiarestringe a área de busca pela pupila, visto que a pupila sempre estará contida dentro

Page 68: Universidade Federal de Pernambuco - UFPE · be forgotten or shared and hardly changed. Among various biometric methods, iris recognition systems are frequently cited as one of the

3.1 DESCRIÇÃO DO SISTEMA 52

(a) Imagem de um olho. (b) Mapa dos pontos de borda.

(c) Apenas gradiente vertical. (d) Apenas gradiente horizontal.

Figura 3.1: Diferenças entre os mapas de ponto de borda, a partir da ponderação dosgradientes.

da íris [48]. Esta observação também deve-se ao fato de que, ao calcular o espaçotransformado de Hough, o círculo que representa a íris possui uma maior respostaque o da pupila, devido ao maior número de pontos de borda, inerentes ao seu maiorraio. Entretanto, as bodas definidas pela íris geralmente apresentam menor contraste,dificultando sua correta definição. De modo a diminuir os efeitos deste problema,foram realizadas duas modificações na estratégia inicialmente proposta por Masek:

1. Aplicação de equalização de histograma para aumentar o contraste na bordaíris/esclera (apenas quando realiza a busca dos parâmetros desta borda);

2. Remoção de pequenos grupos de pixels 8-conectados (para as buscas de ambasas bordas).

A segunda alteração remove pontos ruidosos na imagem binária, sendo necessária,principalmente, devido ao aumento expressivo no número de pontos de borda

Page 69: Universidade Federal de Pernambuco - UFPE · be forgotten or shared and hardly changed. Among various biometric methods, iris recognition systems are frequently cited as one of the

3.1 DESCRIÇÃO DO SISTEMA 53

(a) Imagem de um olho. (b) Mapa de pontos de borda (apenasgradiente vertical) a partir daimagem (a), antes da equalização dehistograma.

(c) Mapa de pontos de borda (apenasgradiente vertical) a partir da imagem(a), após a equalização de histograma.

(d) Imagem (c) após remoção depequenos grupos de componentes 8-conectados.

Figura 3.2: Comparação do efeito da equalização de histograma na geração de mapasde pontos de borda.

provenientes da aplicação do método Canny em imagens com histograma equalizado.Os efeitos das modificações na geração do mapa de pontos de borda são ilustrados naFigura 3.2.

Em seguida, a imagem com o mapa de pontos de borda é utilizada para calculara Transformada de Hough Circular, através das equações 2.4, 2.5 e 2.6, repetidas aquipor conveniência:

H(xc, yc, r) =n

∑j=1

h(xj, yj, xc, yc, r), (3.1)

com

Page 70: Universidade Federal de Pernambuco - UFPE · be forgotten or shared and hardly changed. Among various biometric methods, iris recognition systems are frequently cited as one of the

3.1 DESCRIÇÃO DO SISTEMA 54

Figura 3.3: Fluxograma do procedimento utilizado para encontrar as bordas da pupilae íris.

h(xj, yj, xc, yc, r) =

{1, caso g(xj, yj, xc, yc, r) = 0;0, caso contrario.

(3.2)

sabendo que:

g(xj, yj, xc, yc, r) = (xj − xc)2 + (yj − yc)2 − r2. (3.3)

O ponto do espaço transformado de Hough que possuir a maior quantidade devotos é selecionado como o melhor candidato a possuir os parâmetros do círculoprocurado. A Figura 3.3 mostra o fluxograma dos procedimentos adotados na buscadas bordas circulares da pupila e íris.

A detecção de regiões da íris ocultas por pálpebras é realizada através da busca poruma reta que melhor se adapte a fronteira íris/esclerótica, utilizando a Transformadade Hough Linear, a partir de mapas de pontos de borda gerados apenas com ogradiente horizontal. Se um segmento de reta for encontrado, uma linha horizontalé, então, traçada, de modo a se interceptar com a primeira no ponto mais próximo apupila. Esta estratégia é realizada separadamente para ambas as pálpebras, e permiteisolamento máximo das regiões de oclusão. A Figura 3.4 ilustra este processo.

Os cílios são detectados por uma técnica de limiarização. Pixels com intensidademenor que 100 são identificados como cílios. Todos os tipos de ruído são marcadospara que estas regiões não sejam consideradas na etapa de comparação, de modo anão deturpar o cálculo da distância entre os templates. A Figura 3.5 exibe exemplos doresultado final do processo de segmentação.

Page 71: Universidade Federal de Pernambuco - UFPE · be forgotten or shared and hardly changed. Among various biometric methods, iris recognition systems are frequently cited as one of the

3.1 DESCRIÇÃO DO SISTEMA 55

(a) (b)

(c) (d)

Figura 3.4: Detecção de pálpebras: (a) Imagem com bordas da pupila e íris detectadas;(b) Linhas detectadas através da Transformada de Hough Linear, correspondente asbordas das pálpebras superior e inferior; (c) Linhas horizontais que interceptam asprimeiras no ponto de borda da íris mais próximo da pupila; (d) Demarcação dasregiões detectadas como pálpebras.

Page 72: Universidade Federal de Pernambuco - UFPE · be forgotten or shared and hardly changed. Among various biometric methods, iris recognition systems are frequently cited as one of the

3.1 DESCRIÇÃO DO SISTEMA 56

(a) (b)

(c) (d)

(e) (f)

(g) (h)

Figura 3.5: Exemplos de imagens corretamente segmentadas. As figuras (a, c, e, g)exibem imagens de olhos e as figuras (b, d, f, h) mostram o resultado da segmentação.

Page 73: Universidade Federal de Pernambuco - UFPE · be forgotten or shared and hardly changed. Among various biometric methods, iris recognition systems are frequently cited as one of the

3.1 DESCRIÇÃO DO SISTEMA 57

3.1.2 Normalização

O processo de normalização empregado foi baseado no modelo de deformaçãoelástica (rubber sheet model), proposto por Daugman [17], para criar uma representaçãouniforme em coordenadas polares da região da íris.

Como os círculos não são considerados concêntricos, uma correção na dimensãoradial, dependente do ângulo, é realizada sobre o modelo de Daugman. Linhas radiaissão traçadas, do centro da pupila até a borda da íris (em uma mesma direção θ),separadas por certo ângulo φ, como mostrado na Figura 3.6. O novo raio (ρ′) é, então,calculado através da equação [48]:

ρ′ =√

αβ±√

αβ2 − α− r2I

com:

α = o2x + o2

y, (3.3a)

ox = xpupila − xiris, (3.3b)

oy = ypupila − yiris, (3.3c)

β = cos{

π − arctan(

oyox

)− θ}

, (3.3d)

onde ox, oy representam o deslocamento do centro da pupila em relação ao centro daíris e rI é o raio da íris.

Figura 3.6: Detalhe da variação do comprimento das linhas radiais ρ, quando o centrosdos círculos que definem a pupila e íris estão em locais diferentes. Linhas radiais sãotraçadas a partir do centro da pupila e o seu novo comprimento ρ′ é determinado paraamostrar os pontos que formarão o template uniformemente em cada direção angular.

Page 74: Universidade Federal de Pernambuco - UFPE · be forgotten or shared and hardly changed. Among various biometric methods, iris recognition systems are frequently cited as one of the

3.1 DESCRIÇÃO DO SISTEMA 58

O número de pontos amostrados em cada linha radial define a resolução radiale, similarmente, o número de linhas define a resolução angular. Neste trabalhoas dimensões escolhidas para formar a imagem normalizada foram as melhoresdimensões encontradas por Masek [48], ou seja: 20 pontos radiais e 240 linhas(direções angulares), formando um template de tamanho 20x240.

A Figura 3.7 exibe as regiões da íris após o processo de normalização, para cadaum dos quatro olhos mostrados na Figura 3.5 (b, d, f, h), respectivamente.

(a)

(b)

(c)

(d)

Figura 3.7: Exemplos de regiões da íris normalizadas, que aparecem em maiorresolução para facilitar a visualização. As áreas em preto indicam regiões com ruído(cílios ou pálpebras). As imagens mostram a região da íris dos olhos apresentados naFigura 3.5 (b, d, f, h), respectivamente.

Page 75: Universidade Federal de Pernambuco - UFPE · be forgotten or shared and hardly changed. Among various biometric methods, iris recognition systems are frequently cited as one of the

3.1 DESCRIÇÃO DO SISTEMA 59

3.1.3 Codi�cação

3.1.3.1 Filtro log-Gabor 2D Os filtros Gabor tornaram-se a escolha tradicionalna análise de texturas, pois atingem o limite inferior teórico da incertezaconjunta, possibilitando a obtenção simultânea de informações sobre frequência elocalização. Entretanto, estes filtros possuem dois fatores que podem restringirseu uso: a largura de banda que pode ser utilizada para capturar informações élimitada a aproximadamente uma oitava, e a determinação da localização espacialde informações espectrais espalhadas por uma grande área não é consideradasatisfatória [64].

Ao observar a função de transferência da componente real (ou de simetria par) dofiltro Gabor 2D no espectro de frequência, identifica-se que seu comportamento é dadopela soma de duas Gaussianas, centradas opostamente nas posições determinadaspela frequência central do filtro. Caso a extensão do envelope gaussiano torne-semaior que um terço da frequência central, as caudas das Gaussianas começam a sesobrepor excessivamente na origem, resultando em uma componente DC diferente dezero [64]. Este efeito pode ser observado na Figura 3.8.

Filtros log-Gabor apresentam-se como alternativa ao uso dos filtros Gabor devidoa duas características importantes: por definição não possuem componente DC e suafunção de transferência é prolongada por um grande intervalo na frequência, o quetorna possível o uso de maiores larguras de banda para capturar informações [76].Além disso, a largura de banda pode ser otimizada para produzir um filtro com asmenores dimensões espaciais.

Em um sistema em coordenadas polares, o filtro log-Gabor 2D pode ser divididoem duas componentes: uma radial e outra angular, sendo obtido pela equação:

G(ω, θ) = Gρ(ω) · Gθ(θ). (3.4)

Com

Gρ(ω) = exp

{− [log(ω/ω0)]

2

2 · [log(σω)]2

}, (3.4a)

Gθ(θ) = exp

{− (θ − θ0)

2

2 · σ2θ

}, (3.4b)

resultando em:

Page 76: Universidade Federal de Pernambuco - UFPE · be forgotten or shared and hardly changed. Among various biometric methods, iris recognition systems are frequently cited as one of the

3.1 DESCRIÇÃO DO SISTEMA 60

(a) (b)

(c) (d)

Figura 3.8: Diferentes funções de transferência da componente de simetria par do filtroGabor 2D. Note que, à medida que a largura de banda do filtro aumenta, as gaussianasse sobrepõem na origem, resultando em uma indesejada componente DC.

G(ω, θ) = exp

{− [log(ω/ω0)]

2

2 · [log(σω)]2

}· exp

{− (θ − θ0)

2

2 · σ2θ

}, (3.5)

onde ω0 é a frequência central, θ0 é o ângulo de orientação, σω e σθ são a largura debanda radial e angular, respectivamente.

A Figura 3.9 exibe o comportamento da resposta em frequência de um filtro log-Gabor 2D. Já a Figura 3.10 mostra seu perfil tridimensional.

3.1.3.2 Geração dos templates A geração dos templates é realizada através de umprocesso análogo ao sugerido por Daugman. Como os filtros log-Gabor são criados

Page 77: Universidade Federal de Pernambuco - UFPE · be forgotten or shared and hardly changed. Among various biometric methods, iris recognition systems are frequently cited as one of the

3.1 DESCRIÇÃO DO SISTEMA 61

(a) (b) (c)

Figura 3.9: (a) Componente radial, ω0 = 1/10 e σω = 0,55. (b) Componente angular, θ0= 0 e σθ = π/8. (c) Filtro log-Gabor 2D: composição de (a) e (b). Adaptado de [76].

diretamente no domínio da frequência, o processo de filtragem também é realizadoneste domínio. Assim, a partir de uma imagem normalizada, primeiro calcula-se suatransformada de Fourier e a multiplica pela função de transferência do filtro. Emseguida, toma-se a transformada inversa da imagem filtrada. Este processo dá origema coeficientes complexos, cujos valores das componentes real e imaginária determinamas coordenadas de um fasor no plano complexo.

A extração de características é realizada através da projeção do fasor representativode cada pixel no plano complexo, quantizando as informações de fase em valorescorrespondentes a um dos quatro quadrantes possíveis. As informações de fase foramutilizadas devido a sua maior capacidade discriminante que as de amplitude, alémde serem mais imunes a fatores como contraste e iluminação, como mostrado porOppenheim e Lim [77].

Os quatro níveis possíveis são representados por um par de bits codificadosem código Gray. Este tipo de codificação impõe a mudança de apenas um bitentre quadrantes adjacentes, minimizando possíveis erros de projeção causados peloalinhamento realizado na etapa de normalização da imagem. A descrição matemáticada extração de características e codificação é dada através da equação:

h{Re,Im} = sinal{Re,Im}

{ˆρ

ˆθ

I(ρ, θ) ∗ lg(ρ, θ)dρdθ

}, (3.6)

onde I(ρ, θ) é a imagem normalizada, lg(ρ, θ) é o filtro log-Gabor no domínio espacial,∗ representa uma operação de convolução e h{Re,Im} são os bits codificados paracada pixel da imagem filtrada, dados pelo sinal das componentes real e imaginária,

Page 78: Universidade Federal de Pernambuco - UFPE · be forgotten or shared and hardly changed. Among various biometric methods, iris recognition systems are frequently cited as one of the

3.1 DESCRIÇÃO DO SISTEMA 62

(a) Componente radial. (b) Componente angular.

(c) Composição.

Figura 3.10: Filtro log-Gabor 2D (o mesmo apresentado pela Figura 3.9), representadoem três dimensões.

respectivamente. A representação gráfica deste processo é observada na Figura 2.13(Seção 2.4). Dessa forma, ao fim da codificação cada template será constituído por umtotal de 9600 bits (20x240x2).

Uma máscara de ruído, de dimensões iguais à do template, é gerada a partirdas áreas previamente marcadas como pertencentes a cílios e pálpebras pela etapade segmentação. Estas áreas são desprezadas na comparação, evitando possíveisdeturpações no cálculo da medida de similaridade.

A Figura 3.11 mostra os templates codificados e suas respectivas máscaras deruído. Estas imagens correspondem, respectivamente, às imagens normalizadas daFigura 3.7.

Page 79: Universidade Federal de Pernambuco - UFPE · be forgotten or shared and hardly changed. Among various biometric methods, iris recognition systems are frequently cited as one of the

3.1 DESCRIÇÃO DO SISTEMA 63

(a) Template gerado a partir da imagem 3.7 (a).

(b) Máscara de ruído da imagem 3.7 (a).

(c) Template gerado a partir da imagem 3.7 (b).

(d) Máscara de ruído da imagem 3.7 (b).

(e) Template gerado a partir da imagem 3.7 (c).

(f) Máscara de ruído da imagem 3.7 (c).

(g) Template gerado a partir da imagem 3.7 (d).

(h) Máscara de ruído da imagem 3.7 (d).

Figura 3.11: Exemplos das imagens codificadas (a, c, e, g) e suas respectivas máscarasde ruído (b, d, f, h). Nas imagens da máscara, as áreas em preto indicam bits válidos.

Page 80: Universidade Federal de Pernambuco - UFPE · be forgotten or shared and hardly changed. Among various biometric methods, iris recognition systems are frequently cited as one of the

3.2 DEFINIÇÕES IMPORTANTES 64

3.1.4 Comparação

Após a geração de todos os templates e suas respectivas máscaras de ruído, elessão comparados dois a dois, em um esquema de reconhecimento. As diversascomparações realizadas são separadas em dois grupos: o primeiro para comparaçõesentre imagens do mesmo olho (conhecidas como comparações intra-classe) e osegundo para comparações entre imagens de olhos diferentes (conhecidas comocomparações inter-classe). Como geralmente o número de imagens de um mesmoolho é reduzido, a quantidade de comparações intra-classe é normalmente algumasordens de grandeza menor que as comparações inter-classe.

Em cada comparação é calculada a distância de Hamming entre os templates e ±Ndeslocamentos, selecionando como medida final a menor HD. O cálculo da distânciade Hamming é realizado através da equação 2.32, que contempla o uso de máscarasde ruído. A inclusão de deslocamentos no cálculo da HD proporciona invariância àrotação.

3.2 DEFINIÇÕES IMPORTANTES

As comparações entre os templates podem ser divididas em dois grupos: intra-classe (para imagens de um mesmo olho) e inter-classe (para imagens de olhosdiferentes). Quando uma grande quantidade dessas comparações é realizada, cadaum dos grupos pode ser aproximado por uma distribuição normal [17]. Dessa forma,o grande objetivo de um sistema de reconhecimento de íris é ser capaz de obter amelhor separação entre as distribuições intra e inter-classe.

A representação gráfica das duas distribuições é conhecida como ambiente dedecisão. Através dela é possível observar o grau de separação entre as duas classes,que revela a confiabilidade do sistema.

Uma medida que pode ser usada para inferir o grau de separação entre asclasses é a decidabilidade. A decidabilidade indica o grau de separação entre duasdistribuições, levando em consideração a média e o desvio padrão de cada uma. Sendoµ1 e µ2 as médias e σ1 e σ2 os desvios padrão das duas distribuições, a decidabilidadeé dada por:

d′ =|µ1 − µ2|√

σ21 +σ2

22

. (3.7)

O valor da decidabilidade independe de limiar adotado para decisão, o que

Page 81: Universidade Federal de Pernambuco - UFPE · be forgotten or shared and hardly changed. Among various biometric methods, iris recognition systems are frequently cited as one of the

3.2 DEFINIÇÕES IMPORTANTES 65

a torna uma métrica interessante para inferir o desempenho do sistema. Quantomaior a decidabilidade, maior a separação entre as distribuições intra e inter-classee, consequentemente, espera-se maior precisão no reconhecimento. Entretanto, caberessaltar que o melhor desempenho de um sistema depende do ajuste do limiar dedecisão (ponto de operação).

A partir da comparação entre o valor obtido através do cálculo da distância deHamming e um valor previamente escolhido para separar as duas distribuições, édecidido se dois templates pertencem ou não a um mesmo olho. Este valor é conhecidocomo limiar e determina o ponto de operação do sistema. Como nem sempre épossível obter duas distribuições totalmente separadas, elas deverão possuir regiõesde sobreposição, o que indica que haverá erros no processo de tomada de decisão.

Os erros aparecem em dois tipos, os erros de falsa aceitação (FAR) e os de falsarejeição (FRR). A FAR representa a probabilidade de um impostor ser aceito e a FRRindica a probabilidade do sistema rejeitar um usuário genuíno.

O ajuste do limiar indica a magnitude destes erros. Considerando Dintra e Dinter asdistribuições das classes intra e inter, respectivamente, e s o limiar, as taxas FAR e FRRpodem ser calculadas através das equações:

FAR =´ s

0 Dinter(x)dx´ 10 Dinter(x)dx

, (3.8)

FRR =´ 1

s Dintra(x)dx´ 10 Dintra(x)dx

. (3.9)

Os valores complementares as taxas FAR e FRR determinam, respectivamente, astaxas de: correta aceitação (CAR) e correta rejeição (CRR). Estas taxas são obtidasatravés das equações:

CAR = 1− FRR, (3.10)

CRR = 1− FAR. (3.11)

O valor do limar s possui grande influência na determinação das taxas de erro. Àmedida que o valor do limiar é aumentado, a FAR cresce e a FRR diminui. De formaanáloga, quando valor do limiar é reduzido, a FAR diminui e a FRR aumenta. A taxade igual erro (ERR) indica o ponto de operação onde FAR = FRR, sendo utilizada comoum terceiro parâmetro na avaliação do desempenho do sistema. Então, a decisão sobre

Page 82: Universidade Federal de Pernambuco - UFPE · be forgotten or shared and hardly changed. Among various biometric methods, iris recognition systems are frequently cited as one of the

3.3 EXPERIMENTOS 66

o melhor ponto de operação é realizada com a ajuda da curva ROC.

3.3 EXPERIMENTOS

Os experimentos foram executados substituindo a etapa de aquisição da imagempelo uso de imagens de íris provenientes da base de imagens CASIA v1.

As imagens foram inicialmente submetidas apenas a etapa de segmentação,seguida por uma análise visual, de modo a descartar imagens onde os parâmetrosdos círculos da pupila ou da íris fossem discrepantes e considerados incorretos.

Para encontrar os parâmetros da íris, o intervalo de 90 a 150 pixels foi utilizadopara montar o espaço tridimensional necessário ao cálculo da Transformada de HoughCircular. Para a pupila, o intervalo utilizado foi de 28 a 75 pixels. Com estesparâmetros, 719 imagens (de 756) foram avaliadas como corretamente segmentadas,algumas das quais podem ser observadas na Figura 3.5. Imagens consideradasincorretas são visualizadas na Figura 3.12.

A título de comparação, quando foi utilizada a estratégia originalmente propostapor Masek (sem as modificações sugeridas), apenas 664 imagens foram consideradascorretamente segmentadas. O resultado obtido após as modificações propostasmostram um aumento de 8,28% na quantidade de imagens que possuíram osparâmetros da pupila e da íris identificados corretamente.

Para cada imagem corretamente segmentada, um template e sua respectiva máscarade ruído foram criados, usando um filtro log-Gabor 2D. Em seguida, os templates foramcomparados 2 a 2 através do cálculo da distância de Hamming, com ±8 deslocamentos.Os resultados dos cálculos das distâncias foram separados nos grupos de comparaçõesintra e inter-classes, descritos anteriormente. A Tabela 3.1 mostra o número totalde comparações inter e intra classes, obtidas a partir da combinação das imagenssegmentadas corretamente.

Tabela 3.1: Quantidade de comparações intra e inter-classes.

Base Imagens Intra-classe Inter-classeCASIA v1 719 2067 256054

Page 83: Universidade Federal de Pernambuco - UFPE · be forgotten or shared and hardly changed. Among various biometric methods, iris recognition systems are frequently cited as one of the

3.3 EXPERIMENTOS 67

(a) (b)

(c) (d)

(e) (f)

(g) (h)

Figura 3.12: Exemplos de imagens incorretamente segmentadas. As figuras (a, c, e, g)exibem imagens de olhos e as figuras (b, d, f, h) mostram o resultado da segmentação.

Page 84: Universidade Federal de Pernambuco - UFPE · be forgotten or shared and hardly changed. Among various biometric methods, iris recognition systems are frequently cited as one of the

3.3 EXPERIMENTOS 68

Para estimar o desempenho do esquema de codificação e, assim, escolher a melhorcombinação de parâmetros para o filtro log-Gabor 2D, foi utilizada a decidabilidade.A determinação da melhor combinação foi executada por partes. Primeiro foramselecionados alguns parâmetros base e, a partir deles, foram geradas múltiplascombinações. A Tabela 3.2 mostra os parâmetros base selecionados para a primeirainvestigação. As escolhas contemplam 3 valores para a frequência central, 4 valorespara a largura de banda radial, 4 valores para a orientação e 2 valores para a largurade banda angular. A combinação de todos os parâmetros gera um total de 96 filtrosdiferentes. Os valores escolhidos para σr correspondem a uma largura de banda deuma, duas, pouco mais que duas e três oitavas. Eles foram selecionados para verificara capacidade do filtro log-Gabor 2D em capturar informações por um amplo espectrode frequências.

Tabela 3.2: Valores base para a investigação sobre a melhor combinação de parâmetrospara o filtro log-Gabor 2D.

Parâmetro Valores BaseFrequência central (ω0) [ 1/14; 1/18; 1/22 ]

Largura de banda radial (σr) [ 0, 41; 0, 50; 0, 55; 0, 74 ]Orientação (θ0) [ −π/4; 0; π/4; π/2 ]

Largura de Banda angular (σθ) [ π/4; π/2 ]

As Figuras 3.13, 3.14 e 3.15 apresentam gráficos da variação da decidabilidade, emfunção do ângulo de orientação para as 96 combinações dos filtros. Para facilitar avisualização, cada figura foi separada em duas imagens: (a) mostra os resultados parauma largura de banda angular σθ = π/2 e (b) para uma largura de banda angularσθ = π/4.

Na Figura 3.13 são expostos os gráficos para os filtros com frequência central ω0 =1/14. Note que as curvas, em cada imagem são agrupadas pela largura de bandaradial σr. As Figuras 3.14 e 3.15 apresentam a mesma organização. Elas mostram osgráficos para filtros com frequência central ω0 = 1/18 e ω0 = 1/22, respectivamente.

A análise geral dos gráficos mostra que a melhor orientação encontrada para osfiltros é θ0 = 0 radianos. Isso indica que as regiões do espectro de frequências quepossuem orientação próximas a zero contêm informações mais discriminantes. Umoutro ponto de destaque é que as combinações que utilizaram largura de banda radialde uma oitava (0,74) obtiveram, em sua maioria, resultados inferiores aos demais.

Page 85: Universidade Federal de Pernambuco - UFPE · be forgotten or shared and hardly changed. Among various biometric methods, iris recognition systems are frequently cited as one of the

3.3 EXPERIMENTOS 69

−pi/4 0 pi/4 pi/2 5pi/83.5

4

4.5

5

5.5

Dec

idab

ilida

de

Orientação θ0, (radianos)

Comparação da Decidabilidade entre diferentes filtros(ω0 = 1/14 e σθ = π/2)

σr = 0.41σr = 0.50σr = 0.55σr = 0.74

(a) Largura de banda angular (σr) = π/2.

−pi/4 0 pi/4 pi/2 5pi/83

3.5

4

4.5

5

5.5

Dec

idab

ilida

de

Orientação θ0, (radianos)

Comparação da Decidabilidade entre diferentes filtros(ω0 = 1/14 e σθ = π/4)

σr = 0.41σr = 0.50σr = 0.55σr = 0.74

(b) Largura de banda angular (σr) = π/4.

Figura 3.13: Comparações entre filtros log-Gabor 2D com frequência central ω0 = 1/14.As imagens apresentam curvas agrupadas de acordo com a largura de banda radial,variando o ângulo de orientação. As figuras (a) e (b) apresentam resultados agrupadospara cada uma das possíveis escolhas de largura de banda angular.

Page 86: Universidade Federal de Pernambuco - UFPE · be forgotten or shared and hardly changed. Among various biometric methods, iris recognition systems are frequently cited as one of the

3.3 EXPERIMENTOS 70

−pi/4 0 pi/4 pi/2 5pi/83

3.5

4

4.5

5

5.5

Dec

idab

ilida

de

Orientação θ0, (radianos)

Comparação da Decidabilidade entre diferentes filtros(ω0 = 1/18 e σθ = π/2)

σr = 0.41σr = 0.50σr = 0.55σr = 0.74

(a) Largura de banda angular (σr) = π/2.

−pi/4 0 pi/4 pi/2 5pi/82.5

3

3.5

4

4.5

5

5.5

6

Dec

idab

ilida

de

Orientação θ0, (radianos)

Comparação da Decidabilidade entre diferentes filtros(ω0 = 1/18 e σθ = π/4)

σr = 0.41σr = 0.50σr = 0.55σr = 0.74

(b) Largura de banda angular (σr) = π/4.

Figura 3.14: Comparações entre filtros log-Gabor 2D com frequência central ω0 = 1/18.As imagens apresentam curvas agrupadas de acordo com a largura de banda radial,variando o ângulo de orientação. As figuras (a) e (b) apresentam resultados agrupadospara cada uma das possíveis escolhas de largura de banda angular.

Page 87: Universidade Federal de Pernambuco - UFPE · be forgotten or shared and hardly changed. Among various biometric methods, iris recognition systems are frequently cited as one of the

3.3 EXPERIMENTOS 71

−pi/4 0 pi/4 pi/2 5pi/82.5

3

3.5

4

4.5

5

5.5

Dec

idab

ilida

de

Orientação θ0, (radianos)

Comparação da Decidabilidade entre diferentes filtros(ω0 = 1/22 e σθ = π/2)

σr = 0.41σr = 0.50σr = 0.55σr = 0.74

(a) Largura de banda angular (σr) = π/2.

−pi/4 0 pi/4 pi/2 5pi/82

2.5

3

3.5

4

4.5

5

5.5

6

6.5

Dec

idab

ilida

de

Orientação θ0, (radianos)

Comparação da Decidabilidade entre diferentes filtros(ω0 = 1/22 e σθ = π/4)

σr = 0.41σr = 0.50σr = 0.55σr = 0.74

(b) Largura de banda angular (σr) = π/4.

Figura 3.15: Comparações entre filtros log-Gabor 2D com frequência central ω0 = 1/22.As imagens apresentam curvas agrupadas de acordo com a largura de banda radial,variando o ângulo de orientação. As figuras (a) e (b) apresentam resultados agrupadospara cada uma das possíveis escolhas de largura de banda angular.

Page 88: Universidade Federal de Pernambuco - UFPE · be forgotten or shared and hardly changed. Among various biometric methods, iris recognition systems are frequently cited as one of the

3.3 EXPERIMENTOS 72

0.35 0.4 0.45 0.5 0.55 0.6 0.65 0.7 0.75 0.8

4.6

4.8

5

5.2

5.4

5.6

5.8

6

6.2

6.4D

ecid

abili

dade

Largura de Banda Radial

Comparação da Decidabilidade entre diferentes filtrosOrientação ( θ0) = 0

ω0 = 1/14, σθ = π/2ω0 = 1/18, σθ = π/2ω0 = 1/22, σθ = π/2ω0 = 1/14, σθ = π/4ω0 = 1/18, σθ = π/4ω0 = 1/22, σθ = π/4

Figura 3.16: Comparações de decidabilidade em função da largura de banda radial,selecionando apenas os filtros com θ0 = 0.

As combinações que apresentaram os melhores resultados em relação à largurade banda radial foram aquelas que capturaram informações em duas e pouco maisque duas oitavas (0,55 e 0,50). Este resultado pode ser confirmado, observando aFigura 3.16, que mostra um gráfico da variação da decidabilidade em função dalargura de banda radial. O gráfico foi construído utilizando apenas as combinaçõesdos filtros que possuíam θ0 = 0, sendo agrupados pela frequência central e largura debanda radial. Através dele também é possível notar que σθ = π/4 é o melhor valorpara a largura de banda angular.

Com a definição dos parâmetros θ0 = 0 e σθ = π/4 foi iniciada a segundainvestigação. Ela consistiu na busca pelos melhores valores para a largura de bandaradial e frequência central. Devido aos resultados ruins obtidos pelas combinaçõesque usavam σr = 0, 74, este valor foi descartado. Assim prosseguiu-se apenas com osvalores 0,41, 0,50 e 0,55, para um intervalo de frequência variando entre 1/10 e 1/30.Trinta e três combinações de filtros foram novamente processadas. Os resultados doscálculos aparecem na Figura 3.17. Ela mostra a variação da decidabilidade em funçãode mudanças na frequência central, agrupando as curvas pela largura de banda radial.Através dela é possível observar que os picos de cada curva ocorrem em locais muito

Page 89: Universidade Federal de Pernambuco - UFPE · be forgotten or shared and hardly changed. Among various biometric methods, iris recognition systems are frequently cited as one of the

3.3 EXPERIMENTOS 73

1/10 1/12 1/14 1/16 1/18 1/20 1/22 1/24 1/26 1/28 1/30

4

4.2

4.4

4.6

4.8

5

5.2

5.4

5.6

5.8

6

Dec

idab

ilida

de

Frequência, ω0

σr = 0.41, θ0 = 0, σθ = π/4σr = 0.50, θ0 = 0, σθ = π/4σr = 0.55, θ0 = 0, σθ = π/4

Figura 3.17: Variação da decidabilidade em função da frequência central. O gráficomostra a comparação para os três melhores resultados encontrados na Figura 3.16.

próximos. De modo a ajudar a visualização, a Figura 3.18 apresenta uma ampliaçãodesta região.

Os filtros que apresentaram a maior decidabilidade, para cada largura debanda, foram selecionados para realizar a avaliação de desempenho do sistema dereconhecimento de íris. Os valores de decidabilidade dos filtros selecionados, assimcomo seus respectivos parâmetros, são exibidos na Tabela 3.3.

Os três filtros são, então, comparados com o método de codificação proposto porMasek [48]: um filtro Log-Gabor 1D. Os valores ω0 = 1/18 e σr = 0, 50, usados para aconstrução deste filtro, representam a melhor combinação de parâmetros encontradaem sua pesquisa para a base CASIA v1. Nos testes realizados neste trabalho este filtroatingiu uma decidabilidade d′ = 5, 5484.

A Tabela 3.4 mostra os valores de decidabilidade, média e desvio padrão das

Tabela 3.3: Os três filtros candidatos e seus parâmetros.

Filtro (parâmetros) d′

Filtro 1 - ω0 = 1/24; σr = 0, 41; θ0 = 0; σθ = π/4 5,9866Filtro 2 - ω0 = 1/24; σr = 0, 50; θ0 = 0; σθ = π/4 6,0012Filtro 3 - ω0 = 1/22; σr = 0, 55; θ0 = 0; σθ = π/4 5,9677

Page 90: Universidade Federal de Pernambuco - UFPE · be forgotten or shared and hardly changed. Among various biometric methods, iris recognition systems are frequently cited as one of the

3.3 EXPERIMENTOS 74

1/22 1/24 1/265.8

5.85

5.9

5.95

6

6.05D

ecid

abili

dade

Frequência, ω0

σr = 0.41, θ0 = 0, σθ = π/4σr = 0.50, θ0 = 0, σθ = π/4σr = 0.55, θ0 = 0, σθ = π/4

Figura 3.18: Ampliação da região da Figura 3.17 que contém os pontos com maiordecidabilidade.

classes intra e inter para os quatro filtros selecionados. Os três filtros log-Gabor 2Dapresentam resultados de médias e desvio padrão próximos. A maior separaçãoentre médias ocorre no Filtro 2 e a menor, no filtro proposto por Masek. Entretanto,Masek possui o menor desvio padrão na classe inter, indicando que seus dados estãomais condensados que os gerados através do filtro log-Gabor 2D. Esta característicainfluencia os resultados das taxas de FAR e CAR.

De posse dos quatro filtros, a terceira etapa de investigação realiza a avaliação dodesempenho de cada filtro em codificar os padrões de textura da íris. Esta avaliaçãofoi realizada através da comparação da exatidão no reconhecimento, com o auxílioda curva ROC. Os valores desta curva são determinados pelo cálculo das taxas de

Tabela 3.4: Valores de decidabilidade, média e desvio padrão das classes intra e inter,dos quatro filtros usados para avaliar o desempenho.

Filtro d′ µIntra σintra µInter σinter

Masek 5,5484 0,2915 0,0433 0,4701 0,0140Filtro 1 5,9866 0,2563 0,0412 0,4490 0,0194Filtro 2 6,0012 0,2455 0,0433 0,4479 0,0200Filtro 3 5,9677 0,2484 0,0443 0,4505 0,0182

Page 91: Universidade Federal de Pernambuco - UFPE · be forgotten or shared and hardly changed. Among various biometric methods, iris recognition systems are frequently cited as one of the

3.3 EXPERIMENTOS 75

0 0.005 0.01 0.015 0.02 0.025 0.030.99

0.991

0.992

0.993

0.994

0.995

0.996

0.997

0.998

0.999

1

Taxa de Falsa Aceitação (FAR)

Tax

a de

Cor

reta

Ace

itaçã

o (1

− F

RR

)

MasekFiltro 1Filtro 2Filtro 3Melhor Operação − MasekMelhor Operação − Filtro 1Melhor Operação − Filtro 2Melhor Operação − Filtro 3

Figura 3.19: Comparação entre o desempenho dos esquemas de codificação através dacurva ROC.

genuínos corretamente aceitos (CAR) e impostores incorretamente aceitos (FAR), paracada valor de limiar escolhido. A Figura 3.19 apresenta a curva ROC para os quatrofiltros. Já a Figura 3.20 exibe a curva ROC, dos mesmos filtros, com o eixo FAR emescala logarítmica. Em ambas as figuras os melhores pontos de operação aparecemdestacados. Eles foram determinados em função menor distância Euclidiana emrelação ao ponto ideal (CAR = 1 e FAR = 0).

Através da análise das Figuras 3.19 e 3.20 é possível notar que o Filtro 2 e o propostopor Masek possuem melhor desempenho, pois suas curvas estão mais próximasdo valor ideal. A Tabela 3.5 mostra mais detalhadamente a comparação entre osquatro filtros, destacando as taxas de usuários corretamente aceitos e impostoresincorretamente aceitos, calculadas em seus melhores pontos de operação. O limiarusado para obter as taxas também é mostrado na Tabela 3.5, que apresenta em suaúltima coluna a EER.

Uma observação cuidadosa das taxas EER e FAR para o filtro proposto por Masekrevela que o melhor ponto de operação do sistema é igual ao ponto onde ocorre aEER. Já para o Filtro 2 o ponto de operação é inferior ao ponto de EER. Os Filtros 1 e 3apesar de possuírem a mesma CAR, diferem na FAR devido a menor separação entreas médias atingida pelo Filtro 1 (Tabela 3.4).

Page 92: Universidade Federal de Pernambuco - UFPE · be forgotten or shared and hardly changed. Among various biometric methods, iris recognition systems are frequently cited as one of the

3.3 EXPERIMENTOS 76

10−4

10−3

10−2

0.98

0.982

0.984

0.986

0.988

0.99

0.992

0.994

0.996

0.998

1

Taxa de Falsa Aceitação (FAR)

Tax

a de

Cor

reta

Ace

itaçã

o (1

− F

RR

)

MasekFiltro 1Filtro 2Filtro 3Melhor Operação − MasekMelhor Operação − Filtro 1Melhor Operação − Filtro 2Melhor Operação − Filtro 3

Figura 3.20: Comparação entre o desempenho dos esquemas de codificação através dacurva ROC. Note que o eixo FAR é mostrado em escala logarítmica.

Apesar de alguns filtros apresentarem uma decidabilidade superior a outros,este fato não garante que tais filtros tenham, necessariamente, uma melhor taxa dereconhecimento. Os Filtros 1 e 3 possuem decidabilidade maior que a do filtroproposto por Masek, mesmo assim, este possui a maior taxa de correta aceitação.Entretanto, para grande parte dos sistemas de segurança é mais importante ter umataxa de falsa aceitação baixa em detrimento de uma taxa de correta aceitação alta, o quetorna o Filtro 2 a melhor combinação para codificar os padrões da íris, neste trabalho.

Tabela 3.5: Taxas CAR, FAR e limiar dos pontos de operação destacados na Figura 3.19.A última coluna mostra a EER para cada filtro.

Filtro Limiar CAR (%) FAR(%) EER(%)Masek 0,425 99,6613 0,3964 0,3964Filtro 1 0,395 99,4194 0,3167 0,5921Filtro 2 0,385 99,5646 0,1261 0,3870Filtro 3 0,385 99,4194 0,2296 0,5806

Page 93: Universidade Federal de Pernambuco - UFPE · be forgotten or shared and hardly changed. Among various biometric methods, iris recognition systems are frequently cited as one of the

CAPÍTULO 4

NOVA PROPOSTA PARA SEGMENTAÇÃO DA

PUPILA

Em sistemas de reconhecimento de íris a segmentação é uma etapa crítica. Errosna identificação desta região corrompem os modelos biométricos e comprometem aqualidade das análises realizadas pelo sistema de decisão.

Devido à importância de encontrar sua localização ótima, vários algoritmos forampropostos1. Dentre eles, um grande número de técnicas tentam melhorar os resultadosobtidos através do uso da Transformada de Hough, inicialmente sugerido por Wildeset al. [25], seja na taxa de acerto ou na redução do tempo de execução.

Alguns métodos de segmentação de íris usam uma abordagem diferente daempregada por Masek [48]. Eles primeiro determinam as bordas da região da pupilae, em seguida, as bordas da íris. Estes métodos são motivados por observaçõessimples: a pupila apresenta-se como a região mais escura da imagem e possui grandehomogeneidade, exceto nos casos onde ocorrem reflexões em seu interior. Devido aessas características, estratégias que tentam identificar a pupila primeiro tendem a sermais eficazes.

A pupila é comumente parametrizada como um círculo, entretanto não é incomumencontrar estas regiões com formato levemente elíptico. Mesmo assim, modelar apupila por círculos continua sendo uma boa aproximação. Levando em consideraçãoessa parametrização, Daugman [17] desenvolveu o operador integro-diferencial eWildes et al. [25] (além de outros pesquisadores como Masek [48], Liu [52], Pereira [12],entre outros) utilizam algoritmos baseados na detecção de bordas e Transformada deHough Circular. Entretanto, esses métodos realizam uma busca exaustiva pelas bordasda íris em um extenso espaço de parâmetros, o que torna o processo demorado, apesarde esforços para reduzir seu custo computacional [51].

1De forma similar a sistemas de reconhecimento de íris, o problema de localização precisa dos olhos(ou de seus componentes) também é enfrentado em outras situações, como em aplicações para controlede interface através dos olhos. Grande parte das aplicações desta área possui um fim extremamentenobre: prover inclusão digital (e porque não dizer social) a deficientes físicos, especialmente ostetraplégicos. Outras aplicações buscam por novos métodos de interatividade.

77

Page 94: Universidade Federal de Pernambuco - UFPE · be forgotten or shared and hardly changed. Among various biometric methods, iris recognition systems are frequently cited as one of the

4.1 CONTORNOS ATIVOS 78

Este capítulo descreve um novo modelo para realizar a segmentação da regiãoda pupila: o PP–AC, descrito no artigo A Combined Pulling & Pushing and ActiveContour for Pupil Segmentation foi aceito para publicação no ICASSP (IEEE InternationalConference on Acoustics, Speech and Signal Processing) [78]. O modelo é uma extensão aométodo Pulling-Pushing (PP), proposto por He et al. [42]. O algoritmo do PP, descritona Seção 2.2.3, encontra os parâmetros de regiões circulares através de um métodoiterativo, baseado na Lei de Hooke.

O capítulo é complementado com uma introdução a métodos de segmentaçãovia contornos ativos e um novo algoritmo para preencher reflexões especulares queaparecem na pupila.

4.1 CONTORNOS ATIVOS

Métodos de Contornos Ativos são técnicas utilizadas para realizar a segmentaçãode objetos em imagens. A idéia básica é a evolução de uma curva, sujeita arestrições impostas pela imagem, para detectar objetos nesta imagem. Iniciandocom um contorno arbitrário ao redor do objeto a ser detectado, a curva move-seem direção ao seu interior, tendo que parar nas bordas deste objeto [80]. Devido aesse comportamento dinâmico, os métodos de contorno ativo também são conhecidoscomo snakes ou modelos deformáveis. A evolução da curva é guiada pela minimizaçãode uma função de energia, o que torna as snakes autônomas e auto-adaptáveis na buscapelo contorno dos objetos.

Os modelos de contorno ativo podem ser classificados em dois grupos: os modelosparamétricos e os geométricos. Eles se diferenciam pela forma como a curva érepresentada. Nos modelos paramétricos, o contorno C(s) possui representaçãoexplícita, sendo definido através da relação C(s) = [x(s), y(s)], em que x(s), y(s)são as coordenadas x e y de cada ponto ao longo do contorno e s ∈ [0, 1]é o comprimento do arco normalizado. Já nos modelos geométricos, a curvaé representada implicitamente através de uma função de Lipschitz φ, por C ={(x, y)|φ(x, y) = 0}. Os métodos Level-Set são os mais empregados para representaras curvas nos modelos geométricos [81].

As abordagens que usam métodos de contorno ativo através de modelosparamétricos encontram dificuldades em relação ao tratamento matemático enumérico, dificultando a construção de um esquema computacional eficiente. Alémdisso, a curva parametrizada não suporta mudanças de topologia, o que impossibilitaa detecção de regiões não conectadas. Nos modelos geométricos, entretanto, a

Page 95: Universidade Federal de Pernambuco - UFPE · be forgotten or shared and hardly changed. Among various biometric methods, iris recognition systems are frequently cited as one of the

4.1 CONTORNOS ATIVOS 79

mudança de topologia acontece de forma natural e, através do sinal da função φ, épossível determinar se um ponto qualquer pertence à região interior ou exterior àcurva.

A energia das snakes pode ser definida através da equação:

Esnake(C(s)) =ˆ 1

0Eint(C(s)) + Eext(C(s))ds, (4.1)

na qual C(s) representa o contorno. A energia interna Eint é totalmente definidapela curva e a energia externa Eext é obtida através da imagem. A correspondênciado contorno às bordas do objeto ocorre quando Esnake atinge seu valor mínimo. Aferramenta matemática utilizada para buscar esta solução é o cálculo variacional [79].Um terceiro termo, Econ, pode ser adicionado a equação de energia para imporrestrições ao modelo, devido ao conhecimento prévio de sua forma. A equação 4.1pode ser, assim, reescrita:

Esnake(C(s)) =ˆ 1

0Eint(C(s)) + Eext(C(s)) + Econ(C(s))ds. (4.2)

No modelo clássico de snakes [79], um detector de bordas, que depende dasinformações do gradiente da imagem uo, é utilizado para guiar a evolução da curvaao contorno do objeto alvo/desejado. Sua funcional de energia é definida por:

Fclassic = α

ˆ 1

0

∣∣C′(s)∣∣2 ds + β

ˆ 1

0

∣∣C′′(s)∣∣ ds− λ

ˆ 1

0|∇u0(C(s))|2 ds, (4.3)

em que α, β e λ são parâmetros positivos. Os dois primeiros termos representam aenergia interna, que controla a suavidade da curva. Seus parâmetros correspondema "tensão" e "rigidez" do contorno. O terceiro termo representa a energia externa, queatrai o contorno em direção ao objeto na imagem. Ao tentar minimizar a equação 4.3,o contorno tenta se posicionar nos pontos onde |∇u0| é máximo, agindo como umdetector de bordas, enquanto mantém a suavidade da curva.

Um detector de borda genérico pode ser definido como uma função positiva edecrescente g, dependente do gradiente da imagem u0, tal que

limz→∞

g(z) = 0. (4.4)

Por exemplo,

Page 96: Universidade Federal de Pernambuco - UFPE · be forgotten or shared and hardly changed. Among various biometric methods, iris recognition systems are frequently cited as one of the

4.1 CONTORNOS ATIVOS 80

g(|∇u0(x, y)|) =1

1 + |∇Gσ(x, y) ∗ u0(x, y)|p, p ≥ 1 (4.5)

em que Gσ ∗ u0, uma versão suavizada de u0, representa a convolução da imagem u0

por uma Gaussiana Gσ(x, y) = σ−1/2 · e−|x2+y2|/4σ. A função g(|∇u0|) é positiva emregiões homogêneas e possui valor zero nas fronteiras.

Outros modelos, como o Contorno Ativo Geodésico [82] e o GVF (Gradient VectorFlow) [83], também utilizam informações de gradiente em suas funções de energia.Devido a esta característica, esses modelos apenas detectam objetos que possuambordas definidas pelo gradiente. Na prática, entretanto, os objetos também possuemfronteiras suaves, onde o gradiente é baixo. Nestes casos, os métodos citados tendema passar pelas bordas desses objetos.

De modo a superar esses problemas, Chan e Vese [80] desenvolveram um modelode contorno ativo que não possui um critério de parada definido por informaçõesde borda, ou seja, não é baseado no gradiente da imagem para finalizar a evoluçãoda curva. Seu critério de parada é baseado na técnica de segmentação de Mumford-Shah [84] e permite a detecção de objetos com fronteiras suaves ou até com bordasdescontínuas. Esse modelo é conhecido como Active Contour without Edges.

A idéia do modelo de Chan-Vese pode ser entendida a partir de um casosimples. Assuma que a imagem u0 é formada por duas regiões de intensidadeaproximadamente constante mas com valores diferentes ui

0 e uo0. Também assuma que

o objeto a ser detectado é representado pela região que possui valor ui0 e que sua borda

é definida por C0. Assim, tem-se u0 ≈ ui0 dentro do objeto [ou interno(C0)] e u0 ≈ uo

0

fora do objeto [ou externo(C0)]. Agora considere o seguinte termo de ajuste:

F1(C) + F2(C) =ˆ

interno(C)|u0(x, y)− c1|2 dxdy

externo(C)|u0(x, y)− c2|2 dxdy, (4.6)

na qual C representa uma curva e as constantes c1 e c2 são, respectivamente, os valoresmédios das regiões interna e externa a C. Neste caso, é fácil observar que C0, a realborda do objeto, é o minimizador de

infC{F1(C) + F2(C)} ≈ 0 ≈ F1(C0) + F2(C0). (4.7)

Page 97: Universidade Federal de Pernambuco - UFPE · be forgotten or shared and hardly changed. Among various biometric methods, iris recognition systems are frequently cited as one of the

4.1 CONTORNOS ATIVOS 81

Figura 4.1: Consideração dos possíveis casos de posição da curva. O termo de ajusteé minimizado apenas nos casos onde a curva encontra-se sobre as bordas do objeto.Adaptado de [80].

Por exemplo, se a curva C está externa (mas englobando) o objeto, então F1(C) >

0 e F2(C) ≈ 0. Caso C esteja totalmente dentro do objeto, então, F1(C) ≈0 mas F2(C) > 0. Se C está, ao mesmo tempo, dentro e fora do objeto, entãoF1(C) > 0 e F2(C) > 0. Finalmente, quando C = C0, a curva encontra-se exatamentenas bordas do objeto e a equação 4.7 é minimizada. Este processo é ilustrado naFigura 4.1.

Adicionando o termo de regularização pelo comprimento, a funcional de Chan-Vese é, então, definida como

F(c1, c2, C) =ˆ

interno(C)|u0(x, y)− c1|2 dxdy (4.8)

externo(C)|u0(x, y)− c2|2 dxdy + µ

ˆ 1

0C(s)ds, (4.9)

na qual µ > 0 é um parâmetro que indica a importância do comprimento da curvapara alcançar o estado de convergência. Detalhes sobre a formulação Level-Set paraeste modelo podem ser obtidas em [80].

Ao trocar os valores de c1 e c2, na equação 4.8, pelos valores mínimo e máximodas suas respectivas regiões, o contorno ativo dá preferência a encontrar regiõesescuras e, ao mesmo tempo, tende a afastar-se de regiões mais claras. Esta versãomodificada do modelo de Chan-Vese é conhecida por min & max – Active Contourwithout Edges [78]. Este modelo se adapta ao problema da determinação da fronteirapupila/íris. Entretanto, para funcionar bem, é necessário que a região da pupila

Page 98: Universidade Federal de Pernambuco - UFPE · be forgotten or shared and hardly changed. Among various biometric methods, iris recognition systems are frequently cited as one of the

4.2 IDENTIFICAÇÃO E PREENCHIMENTO DE REFLEXÕES NA PUPILA 82

seja uniforme ou apresente forte semelhança. A próxima seção apresenta umanova abordagem para a identificação e preenchimento de reflexões que possam estarpresentes na região da pupila.

4.2 IDENTIFICAÇÃO E PREENCHIMENTO DE REFLEXÕES NA PUPILA

Reflexões especulares geralmente se apresentam como os pontos de mais altaintensidade em uma imagem e, geralmente, interferem na identificação das bordasda região da pupila. Por isso se faz necessário identificar e, se possível, minimizaros efeitos destes pontos de reflexão. Para atingir este objetivo, é proposta uma novametodologia para detectar e preencher reflexões, baseada na reconstrução morfológicade imagens em tons de cinza.

Dada uma imagem I, em tons de cinza no intervalo [0, L− 1], primeiro calcula-se onegativo desta imagem, dado por:

In(x,y) = (L− 1)− I(x,y). (4.10)

Na sequência, realiza-se uma reconstrução morfológica [85], seguida de umaoperação de flood-fill, que preenche áreas escuras cercadas por áreas mais clarascom o valor do pixel destas áreas claras, gerando a imagem I′n. Após isso, calcula-se o negativo da imagem processada morfologicamente I′n, sendo esse processorepresentado por:

I′(x,y) = (L− 1)− In′(x,y). (4.11)

Na segunda etapa, calcula-se o histograma da imagem diferença D, obtida atravésda subtração da imagem original e sua versão processada morfologicamente. Esteprocesso é representado por:

D(x,y) = I(x,y) − I′(x,y). (4.12)

A imagem D apresenta a maioria dos pixels com valores de intensidade baixos,indicando que há pouca diferença entre as imagens. Apenas os pixels mais prováveisde serem pontos de reflexão possuem valores mais altos, pois, foram preenchidos pelaoperação de flood-fill.

A terceira etapa consiste na determinação de um limiar adaptativo TH. Este limiaré definido como sendo a primeira posição no histograma que possua contagem zero.

Page 99: Universidade Federal de Pernambuco - UFPE · be forgotten or shared and hardly changed. Among various biometric methods, iris recognition systems are frequently cited as one of the

4.2 IDENTIFICAÇÃO E PREENCHIMENTO DE REFLEXÕES NA PUPILA 83

Esta posição indica que nenhum pixel difere de outro pelo valor TH, fornecendo umaboa indicação de limiar, visto que a maioria dos pixels irá diferir pouco. Entretanto, sea soma da contagem de todas as posições subsequentes também for zero, o que implicanão haver pixels a serem limiarizados, faz-se TH receber a posição do histograma quepossua menor contagem.

Na quarta etapa, realiza-se a binarização da imagem I(x,y) pelo valor TH. Emseguida uma dilatação morfológica é realizada, de modo a expandir para áreasvizinhas os pontos identificados como pontos de reflexão.

Finalmente, cada ponto de reflexão p (na imagem original) tem seu valorsubstituído pelo valor dado por:

I(xp,yp) =12· I′(xp,yp), (4.13)

na qual o fator 1/2 é utilizado para forçar os pontos de reflexão a possuírem valoresbaixos, na tentativa de tornar a região da pupila homogênea.

A Figura 4.2 ilustra o processo de preenchimento de reflexões da pupila: (a) exibea imagem de um olho com reflexões na pupila; (b) mostra o negativo da imagem (a);(c) exibe a imagem (b) após o processamento através de uma operação morfológicade flood-fill, que preenche áreas escuras cercadas por áreas mais claras. Note que naimagem (c) a pupila apresenta-se preenchida com área praticamente uniforme. Em (d)é exibido o complemento da imagem (c), voltando os valores dos pixels ao intervalooriginal. Observe também que algumas regiões próximas à pálpebra superior e seuscílios passaram a possuir valores constantes. Em imagens onde os cílios atingem apupila, este "transbordamento" pode gerar inconvenientes, uniformizando regiões quenão somente a da pupila. A imagem (e) mostra a diferença de intensidade entre ospixels das imagens (a) e (c). Como a maioria dos pixels não mudou ou mudou poucode valor, a imagem é predominantemente escura. Já a diferença de intensidade entreos pixels candidatos a pontos de reflexão é alta, sendo exibidos como os pontos maisclaros. Em (f) são apresentados os pixels identificados como pontos de reflexão. Estaimagem é obtida através da limiarização de (e) por TH. A imagem (g) mostra umaumento da área identificada como pontos de reflexão, após a dilatação morfológicade (f). Finalmente (h) exibe a imagem (a) com os pontos de reflexão preenchidos.

Page 100: Universidade Federal de Pernambuco - UFPE · be forgotten or shared and hardly changed. Among various biometric methods, iris recognition systems are frequently cited as one of the

4.3 CONSIDERAÇÕES SOBRE O PULLING-PUSHING 84

(a) Imagem original, comreflexões.

(b) Complemento da imagem (a). (c) Preenchimento dos pontosescuros da imagem (b) cercadospor áreas claras, através de umaoperação de flood-fill.

(d) Complemento da imagem (c). (e) Subtração da imagem (a) por(c).

(f) Pixels identificados comopontos de reflexão.

(g) Dilatação das áreas definidasem (f) para contemplar umamaior vizinhança.

(h) Resultado final dopreenchimento das reflexões.

Figura 4.2: Etapas do processo de identificação e remoção de reflexões proposto.

4.3 CONSIDERAÇÕES SOBRE O PULLING-PUSHING

O Pulling-Pushing (PP) é um método que utiliza uma abordagem inovadora emrelação aos métodos mais comuns. Apesar de existirem alguns pontos semelhantes(especialmente na detecção dos pontos de borda), o PP se destaca dos demais por

Page 101: Universidade Federal de Pernambuco - UFPE · be forgotten or shared and hardly changed. Among various biometric methods, iris recognition systems are frequently cited as one of the

4.4 PP–AC 85

mudar o domínio onde esta detecção é realizada e por ser baseado em uma lei física.A transformação da imagem para coordenadas polares, simplifica a difícil tarefa

de encontrar as bordas de regiões circulares (em coordenadas cartesianas), tornando-as mais próximas de linhas, à medida que o centro dos eixos das coordenadas polaresse aproximam do real centro do círculo.

A Lei de Hooke fornece os princípios físicos e a modelagem matemática para oarranjo de um sistema com múltiplas molas, interligadas por um mesmo ponto. Acompressão e/ou relaxamento das molas geram forças que se opõem a movimentosque tentam alterar a posição de equilíbrio do ponto em comum. A discretização dosistema permitiu a construção de um algoritmo iterativo que, à medida que avançano tempo, aproxima as estimativas dos parâmetros a serem encontrados dos valorescorrespondentes à imagem em processamento.

Apesar de utilizar conceitos inovadores, o PP possui dois problemas principais,ambos relacionados à estimativa inicial da localização do centro da região circulara ser detectada. O primeiro deve-se a como esta estimativa é obtida. O métodousa um classificador AdaBoost para detectar a região da íris em uma imagem e, apartir dela, extrai esta estimativa. O AdaBoost é uma técnica de aprendizagem demáquina que se baseia no cascateamento de classificadores simples para construir umclassificador complexo [86]. O AdaBoost, assim como grande parte dos algoritmos deaprendizagem de máquina, necessita de um longo período de treinamento e de umgrande número de exemplos e contra-exemplos para realizar corretamente a detecçãodessas regiões. O segundo problema está relacionado à obrigatoriedade de que aestimativa inicial seja realizada dentro da região circular para que o algoritmo possaconvergir [42].

Outro problema refere-se à definição dos pontos de borda. A descrição do PPdetermina que apenas um ponto de borda deve permanecer, em cada direção radial.Entretanto, não realiza nenhuma consideração sobre como o processo de descarte dospontos deva ser realizado. Ela apenas indica que a obtenção dos pontos de borda podeser conseguida através do cálculo do gradiente, utilizando o operador Sobel, ou pelodetector Canny. Os inconvenientes descritos anteriormente motivaram a exploraçãode melhorias nesta técnica, de modo a diminuir as limitações existentes.

4.4 PP�AC

O PP–AC é uma extensão do método PP que combina a utilização de uma técnicade contorno ativo (para a etapa de segmentação) com a divisão da convergência em

Page 102: Universidade Federal de Pernambuco - UFPE · be forgotten or shared and hardly changed. Among various biometric methods, iris recognition systems are frequently cited as one of the

4.4 PP–AC 86

Figura 4.3: Fluxograma do algoritmo PP–AC. Adaptado de [78].

duas fases. As modificações alteram tanto o fluxograma original do PP como oscritérios de convergência e permitem que uma técnica robusta, como o AdaBoost, nãonecessite ser utilizada para estimar o ponto inicial dentro da região circular. Mesmosem utilizar tal tipo de técnica para fornecer a estimativa inicial, o novo algoritmotende a encontrar a solução que mais se adapta a situação.

Inicialmente o PP–AC foi desenvolvido apenas para realizar a segmentação depupila, entretanto, pequenas alterações podem ser realizadas de modo a possibilitar aestimação de parâmetros de outras regiões.

4.4.1 O algoritmo do PP�AC

O PP–AC modifica o método Pulling-Pushing original em quatro áreas:

1. Divisão da convergência em duas fases: grosseira e fina;

2. Utilização do modelo min & max – Active Contour para realizar a detecção debordas;

3. Cálculo do comprimento das molas;

4. Alteração dos critérios de convergência.

O fluxograma do algoritmo do PP–AC é exibido na Figura 4.3.Assumindo N o número de molas interconectadas através do ponto O, o método

inicia sua execução realizando configurações sobre sua operação:

• Indica que o algoritmo deve iniciar na fase "grosseira";

• Recebe as estimativas iniciais do centro O0(x0, y0), raio R0 e direções detransformação (θini, θ f im) para cada uma das fases (caso sejam diferentes);

• Inicializa∣∣−→F0∣∣ com um valor alto (maior que um).

Page 103: Universidade Federal de Pernambuco - UFPE · be forgotten or shared and hardly changed. Among various biometric methods, iris recognition systems are frequently cited as one of the

4.4 PP–AC 87

A segunda etapa verifica em qual tipo de fase o algoritmo encontra-se. Ela influenciadiretamente a transformação das regiões, de coordenadas cartesianas para coordenaspolar. Quando na fase "grosseira", o método calcula a menor distância entre o centroOl = (xl, yl), l indica a iteração, e as bordas da imagem, para determinar o raiomáximo permitido para a transformação, ou seja:

rmax = min[

xl∣∣W − xl

∣∣ yl∣∣H − yl

∣∣ ]− 1, (4.14)

em que W e H representam a largura e altura da imagem, respectivamente. Alémdisso, todas as direções (0 a 2π) para transformação são utilizadas, o que garanteuma grande área de cobertura, que possibilita ao contorno ativo procurar por regiõesescuras como a da pupila. O algoritmo sai da fase "grosseira" e entra na fase de ajuste

"fino" quando o seguinte critério é satisfeito:∣∣−→Fl∣∣ < 1. No PP–AC, assim como no PP,∣∣−→Fl

∣∣ indica o módulo do deslocamento aplicado ao centro O na iteração l.Na fase de ajuste "fino", a direção radial máxima utilizada para transformação é

limitada ao valor:

rmax = Rl + ∆r (4.15)

em que Rl é o comprimento médio das molas na iteração anterior e ∆r é uma constanteque tem como objetivo forçar que a imagem transformada para coordenadas polarespossua ambas as regiões de pupila e íris. De modo a evitar possíveis problemasem relação à presença das pálpebras superiores e seus cílios, as direções paratransformação são limitadas ao intervalo [3π/4, 9π/4]. Além disso, rmax é limitadoa um valor mínimo, Rmin, nos casos em que seu valor calculado pela equação 4.15 sejainferior a Rmin, ou seja: rmax < Rmin. Uma vez que o algoritmo entre na fase de ajuste"fino", ele permanece nela até que o método seja finalizado.

Na terceira etapa, a imagem é transformada para coordenadas polares, a partirdos valores de (θini, θ f im, rmax) e Ol, definidos nas etapa e iteração anteriores,respectivamente. Em seguida aplica-se à imagem transformada, o algoritmo desegmentação de contorno ativo min & max – Active Contour.

Como a região transformada para coordenadas polares é definida através deuma representação retangular, a inicialização do contorno é realizada através de umretângulo de comprimento radial RI que cobre todas as direções possíveis. Isto éequivalente, em coordenadas cartesianas, a inicializar o contorno como um círculode raio RI , centrado em Ol. Devido à inicialização do contorno ativo ser um ponto

Page 104: Universidade Federal de Pernambuco - UFPE · be forgotten or shared and hardly changed. Among various biometric methods, iris recognition systems are frequently cited as one of the

4.4 PP–AC 88

bastante sensível para obter a correta segmentação do contorno presente em umaimagem, duas abordagens para a escolha do valor de RI , dependentes da fase, sãoutilizadas. Quando na fase "grosseira":

RI = Rm, (4.16)

em que Rm é um valor que depende das características das imagens, ou seja, seu valoré modificado entre diferentes bases de dados. Na fase de ajuste "fino":

RI = (3/4) · Rl, (4.17)

forçando o contorno inicializar muito próximo das bordas desejadas.A quarta etapa é responsável por:

• Definir os pontos de borda em cada direção θli ;

• Calcular o comprimento das molas rli e o comprimento médio Rl;

• Calcular as forças de oposição a deformação−→f li , em cada mola, e a força

resultante−→Fl ;

• Atualizar a posição estimada do centro Ol.

Como o resultado da segmentação do contorno ativo é uma área, uma simples extraçãode bordas usando operadores morfológicos é realizada. Em seguida, para cada direçãoθi, i = 1, 2, . . . , N, o comprimento da mola ri é calculado através do valor médio dospontos de borda existentes nesta direção. Para direções que não possuam nenhumponto de borda definido, utiliza-se uma interpolação entre os valores calculados paraas direções anterior e posterior. Em seguida, o comprimento médio do raio das molasé calculado através da equação:

Rl+1 =1N·

N

∑i=1

rli . (4.18)

Assim, prossegue-se com o cálculo da força em cada mola:

−→f li = −kpp

(Rl+1 − rl

i

)−→ei , i = 1, 2, . . . , N, (4.19)

na qual kpp é a constante das molas, dada por kpp = 1/N e −→ei é o vetor unitário querepresenta a direção θi. O somatório da contribuição individual de todas as molas

Page 105: Universidade Federal de Pernambuco - UFPE · be forgotten or shared and hardly changed. Among various biometric methods, iris recognition systems are frequently cited as one of the

4.5 EXPERIMENTOS 89

representa o deslocamento a ser aplicado ao antigo centro. Esta força de deslocamentoé dada por:

−−→Fl+1 =

N

∑i=1

−→f li . (4.20)

A nova posição do centro é, então, obtida através da equação:

Ol+1(xl+1, yl+1) = Ol +−−→Fl+1. (4.21)

A quinta e última etapa contempla os critérios de parada. A convergência doalgoritmo ocorre de duas maneiras:

1. Quando∣∣−→F ∣∣, ∣∣∆−→F ∣∣ e R convergem;

2. Quando o número de iterações atinge o valor Imax.

O critério 1 é dividido em três:

• Convergência do módulo da Força:∣∣−−→Fl+1

∣∣ < FTh; e

• Convergência da variação do módulo da Força:∣∣∆−→F ∣∣ =

∣∣−−→Fl+1 −−→Fl∣∣ < ∆FTh; e

• Convergência do Raio:∣∣Rl+1 − Rl

∣∣ < ∆RTh.

Observe que os três necessitam ser satisfeitos para que o critério 1 seja válido. Casonenhuma das condições de parada seja atingida, o algoritmo volta para a etapa 2. Casocontrário, Ol+1 e Rl+1 são os parâmetros estimados para a pupila.

4.5 EXPERIMENTOS

Os experimentos foram executados usando as bases de imagens CASIA v1, CASIAv3-Interval e MMU1. A Tabela 4.1 relaciona as bases, apresentando informações comoa quantidade de imagens, presença de reflexões e outras características. Como oalgoritmo original do PP necessita que a estimativa inicial do centro seja dentro dapupila, comparações diretas entre o PP e o PP–AC não foram realizadas. O PP–ACnão possui esta restrição e, para todas as imagens, a estimativa inicial foi atribuída aocentro das imagens. A Tabela 4.2 exibe os valores dos parâmetros do PP–AC usadospara a realização dos testes, em cada base de dados.

Os resultados da segmentação para a base CASIA v1 podem ser observados naTabela 4.3. Nesta base, devido à região da pupila ter sido preenchida artificialmente

Page 106: Universidade Federal de Pernambuco - UFPE · be forgotten or shared and hardly changed. Among various biometric methods, iris recognition systems are frequently cited as one of the

4.5 EXPERIMENTOS 90

Tabela 4.1: Bases de dados usadas para avaliar o desempenho do PP–AC.

Base Imagens Reflexões Outras característicasCASIA v1 756 não —

CASIA v3-Interval 2655 sim reflexões secundáriasMMU1 450 sim presença de sombras

para proteger o esquema de iluminação, nenhum pré-processamento foi necessário e,por este motivo, seus resultados aparecem separados das demais bases. Entretanto,o preenchimento artificial permite que estas regiões sejam usadas como o padrãode segmentação a ser atingido (correto), possibilitando a verificação automática doresultado da segmentação. Dessa forma, foram consideradas corretas as imagenscuja área da pupila possui sobreposição mínima de 95% e que não seja maiordo que 10% que a respectiva região padrão. Para a CASIA v1, o PP–AC atingeuma taxa acerto na segmentação de 99,47%. As Figuras 4.5 (a-b) exibem imagenscorretamente segmentadas para esta base. O preenchimento artificial facilita otrabalho da detecção da região da pupila, que permite a obtenção de uma alta taxade acerto para a segmentação. As Figuras 4.6 (a-b) exibem duas das quatro imagenssegmentadas incorretamente. Observe que, mesmo sendo consideradas erradas, asregiões identificadas como pupila possuem grande semelhança à real. Nestes casoso erro ocorreu devido à forte presença de cílios, que atrapalharam a convergência docontorno ativo, aumentando sua região de contorno, o que fez com que o tamanhomédio das molas crescesse.

As imagens das bases CASIA v3-Interval e MMU1 possuem reflexões especularesdentro da pupila. Como o PP–AC utiliza um método de contorno ativo baseado nasimilaridade de regiões, usar diretamente estas imagens sem nenhum tipo de pré-processamento que tente identificar e preencher as reflexões afetaria seu desempenho.Dessa forma, foram utilizadas três estratégias para identificar e preencher reflexões

Tabela 4.2: Parâmetros utilizados para realizar segmentação de pupila.

Base CASIA v1 CASIA v3-Interval MMU1N 240 240 240

FTh 0,3 0,3 0,3∆FTh 0,1 0,1 0,1∆RTh 1 1 1

∆r 10 10 5Rmin 40 40 30

Page 107: Universidade Federal de Pernambuco - UFPE · be forgotten or shared and hardly changed. Among various biometric methods, iris recognition systems are frequently cited as one of the

4.5 EXPERIMENTOS 91

Tabela 4.3: Resultado da segmentação de pupila para a base CASIA v1, usando o PP–AC sem nenhum método de remoção de reflexões.

Base Imagens Corretas Taxa de Acerto Iterações: µ, (σ)CASIA v1 756 752 99,47% 13, (5)

na pupila: a descrita na pela Seção 4.2, a proposta por He et al. [43] (abordada naSeção 2.2.4.3) e a combinação das duas, em cascata. A Tabela 4.4 exibe as taxas deacerto obtidas para estas bases, associando o PP–AC a cada um dos três esquemas deremoção de reflexão.

Os resultados mostram que o PP–AC é preciso e que, em média, requer poucasiterações para convergir. Em um PC AMD 64 3200+, com 2 GB de RAM e WindowsXP, o tempo médio de segmentação de cada imagem foi de aproximadamente 1,8segundos, utilizando o Matlab versão 7.0, sendo a maior parte deste tempo gasta naexecução do contorno ativo.

Nas situações nas quais apenas uma técnica para preenchimento de reflexõesfoi utilizada, a combinação do PP–AC com o algoritmo proposto neste trabalhoapresentou resultados melhores que os obtidos usando a combinação com He etal. [43]. Para a CASIA v3 a diferença foi de 2,6 pontos percentuais e para a MMU1a diferença foi de 7,77 pontos percentuais. Este fato deve-se ao algoritmo propostoidentificar uma maior maior área como pertencente a reflexões e pelo valor maisuniforme de preenchimento, como pode ser observado comparando as Figuras 4.2(h) e 2.9 (c), repetidas na Figura 4.4 por conveniência. A melhor taxa de acerto dasegmentação ocorreu quando foi utilizada a combinação dos dois métodos de reflexãoda pupila. Nestes casos, o método proposto tinha a tarefa de preencher grandes áreas,enquanto que o algoritmo de He et al. trabalhava em áreas de reflexões que nãotinham sido corretamente identificadas pelo método anterior. Para as bases CASIA v3e MMU1 as taxas de acerto foram de, respectivamente, 99,70% e 96,22%. As Figuras 4.5(c-d) e (e-f) exibem exemplos de imagens segmentadas corretamente para ambas asbases. Em cada imagem, o ponto marcado com uma estrela indica a estimativa inicial

Tabela 4.4: Taxa de acerto para a segmentação de pupila, utilizando o PP–AC e umatécnica de identificação e remoção de reflexões.

Técnica de Remoção de Reflexão CASIA v3 MMU1 Iterações: µ, (σ)He et al. [43] 96,76% 86,67% 14, (9) / 15, (10)

Proposto (Seção 4.2) 99,36% 94,44% 13, (9) / 15, (8)Proposto+ He et al. [43] 99,70% 96,22% 13, (9) / 15 (9)

Page 108: Universidade Federal de Pernambuco - UFPE · be forgotten or shared and hardly changed. Among various biometric methods, iris recognition systems are frequently cited as one of the

4.5 EXPERIMENTOS 92

(a) He et al. [43]. (b) Proposto.

Figura 4.4: Diferenças na homogeneidade da região da pupila através do uso dediferentes técnicas para identificação e remoção de reflexões.

para o centro da pupila e a cruz indica sua posição final. As imagens mostradas nessafigura exibem, para cada base, as imagens que possuem a estimativa final de centropara a pupila mais distante da estimativa inicial. Já as Figuras 4.6 (c-d) e (e-f) mostramimagens que foram incorretamente segmentadas. Os maiores problemas, nestes casos,resultam do aparecimento de reflexões secundárias (que possuem intensidade menor)que não foram preenchidas corretamente, existência de reflexões muito próximas asbordas da pupila, cílios em grande quantidade e sombras. Para a CASIA v3 oserros resultaram em regiões levemente inferiores ou superiores à real. Para a MMU1,entretanto, boa parte dos erros ocorre com as regiões de pupila sendo identificadascom área muito superior à real. Este fato deve-se ao baixo contraste entre a pupila eíris, existente nas imagens desta base.

A Figura 4.7 exibe a execução passo a passo do PP–AC. Ela mostra as regiõestransformadas para coordenadas polares e, em cada iteração, o contorno final atingidopelo min & max – Active Contour without Edges aparece destacado em verde. Note quemudanças de escala ocorrem à medida que o algoritmo atualiza os parâmetros docentro, ficando mais próximas das bordas da imagem (para a fase grosseira) e raio(para a fase de contorno fino). Um ponto importante a destacar refere-se a distânciaentre o centro da imagem e a posição final do centro da pupila. O contorno ativo é oresponsável por provocar o deslocamento deste centro para áreas escuras, fazendocom que o PP–AC possa determinar seus parâmetros com sucesso. A Figura 4.8mostra o que acontece no domínio original da imagem. Nela podem ser observados oresultado do contorno ativo (em verde) e o círculo candidato a pupila (em vermelho),em cada iteração. Observe como o centro é deslocado e como o contorno ativo se

Page 109: Universidade Federal de Pernambuco - UFPE · be forgotten or shared and hardly changed. Among various biometric methods, iris recognition systems are frequently cited as one of the

4.5 EXPERIMENTOS 93

molda às bordas da pupila com o avanço das iterações.

(a) Imagem 049_2_4 da CASIA v1. (b) Imagem 054_1_3 da CASIA v1.

(c) Imagem S1019R06 da CASIA v3. (d) Imagem S1229L03 da CASIA v3.

(e) Imagem fional3 da MMU1. (f) Imagem tonghll1 da MMU1.

Figura 4.5: Exemplo de imagens corretamente segmentadas. A estrela indica aestimativa inicial do centro e a cruz exibe a posição final do centro. As imagens (a-b), (c-d) e (e-f) pertencem, respectivamente, as bases CASIA v1, CASIA v3 e MMU1.

Page 110: Universidade Federal de Pernambuco - UFPE · be forgotten or shared and hardly changed. Among various biometric methods, iris recognition systems are frequently cited as one of the

4.5 EXPERIMENTOS 94

(a) Imagem 004_1_1 da CASIA v1. (b) Imagem 004_2_4 da CASIA v1.

(c) Imagem S1036R02 da CASIA v3. (d) Imagem S1043L07 da CASIA v3.

(e) Imagem tanwnl1 da MMU1. (f) Imagem philipr1 da MMU1.

Figura 4.6: Exemplo de imagens incorretamente segmentadas. Os problemas maiscomuns devem-se a reflexões próximas as bordas da pupila, reflexões secundárias,oclusão excessiva por cílios e sombras. As imagens (a-b), (c-d) e (e-f) pertencem,respectivamente, as bases CASIA v1, CASIA v3 e MMU1.

Page 111: Universidade Federal de Pernambuco - UFPE · be forgotten or shared and hardly changed. Among various biometric methods, iris recognition systems are frequently cited as one of the

4.5 EXPERIMENTOS 95

(a) Iteração Inicial, fase grosseira, |F|= 6,5. (b) Iteração 3, fase grosseira, |F|= 9,4.

(c) Iteração 5, fase grosseira, |F|= 13,3. (d) Iteração 6, fase grosseira, |F|= 8,5.

(e) Iteração 8, fase grosseira, |F|= 0,7. (f) Iteração 10, fase de contorno fino, |F|= 0,8.

(g) Iteração 12, fase de contorno fino, |F|=0,4. (h) Iteração final, fase de contorno fino, |F|= 0,2.

Figura 4.7: Execução do algoritmo PP–AC. A imagem em segmentação é a mesma daFigura 4.5 (c). As linhas em verde e preto indicam o contorno final em cada iteração.Observe que as reflexões da pupila aparecem preenchidas.

Page 112: Universidade Federal de Pernambuco - UFPE · be forgotten or shared and hardly changed. Among various biometric methods, iris recognition systems are frequently cited as one of the

4.5 EXPERIMENTOS 96

(a) Iteração Inicial. (b) Iteração 3.

(c) Iteração 5. (d) Iteração 6.

(e) Iteração 8. (f) Iteração 10.

(g) Iteração 12. (h) Iteração final.

Figura 4.8: Execução do PP–AC observada através do domínio original da imagem.Em cada iteração o resultado do contorno ativo aparece em verde e, em vermelho, éexibido o círculo candidato a pupila.

Page 113: Universidade Federal de Pernambuco - UFPE · be forgotten or shared and hardly changed. Among various biometric methods, iris recognition systems are frequently cited as one of the

CAPÍTULO 5

CONCLUSÕES E TRABALHOS FUTUROS

5.1 CONCLUSÕES E CONTRIBUIÇÕES

Este trabalho destacou a importância que os métodos de identificaçãodesempenham na execução das atividades cotidianas da sociedade, ressaltando anecessidade de melhoria dos esquemas de segurança, nomeadamente os métodosde identificação. Neste cenário, os métodos biométricos de identificação ganharamdestaque por usar características próprias do indivíduo, aumentando a capacidade deidentificar impostores e diminuindo as chances de rejeitar usuários genuínos.

O processo de identificação humana através da íris foi abordado em detalhes,tendo sido descritos todos os passos necessários à construção de um sistema. Deforma básica, um sistema de reconhecimento de íris é composto por quatro etapas: (1)aquisição da imagem, (2) segmentação da íris, (3) análise e representação da textura e(4) comparação das representações. Em cada etapa as técnicas clássicas, assim comoalgumas das mais recentes pesquisas foram abordadas.

A dissertação contribui em dois pontos principais: o primeiro refere-se àinvestigação do uso de filtros log-Gabor 2D para extrair e codificar as característicasdos padrões de textura da íris. Apesar de já existirem trabalhos correlatos, nenhumaborda a definição dos melhores parâmetros para a construção de tais filtros. Osegundo ponto refere-se ao desenvolvimento de um novo método para realizar asegmentação da pupila, uma das primeiras etapas da segmentação da região da íris.O PP–AC estima os valores destas regiões através da combinação de um método desegmentação via contornos ativos com um processo iterativo baseado na Lei de Hooke.

Para investigar o uso de filtros log-Gabor 2D na extração de características daíris, um sistema completo foi desenvolvido, exceto pela etapa de aquisição daimagem, substituída pelo uso do banco público de imagens de íris CASIA v1 [65].O sistema, baseado na descrição realizada por Libor Masek [48], é composto pelasetapa de segmentação, normalização, codificação e comparação. Modificações naetapa de segmentação aumentaram em 8,28% a quantidade de imagens corretamentesegmentadas, permitindo que um número maior de imagens estivessem disponíveis

97

Page 114: Universidade Federal de Pernambuco - UFPE · be forgotten or shared and hardly changed. Among various biometric methods, iris recognition systems are frequently cited as one of the

5.1 CONCLUSÕES E CONTRIBUIÇÕES 98

para realizar comparações.Os filtros log-Gabor 2D são formados a partir da combinação de quatro parâmetros:

frequência central, orientação e larguras de banda radial e angular. Para determinara melhor combinação de parâmetros, a busca foi dividida em etapas: primeiro foramselecionados parâmetros base, que ao serem combinados, proporcionaram a coberturade uma grande região do espectro de frequências. Estes parâmetros base foramcompostos por três valores para a frequência central, quatro valores para a largura debanda radial, quatro valores para a orientação e dois valores para a largura de bandaangular. A combinação destes parâmetros gerou 96 diferentes filtros.

A avaliação das combinações foi realizada em termos da decidabilidade, umamedida que informa o grau de separação entre as classes de impostores e genuínos.Assim, foi observado que os filtros que apresentavam maior decidabilidade tinhamorientação θ0 = 0 radianos (Figuras 3.13, 3.14 e 3.15). Com o primeiro parâmetroselecionado, partiu-se para a determinação da melhor largura de banda angular:a partir dos 96 filtros, foram selecionados apenas aqueles com orientação θ0 =0 radianos, a partir da construção de um gráfico que mostra a variação dadecidabilidade em função da largura de banda radial (Figura 3.16). Os 24 filtrosselecionados foram agrupados em 6 curvas: três curvas com largura de banda angularσθ = π/2 e as outras três com σθ = π/4. A análise do gráfico mostra que os filtros comσθ = π/4 possuem maior decidabilidade, definindo-o como melhor parâmetro paraa largura de banda angular. Em sequência, a segunda investigação buscou identificarqual a melhor frequência central e largura de banda radial para formar o filtro log-Gabor 2D.

Trinta e três novas combinações de filtros foram geradas, variando a frequênciacentral de ω0 = 1/10 a ω0 = 1/30, agrupado-as em três curvas através da largurade banda radial (Figura 3.17). A largura de banda radial de 0,74 (que correspondea uma oitava) foi descartada devido a ter apresentado os piores resultados na maiorparte das comparações. Dos trinta e três filtros, apenas três com maior decidabilidade,um para cada largura de banda radial, foram selecionados para realizar a terceiraetapa da investigação. Esta etapa consistiu na comparação do desempenho dos trêsfiltros selecionados, com a melhor combinação do filtro log-Gabor 1D obtida porMasek [48] para a base CASIA v1. A comparação foi realizada com o auxílio da curvaROC, mostrando a relação entre as taxas de falsa aceitação (FAR) e correta aceitação(CAR) para cada filtro. Mesmo possuindo uma decidabilidade maior, os três filtroslog-Gabor 2D obtiveram, em seu melhor ponto de operação, uma CAR menor que

Page 115: Universidade Federal de Pernambuco - UFPE · be forgotten or shared and hardly changed. Among various biometric methods, iris recognition systems are frequently cited as one of the

5.1 CONCLUSÕES E CONTRIBUIÇÕES 99

a atingida por Masek. Entretanto, as suas taxas de falsa aceitação foram menoresque a obtida por Masek (Figuras 3.19 e 3.20 e Tabela 3.5). Uma das razões para ofiltro de Masek obter este resultado pode ser inferido através da análise da Tabela 3.4.Nela pode ser observado que este filtro possui, respectivamente, a maior média e omenor desvio padrão para a classe inter (impostores), o que faz com que os valoresdas distâncias de Hamming, resultantes das comparações entre os templates, possuammenor espalhamento. Como em sistemas de segurança é melhor operar com uma FARbaixa, o Filtro 2 pode ser considerado a melhor escolha para codificar os padrões detextura da íris. Este resultado é corroborado pela menor EER também obtida por estefiltro.

Apesar de utilizar um esquema de codificação com apenas um filtro, esta pode nãoser a única opção. Diferentes filtros podem obter melhor desempenho operando emdiferentes regiões do espectro de frequências. Assim, a combinação de filtros podevir a ser uma alternativa para a geração dos templates. A Figura 5.1 apresenta umgráfico que mostra o ambiente de decisão para o Filtro 2 e Masek. A posição de cadaponto é determinada pela distância de Hamming para cada um dos dois filtros. Noeixo horizontal encontram-se os valores de HD para o filtro Masek e, no eixo vertical,são exibidos os valores de HD para o Filtro 2. Os pontos em vermelho representamas comparações inter-classes ou impostores. Já os pontos em azul determinam ascomparações intra-classes ou usuários genuínos. Para cada eixo, duas retas foramtraçadas, de modo a exibir o limiar usado por cada classificador para decidir a qualclasse pertence uma determinada comparação.

É fácil observar que, em situações onde mais de um filtro é utilizado, separar asclasses por retas pode não ser a melhor opção. Mesmo assim, usando o critério deque para um usuário ser considerado genuíno ele deve, ao mesmo tempo, possuiruma HD menor que ambos os limiares (ou seja, estar no quadrante inferior esquerdodefinido pelo cruzamento das retas de limiar) o sistema atingiria uma CAR = 97,4842%e uma FAR = 0,0019%. Apesar de haver uma diminuição de 2%, em média, paraa taxa de correta aceitação, esta redução é plenamente aceitável quando comparadacom a redução obtida para a taxa de falsa aceitação. A redução chega a 64 vezesquando compara-se a combinação com o Filtro 2 e chega a 203 vezes quando compara-se a combinação com a taxa atingida pelo filtro de Masek. Nestes casos, abre-se aoportunidade de serem utilizados métodos de aprendizagem de máquina (como redesneurais, funções de base radial, máquinas de vetor de suporte) para obter a melhorseparação entre as classes.

Page 116: Universidade Federal de Pernambuco - UFPE · be forgotten or shared and hardly changed. Among various biometric methods, iris recognition systems are frequently cited as one of the

5.1 CONCLUSÕES E CONTRIBUIÇÕES 100

Figura 5.1: Ambiente de decisão para os filtros Masek e Filtro 2. O gráfico mostraque a melhor separação entre as classes pode não ser obtida utilizando as retas,possibilitando o uso de métodos de aprendizagem de máquina.

Os resultados obtidos para o sistema de reconhecimento de íris desenvolvidoneste trabalho corroboram a idéia de que métodos biométricos de identificaçãobaseados no reconhecimento de íris são precisos e confiáveis para serem utilizadosem situações que demandem baixas taxas erro, assim como em situações com umagrande quantidade de usuários.

O problema da determinação da região da íris foi abordado, propondo um novométodo para realizar a segmentação da pupila, que pode ser a primeira etapa doprocesso de segmentação. O PP–AC utiliza a combinação de técnicas de contornoativo aliado à Lei de Hooke para estimar os parâmetros de centro e raio da pupila,modelando-a como uma região circular. Modificando o cálculo dos parâmetros c1 e c2

da equação de energia do modelo de Chan-Vese, para os valores mínimo e máximode suas respectivas regiões, criou-se um novo modelo de contorno ativo que dápreferência em identificar regiões escuras, como a pupila. A esta versão foi dado onome de min & max – Active Contour without Edges. De modo a tornar a região da pupilamais homogênea também foi proposta uma nova técnica para identificar e preencherreflexões dentro da pupila.

De acordo com os resultados obtidos em três bases diferentes, o PP–AC mostrou-serobusto e preciso. Para a base CASIA v1, a taxa de acerto chegou a 99,47% e apenas

Page 117: Universidade Federal de Pernambuco - UFPE · be forgotten or shared and hardly changed. Among various biometric methods, iris recognition systems are frequently cited as one of the

5.1 CONCLUSÕES E CONTRIBUIÇÕES 101

quatro imagens não foram segmentadas corretamente. Os erros aconteceram devidoà forte presença de cílios. Para as bases CASIA v3 e MMU1, o PP–AC atingiu osmelhores resultados nas situações onde foi associado à combinação de duas técnicasde remoção de reflexão. Quando apenas uma técnica foi utilizada, a combinação doPP–AC com a remoção de reflexão proposta neste trabalho superou a associação coma técnica descrita por He et al. [43] em 2,6 pontos percentuais para a CASIA v3 eem 7,77 pontos percentuais para a MMU1. Para a CASIA v3 os maiores problemasforam a forte presença de cílios, reflexões secundárias de menor intensidade e reflexõesnas bordas da pupila não identificadas pelas técnicas de remoção de reflexão. Jápara a MMU1 os maiores problemas referem-se à presença de sombras e ao baixocontraste existente entre a região da pupila e da íris. A maior vantagem do PP–ACresulta em tornar desnecessário o uso do AdaBoost para fornecer a estimativa inicial,como acontece no Pulling-Pushing original [42]. Um ponto importante a ressaltar é avelocidade de execução do método. Como é um processo iterativo, o método executamuito mais rápido que outras técnicas que necessitam realizar uma extensa buscaem um vasto espaço de parâmetros, como a Transformada de Hough Circular e ooperador integro-diferencial de Daugman. A título de comparação o PP–AC gastou,em média, 1,8 segundos, enquanto que o método descrito na Seção 3.1.1 necessitoude cerca de 16,8 segundos para estimar somente os parâmetros da pupila. Entretanto,a maior parte do tempo gasto pelo PP–AC resulta da execução do contorno ativo.Este tempo ainda pode ser reduzido, implementando as técnicas de contorno ativomais eficientemente. Outra possibilidade para reduzir o tempo de execução está noprovimento de uma estimativa inicial razoável. Uma estimativa inicial próxima doreal centro da pupila, diminui a quantidade de iterações necessárias para o PP–ACconvergir.

Um dos maiores problemas enfrentados pelo PP–AC reside na interferência porcílios. Quando eles se apresentam em grande quantidade e próximos a pupila, ocontorno se espalha, aumentando o tamanho médio das molas, gerando estimativasimprecisas. Uma das maneiras de contornar esse problema seria incorporar ao métodouma técnica de identificação e restauração de cílios.

O PP–AC é uma técnica genérica para estimar os parâmetros de regiões circulares.Especificamente para o caso da pupila foi desenvolvida a variação min & max – ActiveContour without Edges, entretanto, qualquer modelo de contorno ativo pode vir a serutilizado. Pensando desta forma, o PP–AC pode ser utilizado para determinar osparâmetros do círculo que define a borda íris/esclera. Entretanto, nem o contorno

Page 118: Universidade Federal de Pernambuco - UFPE · be forgotten or shared and hardly changed. Among various biometric methods, iris recognition systems are frequently cited as one of the

5.2 TRABALHOS FUTUROS 102

ativo baseado na equação de energia original de Chan-Vese, nem o modificado nestetrabalho apresentam resultados satisfatórios. Eles se espalham pela imagem, devidoao baixo contraste existente entre a íris e a esclera.

5.2 TRABALHOS FUTUROS

Os resultados obtidos neste trabalho permitem que novas pesquisas sejamdesenvolvidas, entre elas sugerem-se:

• Adaptação do método PP–AC para realizar a segmentação da íris, tornando oprocesso completo;

• Estudo de técnicas para identificação e remoção de cílios, pálpebras e outrasfontes de ruído;

• Integrar ao PP–AC uma técnica para identificar e restaurar cílios;

• Uso de técnicas de segmentação de contorno ativo para não mais restringir asformas das bordas de pupila e íris;

• Uso de contorno ativo para detectar pálpebras;

• Aplicar os métodos propostos a novas bases de dados;

• Estudos em bases de imagens de câmeras com pouca resolução como webcame/ou câmera de celular;

• Investigar esquemas que usem mais de um filtro para codificar os padrões detextura da íris, assim como diferentes métodos de aprendizagem de máquinapara obter melhor classificação;

• Estudo dos melhores bits existentes nos templates que formam o iriscode, o quepossibilitaria a criação de representações ainda mais compactas, com os bits maisdiscriminativos, esperando melhores resultados.

Page 119: Universidade Federal de Pernambuco - UFPE · be forgotten or shared and hardly changed. Among various biometric methods, iris recognition systems are frequently cited as one of the

REFERÊNCIAS BIBLIOGRÁFICAS

[1] David S. Alberts and Daniel S. Papp (Editors), "The Information Age: AnAnthology on Its Impact and Consequences", CCRP Publication Series, 1997.

[2] Veja On-line, Terror Internacional - Os atentatosmais importantes da história, disponível em:<http://veja.abril.com.br/idade/exclusivo/terror_internacional/index.html>.

[3] E. Chemello, "Ciência Forense: Impressões Digitais", Química Virtual, Dezembro2006.

[4] K.W. Bowyer, K. Hollingsworth, e P. J. Flynn, "Image Understanding for IrisBiometrics: A Survey", Computer Vision and Image Understanding, vol. 110, no.2, pp. 281–307, 2008.

[5] Anil K. Jain, Lin Hong, and Sharath Pankanti, "Biometric identification",Communications of the ACM, vol. 43, Issue 2, pp. 90–98, 2000.

[6] Rodrigo de Luis-García, Carlos Alberola-López, Otman Aghzout, and Juan Ruiz-Alzola, "Biometric identification systems", Signal Processing, vol. 83, Issue 12, pp.2539–2557, 2003.

[7] Peng Yao, Jun Li, Xueyi Ye, Zhenquan Zhuang, and Bin Li, "Iris RecognitionAlgorithm Using Modified Log-Gabor Filters", ICPR 2006 - 18th InternationalConference on Pattern Recognition, vol.4, pp.461–464, 2006.

[8] IDGNOW! (online), "Urnas eletrônicas brasileiras terãorecurso que lê impressão digital até 2012", disponível em:<http://idgnow.uol.com.br/seguranca/2006/07/26/idgnoticia.2006-07-24.1905435874/>.

[9] IDGNOW! (online), "Eleições 2008: urnas biométricasestréiam em três cidades brasileiras", disponível em:

103

Page 120: Universidade Federal de Pernambuco - UFPE · be forgotten or shared and hardly changed. Among various biometric methods, iris recognition systems are frequently cited as one of the

REFERÊNCIAS BIBLIOGRÁFICAS 104

<http://idgnow.uol.com.br/internet/2008/10/03/eleicoes-2008-urnas-biometricas-estreiam-em-tres-cidades-brasileiras/>.

[10] Tom Fawcett, "An introduction to ROC analysis", Pattern Recognition Letters, vol.27, Issue 8, pp. 861–874, 2006.

[11] Ahmad N. Al-Raisi and Ali M. Al-Khouri, "Iris recognition and the challenge ofhomeland and border control security in UAE", Telematics and Informatics, vol.25, Issue 2, pp. 117–132, 2008.

[12] Milena B. Pereira, "Uma Proposta para o Aumento da Confiabilidade de umSistema de Reconhecimento de Íris e sua Implementação através de AlgoritmoGenético", Dissertação de Mestrado, Programa de Pós-Graduação em EngenhariaElétrica, Universidade Federal de Uberlândia (UFU), 2005.

[13] Rodrigo C. Nascimento, "Sistema de identificação baseada na estrutura da íris",Dissertação de Mestrado, Programa de Pós-Graduação em Engenharia Elétrica,Pontifícia Universidade Católica do Rio de Janeiro (PUC-Rio), 2005.

[14] Roger F. L. Chavez, "Uma Proposta para Melhoria na Eficiência de um Sistemade Reconhecimento de Íris Humana", Dissertação de Mestrado, Programa dePós-Graduação em Telemática e Telecomunicações, Universidade Estadual deCampinas (UNICAMP), 2007.

[15] J. G. Daugman, "High confidence visual recognition of persons by a test ofstatistical independence", IEEE Transactions on Pattern Analysis and MachineIntelligence, vol. 15, no. 11, pp. 1148–1161, 1993.

[16] J. G. Daugman, "Biometric personal identification system based on iris analysis",United States Patent, Patent Number: 5 291 560, 1994.

[17] J. G. Daugman, "How Iris Recognition Works", IEEE Transactions on Circuits andSystems for Video Technology, vol. 14, no. 1, pp. 21–30, 2004.

[18] F. H. Adler, "Physiology of the Eye: Clinical Application", fourth ed., London:The C. V. Mosby Company, 1965.

[19] Clyde Oyster, "The Human Eye Structure and Function", Sinauer Associates,1999.

Page 121: Universidade Federal de Pernambuco - UFPE · be forgotten or shared and hardly changed. Among various biometric methods, iris recognition systems are frequently cited as one of the

REFERÊNCIAS BIBLIOGRÁFICAS 105

[20] P. Kronfeld, "Gross anatomy and embryology of the eye," in The Eye, H. Davson,Ed. London, U.K.: Academic, 1962.

[21] John D. Woodward Jr., Nicholas M. Orlans, and Peter T. Higgins, "Biometrics",McGraw-Hill, 1st edition, 2003.

[22] A. Bertillon, "La couleur de l’iris." Rev. Sci., vol. 36, no. 3, pp. 65-73, 1885.

[23] J. G. Daugman, "Iris recognition", American Scientist, vol. 89, pp. 326-333, 2001.

[24] L. Flom and A. Safir, U. S. Patent No. 4 641 349, U. S. Government Printing Office,Washington, DC, 1987.

[25] R. Wildes, J. Asmuth, G. Green, S. Hsu, R. Kolczynski, J. Matey, and S. McBride,"A system for automated iris recognition", Proceedings of IEEE Workshop onApplications of Computer Vision, pp. 121–128, 1994.

[26] R. Wildes J. Asmuth G. Green S. Hsu R. Kolczynski J. Matey and S. McBride, "AMachine-Vision System for Iris Recognition", Machine Vision and Applications,vol. 9, pp. 1-8, 1996.

[27] R. Wildes, "Iris Recognition: an Emerging Biometric Technology", Proceeding ofthe IEEE, vol. 85, no. 9, 1997.

[28] W.W. Boles, "A wavelet transform based technique for the recognition of thehuman iris", In Proceedings of the International Symposium on Signal Processingand its Application, ISSPA, Gold Coast, Australia, pp. 25-30, August, 1996.

[29] W.W. Boles and B. Boashash, "A human identification technique using images ofthe iris and wavelet transform", IEEE Transactions on Signal Processing, vol. 46,no. 4, pp. 1185-1188, 1998.

[30] C. Tisse, L. Martin, L. Torres and M. Robert, "Person Identification TechniqueUsing Human Iris Recognition", Proc. Vision Interface, pp. 294-299, 2002.

[31] Y. Zhu, T. Tan and Y. Wang, "Biometric personal identification based on irispattern", Proceeding of. 15th International Conference on Pattern Recognition,vol. 2, pp. 801- 804, 2000.

[32] S. Lim, K. Lee, O. Byeon and T. Kim, "Eficient Iris Recognition throughImprovement of Feature Vector and Classifier", ETRI J., vol. 23, no. 2, pp. 61-70,2001.

Page 122: Universidade Federal de Pernambuco - UFPE · be forgotten or shared and hardly changed. Among various biometric methods, iris recognition systems are frequently cited as one of the

REFERÊNCIAS BIBLIOGRÁFICAS 106

[33] S. Noh, K. Pae, C. Lee, J. Kim. "Multiresolution independent componentanalysis for iris identification", The 2002 International Technical Conference onCircuits/Systems, Computers and Communications, Phuket, Thailand, 2002.

[34] L. Ma, Y. Wang, T. Tan. "Iris recognition using circular symmetric filters", NationalLaboratory of Pattern Recognition, Institute of Automation, Chinese Academy ofSciences, 2002.

[35] J.R. Matey, O. Naroditsky, K. Hanna, R. Kolczynski, D. LoIacono, S. Mangru, M.Tinker, T. Zappia, W.Y. Zhao, "Iris on the Move: acquisition of images for irisrecognition in less constrained environments", Proc. IEEE 94 (11) 1936–1946, 2006.

[36] Yi Chen, Sarat C. Dass, Anil K. Jain, "Localized iris image quality using 2-Dwavelets", Springer LNCS 3832: International Conference on Biometrics, pp.373–381, 2005.

[37] Nathan D. Kalka, Jinyu Zuo, Natalia A. Schmid, Bojan Cukic,"Image qualityassessment for iris biometric", SPIE 6202: Biometric Technology for HumanIdentification III, pp. 6202:D1–D11, 2006.

[38] G. H. Zhang and M. Salganicoff, "Method of measuring the focus of close-upimage of eyes". U.S. Patent No. 5,953,440, 1999.

[39] Byung Jun Kang, Kang Ryoung Park, "A study on iris image restoration",International Conference on Audio and Video Based Biometric PersonAuthentication, pp. 31–40, 2005.

[40] Hugo Proença, Luís A. Alexandre, "A method for the identification ofnoisy regions in normalized iris images", International Conference on PatternRecognition, pp. 405–408, 2006.

[41] Xueyi Ye, Peng Yao, Fei Long, Zhenquan Zhuang. "Iris image realtimepre-estimation using compound neural network", in: Springer LNCS 3832:International Conference on Biometrics, 450–456, January 2006.

[42] Z. He, T. Tan, and Z. Sun, "Iris Localization via Pulling and Pushing", Int. Conf.Pattern Recog., vol. 4, pp. 366–369, 2006.

[43] Z. He, T. Tan, Z. Sun and X. Qiu, "Towards Accurate and Fast Iris Segmentationfor Iris Biometrics", IEEE Trans. on Pattern Anal. and Machine Intel., vol. 31, no.9, pp. 1670–1684, 2009.

Page 123: Universidade Federal de Pernambuco - UFPE · be forgotten or shared and hardly changed. Among various biometric methods, iris recognition systems are frequently cited as one of the

REFERÊNCIAS BIBLIOGRÁFICAS 107

[44] Jiali Cui, Li Ma, Tieniu Tan, Xinwen Hou, and Yunhong Wang, "An Iris DetectionMethod Based on Structure Information", Proc. International Workshop onBiometric Recognition Systems, vol. 3781, pp. 157-164, 2005.

[45] P. Viola and M. J. Jones, "Rapid object detection using a boosted cascade of simplefeatures", Proc. Int’l Conf. Computer Vision and Pattern Recognition, pp. 511-518,2001.

[46] R. C. Gonzalez and R. E. Woods, “Digital Image Processing,” Prentice Hall, USA,2nd edition, 2002.

[47] W. Kong, D. Zhang, "Accurate iris segmentation based on novel reflection andeyelash detection model", Proceedings of 2001 International Symposium onIntelligent Multimedia, Video and Speech Processing, Hong Kong, 2001.

[48] Libor Masek, “Recognition of human iris patterns for biometric identification”,Bachelor’s Dissertation, The School of Computer Science and SoftwareEngineering. The University of Western Australia, 2003.

[49] J. Canny, "A computational approach to edge detection", IEEE Transactions onPAMI-8, no. 6, 1986.

[50] B. J. Kang and K. R. Park, "A robust eyelash detection based on iris focusassessment", Pattern Recognition, vol. 28, pp. 1630–1639, Oct. 2007.

[51] X. Liu, K. W. Bowyer, P. J. Flynn, "Experiments with an improved irissegmentation algorithm", Fourth IEEE Workshop on Automatic IdentificationTechnologies, pp. 118–123, 2005.

[52] Xiaomei Liu, "Optimizations in Iris Recognition", PhD Thesis, Graduate Programin Computer Science and Engineering, Notre Dame University, 2006.

[53] Tae-Hong Min, Rae-Hong Park, "Eyelid and eyelash detection method in thenormalized iris image using the parabolic Hough model and Otsu’s thresholdingmethod", Pattern Recognition Letters, Volume 30, Issue 12, Image/video-basedPattern Analysis and HCI Applications, pp. 1138-1143, 2009.

[54] D. Zhang, D. M. Monro, and S. Rakshit, "Eyelash removal method for human irisrecognition", Proc. IEEE Int. Conf. Image Processing, pp. 285–288, Atlanta, GA,Oct. 2006.

Page 124: Universidade Federal de Pernambuco - UFPE · be forgotten or shared and hardly changed. Among various biometric methods, iris recognition systems are frequently cited as one of the

REFERÊNCIAS BIBLIOGRÁFICAS 108

[55] W. Kong and D. Zhang, "Detecting eyelash and reflection for accurate irissegmentation", International Journal of Pattern Recognition and ArtificialIntelligence, vol. 17, issue 6, pp. 1025–1034, 2003.

[56] C. Sanchez-Avila and R. Sanchez-Reillo, "Two different approaches for irisrecognition using gabor filters and multiscale zero-crossing representation",Pattern Recognition, 38(2):231–240, 2005.

[57] L. Ma, T. Tan, Y. W, and D. Zhang, "Personal identification based on iris textureanalysis", IEEE Transactions on Pattern Analysis and Machine Intelligence,25(12):1519–1533, 2003.

[58] P. Huang, C. Chiang, and J. Liang, "Iris recognition using fourier-waveletfeatures", The Proceedings of International Conference on Audio and VideoBased Biometric Person Authentication, pages 14–22, 2005.

[59] Neide P. Angelo, "Aplicação de Filtros de Gabor no processo ne classificação deimagens digitais com base em atributos de textura", Dissertação de Mestrado,Curso de Pós-Graduação em Sensoriamento Remoto, Universidade Federal doRio Grande do Sul (UFRGS), 2000.

[60] Dennis Gabor, "Theory of communication", Journal of IEEE, vol. 93, p. 429-459.1946.

[61] J. G. Daugman, "Uncertainty relation for resolution in space, spatial frequency,and orientation optimized by two-dimensional visual cortical filters", J. Opt. Soc.Amer. A, vol. 2, no. 7, pp. 1160–1169, 1985.

[62] J. G. Daugman, "Complete discrete 2D gabor transforms by neural networks forimage analysis and compression", IEEE Trans. Acoust., Speech, Signal Processing,vol. 36, pp. 1169–1179, July 1988.

[63] D. Field, "Relations between the statistics of natural images and the responseproperties of cortical cells". Journal of the Optical Society of America, vol. 4, no.12, pp. 2379–2394, 1987.

[64] Peter Kovesi, “What are Log-Gabor filters and why are they good?”.Disponível em: <http://www.csse.uwa.edu.au/~pk/Research/MatlabFns/PhaseCongruency/Docs/convexpl.html>. Novembro 2008.

Page 125: Universidade Federal de Pernambuco - UFPE · be forgotten or shared and hardly changed. Among various biometric methods, iris recognition systems are frequently cited as one of the

REFERÊNCIAS BIBLIOGRÁFICAS 109

[65] CASIA Iris Image Database. Disponível em: <http://www.cbsr.ia.ac.cn/Databases.htm>.

[66] National Insitute of Standards and Technology, Iris Challenge Evaluation Data.Disponível em: <http://iris.nist.gov/ice/>.

[67] Multimedia University Iris Database. Disponível em: <http://pesona.mmu.edu.my/~ccteo/>.

[68] Hugo Proença, Luís A. Alexandre. UBIRIS: A noisy iris image database.Disponível em: <http://iris.di.ubi.pt/>.

[69] University of Bath Iris Image Database. Disponível em: <http://www.bath.ac.uk/elec-eng/research/sipg/irisweb/database.htm>.

[70] Michal Dobes and Libor Machala. Iris database. Disponível em:<http://www.inf.upol.cz/iris/>.

[71] WVU Iris Biometric Dataset Collection. Disponível em:<http://www.citer.wvu.edu>.

[72] Yingzi Du, "Using 2D-Log Gabor Spatial Filters for Iris Recognition", Proceedingsof SPIE, vol. 6202, pp. 62020: F1-F8, 2006.

[73] Karen P. Hollingsworth, "Sources of error in Iris Biometrics", Master Thesis,Graduate Program in Computer Science and Engineering, Notre DameUniversity , 2008.

[74] Margaret M. Fleck, "Some defects in finite difference edge finders", IEEETransactions on Pattern Analysis and Machine Intelligence. Vol. 4, no. 3, March1992, pp. 337–345, 1992.

[75] Peter D. Kovesi, "MATLAB and Octave Functions for ComputerVision and Image Processing", School of Computer Science & SoftwareEngineering, The University of Western Australia. Disponível em:<http://www.csse.uwa.edu.au/~pk/research/matlabfns/>. Novembro, 2008.

[76] Wei Wang, Jianwei Li, Feifei Huang, Hailiang Feng, "Design and implementationof Log-Gabor filter in fingerprint image enhancement", Pattern RecognitionLetters, vol. 29, Issue 3, pp. 301–308, February 2008.

Page 126: Universidade Federal de Pernambuco - UFPE · be forgotten or shared and hardly changed. Among various biometric methods, iris recognition systems are frequently cited as one of the

REFERÊNCIAS BIBLIOGRÁFICAS 110

[77] A. Oppenheim, J. Lim, "The importance of phase in signals", Proceedings of theIEEE 69, pp. 529–541, 1981.

[78] Carlos A. C. M. Bastos, Tsang Ing Ren, George D. C. Cavalvanti, "A combinedPulling & Pushing and Active Contour method for pupil segmentation",International Conference on Acoustics, Speech and Signal Processing, 2010,(accepted).

[79] M. Kass, A. Witkin, D. Terzopoulos, "Snakes: Active contour models",International Journal on Computer Vision. vol. 1, pp. 321 – 331, 1988.

[80] T. F. Chan, L. A. Vese, "Active Contour Without Edges". IEEE Transactions onImage Processing. vol. 10, no. 2, pp. 266 – 277, February 2001.

[81] S. Osher, J. Sethian, "A. Fronts propagating with curvature-dependent speed:algorithms based on hamilton-jacobi formulation". Journal of ComputationalPhysics, vol. 79, pp. 12 – 49, 1988.

[82] V. Caselles, R. Kimmel, and G. Sapiro, "On geodesic active contours", Int. J.Comput. Vis., vol. 22, no. 1, pp. 61–79, 1997.

[83] C. Xu and J. L. Prince, "Snakes, shapes and gradient vector flow", IEEE Trans.Image Processing, vol. 7, pp. 359–369, Mar. 1998.

[84] D. Mumford and J. Shah, "Optimal approximation by piecewise smooth functionsand associated variational problems", Commun. Pure Appl. Math, vol. 42, pp.577–685, 1989.

[85] P. Soille, "Morphological Image Analysis: Principles and Applications", Springer-Verlag, 1999.

[86] P. Viola and M. Jones, "Robust real-time face detection", International Journal ofComputer Vision, vol. 57, Issue 2, pp. 137–154, 2004.

[87] Ehsan M. Arvacheh, "A Study of Segmentation and Normalization for IrisRecognition Systems". Master Thesis. University of Waterloo, 2006.