19
Padrões para Definição de Metadados Marcos Vinícius Salgado Monteiro Escola de Engenharia – Universidade Federal Fluminense (UFF) Rua Passo da Pátria, 156 – Niterói – RJ – Brasil [email protected] Resumo. Este artigo descreve três tipos de padrões para metadados. O MPEG-7 (padrão do ISO que tende ser o padrão utilizado em grande escala por ser independente do tipo de tecnologia), O TV-Anytime (Fórum criado para prover uma série de padrões para televisão e dentre eles padrões de metadados) e o RDF (que é uma linguagem para representar informações na web. Também é comentada a linguagem OWL utilizada para facilitar o processamento das máquinas que lidam com a representação de conteúdo).

Padrões para Definição de Metadados - midiacom.uff.brdebora/fsmm/trab-2007-2/metadados.pdf · rentável dos dados subjacentes, permitindo a edição e apresentação multimídia

Embed Size (px)

Citation preview

Padrões para Definição de Metadados

Marcos Vinícius Salgado Monteiro

Escola de Engenharia – Universidade Federal Fluminense (UFF) Rua Passo da Pátria, 156 – Niterói – RJ – Brasil

[email protected]

Resumo. Este artigo descreve três tipos de padrões para metadados. O MPEG-7 (padrão do ISO que tende ser o padrão utilizado em grande escala por ser independente do tipo de tecnologia), O TV-Anytime (Fórum criado para prover uma série de padrões para televisão e dentre eles padrões de metadados) e o RDF (que é uma linguagem para representar informações na web. Também é comentada a linguagem OWL utilizada para facilitar o processamento das máquinas que lidam com a representação de conteúdo).

1. Introdução

Hoje em dia, a informação audiovisual digital é cada vez mais acessível a todos, não somente em termos do consumo, mas também de produção. Os aparelhos com câmeras digitais que armazenam diretamente no formato JPEG e demais formatos de imagem digital já chegaram ao mercado, assim como os que possuem câmeras de vídeo que gravam diretamente nos diversos formatos de vídeo digital. Isto transforma cada um de nós em um potencial produtor de conteúdo, capaz de criar conteúdo que pode facilmente ser distribuído e publicado usando a Internet ou redes de telefonia celular.

Mas se é cada vez mais fácil de adquirir, processar e distribuir conteúdo de multimídia, também deve ser igualmente fácil alcançar todas estas informações geradas e disponibilizadas todos os dias ao redor do mundo. Para que isto seja possível faz-se necessário que o conteúdo multimídia seja de alguma forma descrito para facilitar esta busca. Para isto são utilizados metadados, que são dados (informações) que descrevem o conteúdo de dados multimídia.

Vários padrões foram definidos para especificação de metadados. Dentre eles, pode-se destacar o padrão MPEG-7 [1], a linguagem RDF [2] e o formato TV-Anytime [3]. Este trabalho tem como principal objetivo descrever padrões, identificando os principais usos de cada um.

O restante do texto está organizado da seguinte maneira. Na Seção 2 vamos estudar o MPEG7. Na Seção 3 será apresentado o padrão TV-Anytime. A Seção 4 comenta o RDF e aborda a linguagem OWL. A Seção 5 conclui o trabalho.

2. MPEG-7

O MPEG-7, formalmente chamado de “interface de descrição de conteúdo multimídia”, é um padrão ISO/IEC desenvolvido pelo MPEG (Motion Picture Experts Group), que é um grupo de trabalho encarregado de desenvolver padrões para compressão, descompressão, processamento e representação codificada de vídeo, áudio e combinações destes [1]. O MPEG-7 é utilizado para descrição de conteúdo de dados que suporta algum grau de interpretação do significado do conteúdo e que pode ser utilizado por algum código de computador, ou seja, é um padrão que provê um rico conjunto de ferramentas padronizadas de representação de conteúdo para propósitos de busca e gerenciamento de informação deste conteúdo. Tanto os usuários humanos quantos os sistemas automáticos que processam as informações audiovisuais estão dentro do escopo do MPEG-7.

Os elementos principais do padrão MPEG-7 podem ser classificados em:

-Ferramentas de Descrição: Descritores (D) que definem a sintaxe e a semântica de cada elemento de metadados; e Esquemas de Descrição (DS) que especificam a estrutura e a semântica das relações entre os seus componentes e podem ser tanto Descritores quanto Esquemas de Descrição;

-Linguagem de Definição de Descrição (DDL - sigla oriunda do inglês Description Definition Language) que define a sintaxe da ferramenta de descrição do MPEG-7 e permite a criação de novos Esquemas de Descrição (DS) e Descritores (D) e também permite a modicação de Esquemas de Descrição (DS) já existentes;

-Ferramentas de Sistema que suportam a representação codificada de forma binária (para o armazenamento e a transmissão mais eficientes), os mecanismos da transmissão (para formatos textual e binários), a multiplexação das descrições, a sincronização das descrições com conteúdos, a gerência e a proteção da propriedade inteletual nas descrições MPEG-7, etc.

As Ferramentas de Descrição MPEG-7 permitem criar descrições, isto é, um conjunto de exemplos de Esquemas de Descrição (DS) e seus descritores(D) correspondentes nos usuários para incorporar extensões específicas da aplicação usando a DDL e para rearranjar as descrições usando Ferramentas do Sistema.

As descrições de conteúdo MPEG -7 podem incluir:

-Informação descrevendo a criação e a produção de processos do conteúdo (diretor, título, algumas características do filme).

-Informação relacionada ao uso do conteúdo (direitos autorais, histórico do uso, programação da transmissão).

-Informação das características do armazenamento do conteúdo (formato de armazenamento, codificação).

-Informação estrutural sobre componentes espacial, temporal ou espaço-temporal do conteúdo (corte de cenas, segmentação em regiões, localização da região de movimento).

-Informação sobre características de baixo nível do conteúdo (cores, texturas, timbres de som, descrição de melodia).

-Informação conceitual da realidade capturada pelo conteúdo (objetos e eventos, interações entre objetos).

-Informação sobre como folhear o conteúdo de forma eficiente (resumos, variações, sub-bandas de freqüências espaciais).

-Informação sobre conjuntos de objetos.

-Informação sobre a interação do usuário com o conteúdo (preferências do usuário, histórico do uso).

Todas estas descrições são obviamente codificadas de forma eficiente para pesquisa, filtro, etc.

Os dados MPEG-7 podem estar fisicamente localizados com o material audiovisual (AV) associado num mesmo canal de dados ou num mesmo sistema de armazenamento, mas as descrições podem estar em outro lugar. Quando o conteúdo e o suas descrições não estão co-localizados, são necessários mecanismos que concatenem o material multimídia e o suas descrições MPEG-7; Estas concatenações deverão funcionar em ambas as direções, ou seja, tanto a partir dos metadados quanto a partir do material multimídia.

2.1 Escopos do Padrão

MPEG-7 pode ser usado por diferentes aplicações em diferentes ambientes, com isto, necessita fornecer uma estrutura adaptável e extensível para descrever dados audiovisuais [9]. Portanto, MPEG-7 não define um sistema monolítico para conteúdo de descrição, mas sim um conjunto de métodos e ferramentas para os diferentes pontos de vista da descrição de conteúdo do sistema. Tendo isto em mente o MPEG-7 é concebido para levar em conta todos os pontos de vista de outros padrões tais como TV-Anytime, Dublin Core, SMPTE Metadata Dictionary e EBU P Meta, entre outros. Estes padrões estão focados em aplicações ou domínios de aplicação mais específicos, enquanto o MPEG-7 foi desenvolvido de forma mais genérica possível. MPEG-7 utiliza o XML como linguagem para representação da aplicação de descrição de conteúdo. Como o XML Schema é a base para a DDL, ele é utilizado para a definição de sintaxe nas Ferramentas de Descrição do MPEG-7 e para permitir extensibilidade desta descrição (qualquer nova ferramenta MPEG-7 ou aplicação específica). Como o uso da linguagem XML é popularmente difundido, o seu emprego facilitará a interoperabilidade com outros padrões de metadatos no futuro [8].

O MPEG-7 pode ser utilizado com aplicações que podem ser armazenadas (on-line ou off-line) ou enviadas (p. ex. broadcast, modelos de push na Internet), e podem funcionar em ambientes em tempo real ou não. Um ambiente de tempo real neste contexto significa que a descrição é gerada enquanto o conteúdo está sendo capturado.

A Figura 1 mostra um diagrama em bloco altamente abstrato de possíveis cadeias de processamento MPEG-7, incluído aqui para explicar o escopo do padrão MPEG-7. Esta cadeia inclui a extração de característica (análise), a própria descrição, e o sistema de busca (aplicação). Para explorar totalmente as possibilidades de descrições MPEG-7, a extração automática de características será extremamente útil. Contudo, é claro, também, que a extração automática não é sempre possível, pois quanto maior o nível da abstração mais difícil é a extração automática, e ferramentas de extração interativas serão úteis nestes casos. Todavia, por mais úteis que eles sejam, os algoritmos de extração de característica automáticos e semi-automáticos não estão dentro do escopo do padrão. A razão principal é que a padronização destes algoritmos não é requerida para permitir a interoperabilidade, deixando espaço de competição para a indústria. Outra razão para não padronizar a análise é permitir fazer o bom uso das melhorias esperadas nessas áreas técnicas.

Figura 1. Padrão MPEG-7

Também os sistemas de busca, filtros, ou qualquer outro programa que pode fazer o uso da descrição, não são especificados dentro do escopo do MPEG-7; novamente isto não é necessário, e aqui também, a competição produzirá os melhores resultados.

A Figura 2 mostra a relação entre os diferentes elementos MPEG-7 mencionados anteriormente. A DDL permite a definição das Ferramentas de Descrição MPEG-7, tanto os Descritores (D) quanto os Esquemas de Descrição (DS), fornecendo os meios para estruturar os Ds em DSs. A DDL também permite a extensão de aplicações específicas de determinados DSs. As Ferramentas de Descrição são exemplificadas como descrições no formato textual (XML) graças ao DDL (baseado no XML Schema). O formato binário de descrições é obtido por meio do BiM definido na parte de sistemas (MPEG System).

Figura 2. Elementos do Padrão MPEG-7

A Figura 3 explica, na prática, uma hipotética cadeia do MPEG-7 (pode haver outros fluxos do conteúdo para o usuário; esses não são representados aqui. Além disso, é entendido que a Descrição Codificada do MPEG-7 pode ser textual ou binária, como poderia haver casos onde uma representação eficiente binária da descrição não é necessária, e uma representação textual seria suficiente). A partir de um conteúdo de multimídia, uma descrição audiovisual

(AV) é obtida via a extração manual ou semi-automática. A descrição AV pode ser armazenada (como representado na figura) ou transmitida diretamente. Se considerarmos um cenário “pull”, as aplicações clientes submeterão perguntas para o repositório de descrições e receberão um conjunto de descrições que combinam com esta pergunta (somente para inspecionar a descrição, para manipulá-la, para recuperar o conteúdo descrito, etc). Em um cenário de "push" um filtro (p. ex., um agente inteligente) selecionará as descrições disponíveis e executará as ações programadas posteriormente (p. ex., trocando um canal de transmissão ou registrando o fluxo descrito). Em ambos os cenários, todos os módulos podem tratar descrições codificadas em formatos de MPEG-7 (textual ou binário), mas somente nos pontos de conformidade indicados (Conformance points) é requerido ser conforme com MPEG-7(como é mostrada a interface entre uma aplicação funcionando como servidor de informações e consumidor de informações). A ênfase do MPEG-7 é prover soluções novas para descrição de conteúdo audiovisual. Assim, o endereçamento de documentos somente de texto não estava entre as metas do MPEG-7. Contudo, o conteúdo áudio-visual pode incluir ou se referir com um texto em adição às suas informações audiovisuais.

Figura 3. Cadeia de uso do MPEG-7

Os elementos que MPEG-7 padroniza fornecem o suporte a uma larga variedade de aplicações (por exemplo, bibliotecas digitais multimídia, seleção de mídias para transmissão, edição multimídia, dispositivos de entretenimento caseiro, etc.). O MPEG-7 também fará a web como mecanismo de busca para conteúdo de multimídia assim como ela é usada para busca de texto hoje em dia. Isto iria se aplicar especialmente a grandes arquivos de conteúdo, que são acessíveis ao público, bem como a catálogos multimídia que permitem aos usuários identificar o conteúdo para compra. A informação usada para a recuperação do conteúdo também pode ser usada por agentes para a seleção e a filtro do material transmitido ou para a publicidade personalizada. Adicionalmente, as descrições MPEG-7 permitirão o uso rápido e rentável dos dados subjacentes, permitindo a edição e apresentação multimídia semi-automática. Todos os domínios de aplicação que fazem o uso da multimídia vão se beneficiar do MPEG-7. Abaixo estão alguns exemplos:

· Arquitetura, bens imóveis, e decoração (p. ex., procurando idéias).

· Seleção de mídia para transmissão (p. ex., canal de rádio, canal de televisão).

· Serviços culturais (museus de história, galerias de arte, etc.).

· Bibliotecas digitais (p. ex., catálogo de imagem, dicionário musical, catálogos de imagens biomédicas, arquivos de filme, vídeo e rádio).

· Comércio eletrônico (p. ex., publicidade personalizada, catálogos online, diretórios lojas virtuais).

· Educação (p. ex., repositórios de cursos de multimídia, pesquisa de multimídia para material de suporte).

· Entretenimento caseiro (p. ex., sistemas da gerência de coleções de multimídia pessoais, incluindo manipulação de conteúdo, p. ex. edição de vídeo, procura de jogo, karaokê).

· Serviços de investigação (p. ex., reconhecimento de características humanas, provas forenses).

· Jornalismo (p. ex. procura de discursos de certo político usando o seu nome, a sua voz ou seu rosto).

· Serviços de multimídia (p.ex. páginas amarelas, informações turísticas, sistemas de informações geográficas).

· Edição multimídia (p. ex., serviço de notícias eletrônicas personalizadas, direitos autorais).

· Sensoreamento remoto (p. ex., gerência de recursos de cartografia, ecologia e naturais).

· Compras (p. ex., procura de roupas).

· Vigilância (p. ex., controle de tráfego, testes em ambientes hostis).

A forma como as descrições MPEG-7 serão usadas para responder às questões dos usuários ou as operações de filtragem estão fora do escopo do padrão. O tipo do conteúdo e a pergunta não têm necessariamente que de ser o mesmo; por exemplo, o material visual pode ser interrogado e filtrado usando conteúdo de música, fala etc. É responsabilidade do agente de pesquisa e do filtro de busca combinar os dados de consulta com a descrição MPEG-7.

2.2 Funcionalidades Principais

O padrão é divido nas seguintes funcionalidades principais:

1 – MPEG Systems – Ferramentas necessárias para preparar as descrições MPEG-7 para transporte e armazenamento eficientes. Os Sistemas MPEG-7 incluem atualmente o formato binário para codificar descrições MPEG-7 e a arquitetura terminal. Este formato é chamado de BiM (Binary MPEG format for XML – ISO/IEC 23001 – Part 1) [10]. Ele provê um conjunto de tecnologias genéricas para codificação de documentos XML baseando-se no conhecimento de esquema entre o codificador e o decodificador para atingir alta eficiência de compressão enquanto provê mecanismos de fragmentação para garantir flexibilidade de transmissão e processamento. A especificação também define meios de compilar e transmitir informação de conhecimento de esquema para permitir a decodificação de documentos XML comprimida sem o conhecimento de esquema prévio no terminal receptor. A técnica mais notável para codificação de informação estrutural é baseada nos decodificadores automatizados de estado finito (FSAD). Um FSAD é basicamente um transdutor que, lendo alguns bits do fluxo binário, gera elementos XML. A Figura 4 mostra um exemplo simplificado de FSAD.

Figura4. Decodificadores automatizados de estado finito (FSAD)

2 - MPEG-7 Linguagem de Definição da Descrição (DDL)- A linguagem para definir a sintaxe das Ferramentas de Descrição MPEG-7 e para definir novos Esquemas de Descrição (DS), ou seja, linguagem para expressar que uma descrição é válida para o padrão. É usada para definir o modelo de dados das descrições como, por exemplo, o tipo de descrição estruturada, tipos de dados (string, inteiro, real, etc), hierarquia dos tipos, valores padrões e semântica básica (tempo, duração, etc), além de estruturas para construções específicas, como matrizes de partes conectadas da descrição.

A DDL é baseada no XML Schema. Porém, como o XML Schema não foi projetado especificamente para a descrição conteúdo audiovisual, há certas extensões MPEG-7 que foram acrescentadas. Por conseguinte, a DDL pode ser divida nos seguintes componentes lógicos:

· componentes de linguagem estrutural do XML Schema;

· componentes de linguagem de tipos de dados do XML Schema;

· as extensões específicas do MPEG-7. Como, por exemplo, extensões de tipos de dados (MIME, código do país, região, código de conjunto de caracteres.

O DDL parser é o software usado para checar se uma descrição é válida.

3. MPEG-7 Visual – Ferramentas de Descrição para tratar (somente) as descrições visuais. Consiste de vinte e cinco estruturas básicas e Descritores(D) que cobrem as características básicas visuais: cor, textura, forma, movimento, localização e reconhecimento de face. Cada categoria é composta por descritores elementares e sofisticados.

Estruturas básicas: layout de grade (espacial), série de tempo (temporal), visualizações múltiplas (2D-3D), coordenada espacial 2D e interpolação temporal.

Descritores de cor: padrão de cor (RGB, YcrCb, HSV, Monocromática, transformada linear RGB e HMMD), quantização, cor dominante, cor escalável, estrutura de cor, layout, GoF/GoP (Grupo de Frame/Grupo de Imagens).

Descritores de textura: textura homogênea (baixo nível), textura “Browsing”, histograma de borda.

Descritores de forma: contorno, região e 3D.

Descritores de movimento: atividade de movimento, movimento da câmera, trajetória, parametrização.

Descritor de localização: localizador da região, localizador temporal-espacial.

Descritor de reconhecimento de face. 4. MPEG-7 Áudio - Ferramentas de Descrição para tratar (somente) as descrições áudio.

Utiliza estruturas que são um conjunto de descritores de baixo-nível para características de áudio e também Ferramentas de Descrição de alto-nível que são mais específicas a um conjunto de aplicações.

MPEG-7 Audio Framework (baixo-nível) – conforme a Figura 5.

? Figura 5. Audio Framework

Ferramentas de Descrição (Ds e DSs) de áudio de alto-nível: esquema de descrição de assinatura de áudio, Ferramenta de Descrição de timbre de instrumento musical,

Ferramentas de Descrição de melodia, Ferramenta de Descrição de indexação e reconhecimento de sons gerais e Ferramentas de Descrição de conteúdo falado.

5. MPEG-7 Esquemas de descrição multimídia (MDS) - ferramentas da descrição que tratam com facilidades genéricas e descrição multimídia. Os MDS são estruturas de metadados para descrição de conteúdo de audiovisual (AV). Os MDS provêem uma forma padrão de descrever em XML os conceitos importantes relativos à descrição e gerenciamento de conteúdo AV para facilitar a busca, indexação, filtro e acesso. Os DS são definidos usando Description Definition Language (DDL) que são baseados na linguagem XML Schema, e são representados como documentos ou fluxos. As descrições resultantes podem ser expressas na forma textual (p. ex. XML para edição busca filtro) ou comprimida na forma binária (p. ex para armazenamento e transmissão). 6. MPEG-7 Software de referência- implementação de software de partes relevantes do

padrão MPEG-7 com status normativo. 7. MPEG-7 Teste de conformidade - diretrizes e procedimentos para testar a conformidade das execuções MPEG-7. 8. MPEG-7 Extração e uso das descrições - material informativo (sob a forma de um relatório técnico) sobre a extração e uso de algumas das ferramentas da descrição. 9. MPEG-7 Os perfis e os níveis - fornecem diretrizes e perfis padrões. 10. MPEG-7 Definição do esquema - especifica o esquema usando a linguagem de definição da descrição.

3. TV-Anytime

O Fórum TV-Anytime é uma associação de organizações que procura desenvolver especificações para habilitar serviços audiovisuais e outros serviços baseados no mercado público com alto volume digital de armazenamento em plataformas do consumidor – simplesmente tratado como armazenamento de mídia pessoal [3]. Como parte de sua formação, o Fórum TV-Anytime estabeleceu quatro objetivos fundamentais para a organização:

- Definir especificações que permitirão a aplicações explorar o armazenamento local persistente nas plataformas eletrônicas dos consumidores.

- É uma rede independente quanto aos meios para a entrega do conteúdo ao equipamento do consumidor, incluindo vários mecanismos de entrega (p. ex. ATSC, DVB, DBS (Direct Broadcating Sattelite) e outros) e a Internet.

- Desenvolver especificações para sistemas interoperáveis e integrados, de criadores/fornecedores de conteúdo, através de provedores de serviço, aos consumidores.

- Especificar as estruturas de segurança necessárias para proteger os interesses de todas as partes envolvidas.

Dentro das especificações para sistemas interoperáveis de integrados se encontram os metadados. Dentro do ambiente do TV-Anytime, as partes mais visíveis de metadados são atrativos/descritores ou hiper-elos (hyperlinks) usados em guias de programas eletrônicos ou nas páginas web. Esta é informação que o consumidor ou agente usará para decidir se adquirirá ou não uma parte particular do conteúdo.

O sistema de metadados do TV-Anytime permitirá ao consumidor encontrar, navegar e gerenciar conteúdos de uma grande variedade de fontes internas e externas incluindo, por exemplo, difusão, TV interativa, Internet e armazenamento local. Ele define um padrão para

descrever perfis do consumidor incluindo preferências de busca para facilitar filtragem automática e aquisição de conteúdo pelos agentes [12].

Existe a necessidade de associar metadados com o conteúdo para facilitar busca automática pelos usuários dos conteúdos de interesse. O processo de criação e evolução de metadados para um conteúdo individual pode envolver diversas organizações durante o curso da criação, distribuição e entrega ao consumidor. Portanto, é clara a necessidade de definir uma estrutura de metadados comum e um padrão de um conjunto de elementos de metadados para assegurar um alto nível de interoperabilidade dentro da cadeia de criação até a entrega do conteúdo.

A Figura 6 mostra uma representação de um sistema simples. O modelo identifica a separação do processamento de metadados e conteúdo enquanto, ao mesmo tempo, ilustra os paralelos entre ambos. O perfil de usuário e a história do metadado são gerados durante o processo de seleção e apresentação.

Create

Metadata

aggregation Metadata

editing Content creation

Publish

Content

publishing

Metadata publishing

Search and selection m

etadata

Location

resolution m

etadata

Segm

entation m

etadata

Select & Present

Search & Selection

Location Resolution Storage

Metadata Content User

Interaction

Figura 6. Fluxo de metadados e conteúdo.

3.1 Modelo de metadados do TV-Anytime

Na descrição da estrutura de metadados é enfatizada a separação entre a estrutura de alto nível e representação específica da estrutura. A sintaxe entidade-relação permite que a relação entre as entidades do TV-Anytime sejam claramente afirmadas (p. ex., "um para muitos") bem como habilita o conceito poderoso de herança, que permite que tipos específicos de entidades sejam derivados de tipos genéricos.

A base do metadado do TV-Anytime é o CRID (Content Reference Identifier) [13], identificador para conteúdo que é independente de sua localização, que se refere a uma parte do conteúdo, embora em alguns casos ele possa se referir a um ou mais CRIDs. O CRID também atua como elo para conectar diferentes descrições de metadados de conteúdo-relacionado. Os metadados de conteúdo-relacionado são classificados tanto como descrição de conteúdo metadado quanto descrição de instância metadado. A Figura 7 mostra um exemplo de uma estrutura de árvore do CRID.

CRID

Locator

Locator

CRID

CRIDCRID

LocatorLocator

Locator

CRID

CRID

Figura 7. Exemplo de uma estrutura de árvore do CRID.

3.2 Definições de metadados

Para propósito de interoperabilidade, o fórum TV-Anytime adotou o XML como formato de representação comum para metadados. XML oferece muitas vantagens: permite extensibilidade, suporta a separação de dados de aplicação e, é usado largamente. Como é um formato textual o XML tende a ser bastante verboso, contudo, vários mecanismos têm sido desenvolvidos para reduzir a largura de banda quando necessário.

O metadado schema é a definição formal da estrutura e tipo de metadado. TV-Anytime usa a linguagem de definição de descrição (DDL) do MPEG-7 para descrever a estrutura e também a codificação do XML.

Os esquemas de descrição do TV-Anytime que foram desenvolvidos sob a gerência do Fórum TV-Anytime estão associados com o XML namespace do TV-Anytime. O namepace do TV-Anytime é definido como:

xmlns="http://www.tv-anytime.org/2001/02/metadata"

Observe que o metadado do TV-Anytime também inclui esquemas de descrição definidos pelo MPEG-7.

4. RDF

RDF (Resource Description Framework) é uma linguagem para representar informação sobre recursos na World Wide Web. É usada particularmente para representar metadados dos recursos da web, tais como o título, o autor, data da modificação de uma página web, direitos autorais e informações de licença sobre um documento da web. Apesar de frequentemente ser chamado de linguagem RDF, é essencialmente um modelo de dados. É baseada na tríplice objeto-atributo-valor, chamada de declaração [2]. Provê uma semântica simples para o modelo de dados e estes modelos de dados podem ser representados em sintaxe XML. Os conceitos fundamentais do RDF são recursos, propriedades e declarações, como explicados a seguir.

Recursos: podemos pensar em recurso como um objeto, um tema do qual queremos falar. Os recursos podem ser autores, livros, editoras, lugares, pessoas, hotéis, quartos, etc. Cada recurso possui uma URI (Universal Resource Identifier), um identificador de recurso universal, que pode ser uma URL (Unified Resource Locator), ou algum outro tipo de identificador. Este identificador não necessariamente habilita acesso ao recurso.

Propriedades: É um tipo especial de recurso. Elas descrevem as relações entre os recursos, por exemplo, “escrito por”, “idade”, “título”, etc. Propriedades em RDF são também identificadas por URIs. Esta idéia de usar URI para identificar temas e suas relações é muito importante para evitar problemas de homônimos que infestaram as representações de dados distribuídos até agora.

Declarações: Afirmam as propriedades dos recursos. A declaração, como já mencionado, é a tríplice objeto-atributo-valor, consistindo de um recurso, uma propriedade e um valor. Valores podem ser tanto recursos quanto literais. Literais são valores usados para prover informações suficientes para decodificação de tipos de dados. Por exemplo, se um número de telefone 26295516 precisa ser descrito, o programa precisa saber se vai interpretá-lo como um número inteiro ou uma string e se for um inteiro se numa representação decimal ou octal.

RDF é usado em situações nas quais a informação precisa ser processada por aplicações e não somente mostrada para o usuário [6]. RDF fornece uma estrutura comum para expressar esta informação que então pode ser trocada entre aplicações sem a perda do significado. Como é uma estrutura comum, os desenvolvedores das aplicações podem alavancar a disponibilidade de interpretadores comuns de RDF e de ferramentas de processamento. A habilidade de trocar a informação entre aplicações diferentes significa que a informação pode ser disponibilizada para aplicações diferentes daquelas para as quais ela foi criada originalmente.

RDF é baseado na idéia de identificar coisas usando identificadores URIs e descrever recursos em termos de propriedades simples e valores de propriedades[7]. Isto habilita RDF representar declarações simples sobre recursos como um gráfico de nós e arcos representando recursos, suas propriedades e valores. Para exemplificar, podemos ver na Figura 8, que o grupo de declarações “existe uma pessoa identificado por http://www.w3.org/People/EM/contact#me, cujo nome é Eric Miller, cujo e-mail é [email protected] e cujo título é Dr.” pode ser representado como um grafo RDF:

Figura 8. Exemplo de uso de RDF

RDF também provê uma sintaxe baseada em XML (chamado RDF/XML) [11]. O exemplo1 é um pequeno pedaço de RDF em RDF/XML correspondente à Figura 8.

Exemplo 1: RDF/XML descrevendo Eric Miller <?xml version="1.0"?>

<rdf:RDF xmlns:rdf="http://www.w3.org/1999/02/22-rdf-syntax-ns#"

xmlns:contact="http://www.w3.org/2000/10/swap/pim/contact#">

<contact:Person rdf:about="http://www.w3.org/People/EM/contact#me">

<contact:fullName>Eric Miller</contact:fullName>

<contact:mailbox rdf:resource="mailto:[email protected]"/>

<contact:personalTitle>Dr.</contact:personalTitle>

</contact:Person>

</rdf:RDF>

4.1. OWL

A linguagem OWL (Web Ontology Language) é designada pra uso de aplicações que precisam processar o conteúdo da informação ao invés de apenas representar a informação para humanos [2]. O termo ontologia (ontology) foi emprestado da filosofia e refere-se à ciência de descrever os diferentes tipos de entidades no mundo e como estes tipos estão relacionados. A Web semântica é uma visão do futuro (ou presente) na qual a informação é dada com significado explícito, facilitando o processamento automático pelas máquinas e integração da informação disponível na web. A Web semântica construirá em XML a habilidade de definir esquemas customizados de marcação e a aproximação flexível do RDF para representação de dados. Se se espera que as máquinas executem tarefas úteis nesses documentos, a linguagem deve ultrapassar a semântica básica do Esquema RDF [4]. Os Casos de Uso OWL e os documentos de exigências fornecem mais detalhes da ontologia, motivam a necessidade de uma Linguagem de Ontologia da Web, e formulam metas de desenho, requisitos e objetivos para OWL.

A OWL foi projetada para ir de encontro à necessidade de uma linguagem de Ontologia de Web. A OWL é parte da pilha crescente de recomendações W3C relacionadas à Web Semântica. O XML fornece uma sintaxe superficial de documentos estruturados, mas não impõe nenhuma limitação semântica à significação desses documentos. O XML Schema é uma linguagem para restringir a estrutura de documentos do XML e também estender o XML com tipos de dados. O RDF, conforme descrito acima é um modelo para objetos ("recursos") e as relações entre eles. Fornece uma semântica simples deste modelo de dados, e esses modelos de dados podem ser representados em uma sintaxe de XML. O RDF Schema é um vocabulário para descrever propriedades e classes de recursos RDF, com uma semântica de hierarquias-generalização de tais propriedades e classes. OWL acrescenta mais vocabulário para descrever propriedades e classes: entre outros, relações entre classes, igualdade, tipificação mais rica de propriedades, características de propriedades e classes enumeradas.

OWL provê três sub-linguagens designadas por comunidades específicas de desenvolvedores e usuários [5]:

OWL Lite – suporta usuários que precisam de classificação hierárquica e característica simples de restrição. Por exemplo, enquanto a OWL suporta restrição cardinalmente, ele somente permite valores de 0 e 1. Deve ser mais simples fornecer suporte de ferramentas para a OWL Lite do que suas relações mais expressivas, e a OWL Lite provê um caminho de migração rápido de dicionários e outras taxonomias. A OWL Lite também tem uma complexidade formal mais baixa do que a OWL DL.

OWL DL – OWL DL suporta aqueles usuários que querem o máximo de expressividade conservando a perfeição computacional (garante-se que todas as conclusões serão computáveis) e resolução (todos os computadores terminarão num tempo finito). A OWL DL inclui todas as construções da linguagem OWL, mas elas só podem ser usadas sob certas

restrições (por exemplo, enquanto uma classe pode ser uma subclasse de muitas classes, uma classe não pode ser uma instância de outra classe).

OWL Full - OWL Full é destinada a usuários que querem a expressividade máxima e a liberdade sintática do RDF sem garantias computacionais. Por exemplo, na OWL Full uma classe pode ser tratada simultaneamente como uma coleção de indivíduos e como um indivíduo propriamente dito. OWL Full permite que uma ontologia aumente a significado de um vocabulário predefinido (RDF ou OWL). É improvável que qualquer software seja capaz de suportar apoiar o raciocínio completo de cada característica da OWL Full.

5. Conclusão

Podemos concluir que a utilização de metadados já é uma necessidade real e como descrita no trabalho, tem várias aplicações. A utilização de um padrão será fundamental para que vários sistemas diferentes possam funcionar conjuntamente provendo um sistema único de busca, principalmente utilizando a Internet.

Dos padrões vistos no trabalho, acreditamos que o MPEG-7 tende a ser o padrão utilizado, por ser um padrão mais genérico e mais completo. Genérico no sentido de não ter como foco um tipo de aplicação específica e completo no sentido de prover definições não somente de representação, mas também de armazenamento distribuído e busca de metadados. A parte do fórum do TV-Anytime que trata de metadados também provê estas definições, porém é focado na aplicação de televisão, além de usar partes do próprio MPEG-7, como a DDL na sua concepção. O fato do MPEG-7 ser baseado em XML permite a comunicação entre as aplicações sobre a rede, porém a falta de uma semântica exata impede a interoperabilidade dos metadados. Para solucionar este problema o modelo RDF e a linguagem OWL podem ser usados [14]. Portanto, a tendência é o uso do MPEG-7 como padrão de metadados, acrescido do RDF e da OWL para detalhamento da semântica destes, visando uma melhor interoperabilidade entres diferentes sistemas.

6. Bibliografia

[1] Kosch, Harald (2003) “Distributed multimedia database technologies supported by MPEG-7 and MPEG-21”, CRC Press LLC, USA.

[2] Antoniou, Grigoris and van Harmelen, Frank (2004) “A Semantic Web Primer”, MIT Press Cambridge, London, England.

[3] Schwalb, Edward M. (2004) “iTV Handbook Technologies and Standards”, Prentice Hall, USA.

[4] W3C Recommendation, OWL Web Ontology Language Overview, 2004.

http://www.w3.org/TR/2004/REC-owl-features-20040210/

[5] W3C Recommendation, OWL Web Ontology Language Guide, 2004.

http://www.w3.org/TR/owl-guide/

[6] W3C Recommendation, RDF Primer, 2004.

http://www.w3.org/TR/rdf-primer/

[7] W3C Recommendation, RDF Vocabulary Description Language 1.0: RDF Schema, 2004.

http://www.w3.org/TR/rdf-schema/

[8] ISO/IEC JTC1/SC29/WG11 N6828, MPEG-7 Overview (version 10), 2004.

http://www.chiariglione.org/mpeg/standards/mpeg-7/mpeg-7.htm

[9] Martinez, José M. (2002), “MPEG-7 Overview”, ISO/IEC JTC1/SC29/WG11N4980

[10] De Cuetos, Philippe, Seyrat, Claude e Thienot, Cedric (2006), “BiM white paper”, ISO/IEC JTC 1/SC 29/WG 11N7922

[11] W3C Resource Description Framework (RDF): Concepts and Abstract Syntax, 2004.

http://www.w3.org/TR/2004/REC-rdf-concepts-20040210/#section-Concepts

[12] TV-Anytime Forum, Specification Series: S-3 on: Metadata, Document: SP003V10, 2001.

[13] TV-Anytime Forum, Specification Series S-4 on: Content Referencing, V1.0, Document: SP004V10, 2000.

[14] W3C Recommendation, MPEG-7 and Semantic Web, 2007.

http://www.w3.org/2005/Incubator/mmsem/XGR-mpeg7/