Na versade o meu projeto é *sobre* mpeg-7. eu não preciso implementar, é só pesquisa. Posso mostrar como é criada uma descrição mpeg-7. Então preciso de uma ferramenta em que posso criar a descrição. Tentei o annotation tool, da IBM, mas não consegui muita coisa, mas posso tentar de novo. Posso usar o seu programa de exemplo, o CoyoteArquitetus.
Porém, não estou conseguindo criar a descrição.
O link URI da mídia não funciona. Quando tento abrir o vídeo pelo CoyoteArquitetus aparece uma mensagem que o link não existe. Tentei de várias formas escrever o link. Notei que nos exemplos é usada a barra / em vez da \ (c:/teste.mov).
Tentei colocar o vídeo direto no c: mas não funcionou.
também não consegui criar um segmento ou uma região.
Poderiam me dar uma ajuda para usar o CoyoteArquitetus?
/***
*Explicção sobre o projeto
****
Descrever o vídeo manualmente torna a descrição bem mais legível do que extrair a descrição automaticamente, pois senão só teriamos descrição sobre textura e cores e outras coisas que ninguém entende ou usa. Mas o problema da descrição manual é que ela torna quase impossível a descrição completa de um video longo (apesar que a descrição completa não pode ser extraida automaticamente, a descrição manual é a única solução), como por exemplo descrever o filme inteiro, todo os objetos de todas as cenas:
Bem isso que escrevi parece estranho mas está no projeto: estrair a descrição de um vídeo, com os objetos, pessoas da cena, quadros chave etc..
Isto é humanamente impossível. Também está no projeto que o mpeg 7 (ou seus descritores automáticos) podem localizar um objeto comparando com um esboço. Isto é meio difícil. Pois o mepeg-7 não guarda a forma dos objetos(se pode guardar, então a descrição vai ficar maior que o vídeo), então essa procura deve ser feita no próprio vídeo o que não utulizaria o mpeg-7, a não ser para armazenar o resultado.
O projeto pode parecer estranho, mas era esse tipo de explicação sobre o mpeg-7 que davam algumas bibliografias. então é por isso que não tinahamos conhecimento do que realmente era o mpeg-7 (um padrão de sintaxe para descrição de multimídia + algumas ferramentas de suporte, como descritores automáticos [que não foram ainda implementados, ou pelo menos não disponíveis para todos por serem beta]).
Valeu!
If you would like to refer to this comment somewhere else in this project, copy and paste the following link:
Bom ...
No MPEG-7, como você percebeu, existem diversos Descritores que podem ser utilizados em muitas ocasiões. O problema é você gerar um MPEG-7 no formado XML com metadados que não lhe interesse. Isso só iria aumentar o tamanho dos dados com coisas inúteis.
Seria interessante você pegar o Schema MPEG-7 e visualizá-lo em alguma ferramenta (como o XMLSPY, por exemplo). Assim você poderá identificar o que irá utilizar do MPEG-7.
Outro caso é, quando você diz que o MPEG-7 não guarda formas dos objetos. Tenho quase certeza que possui descritores para isso, ou seja, guarda as formas dos objetos.
Quanto a ficar maior do que os dados originais, isso acontece se você tiver os metadados em texto plano. Pois o MPEG-7 também possui um formato binário (BiN) o qual pode compactar os metadados em mais de 90%.
Aqui está o projeto XM do Mpeg-7 onde você encontrará muita coisa, inclusive as implementações em C/C++ de diversos casos ( detecção de face, pesquisa baseada em imagens, dentre outros) http://www.lis.ei.tum.de/research/bv/topics/mmdb/e_mpeg7.html
No projeto CANNOT, nós estamos gerando XML no formato MPEG-7, mas não de tudo que o padrão suporta. Geramos apenas o que julgamos necessário, como: Anotações do vídeo, dos segmentos e das regiões. Desta mesma forma, o IBM Annotation Tool se comporta.
Ainda no projeto CANNOT, nós capturamos as descrições e armazenamos em base de dados (postgresql 8.0 , por exemplo). A camada responsável por isso é a DataAccess. Aqui está um exemplo de utilização da camada DataAccess na versão mais atual(utilizando o padrão DAO) - http://prdownloads.sourceforge.net/cannot/ExampleDataaccess-03_SRC.zip?download
Esqueci de comentar que o Arquitetus ainda está em fase de implementação e que não funciona bem com o JVM maior que 1.4.x. Se tiver com o 1.5, esses erros são comuns.
If you would like to refer to this comment somewhere else in this project, copy and paste the following link:
Gostaria de saber se há um tutorial de como usar as classes do cannot.
Estaremos, submetendo ainda esta semana uma versão da documentação.
Mas diga o que deseja fazer inicialmente. Deseja abrir um vídeo e controlá-lo?
Posso ajudar mais, se for mais específico.
Na versade o meu projeto é *sobre* mpeg-7. eu não preciso implementar, é só pesquisa. Posso mostrar como é criada uma descrição mpeg-7. Então preciso de uma ferramenta em que posso criar a descrição. Tentei o annotation tool, da IBM, mas não consegui muita coisa, mas posso tentar de novo. Posso usar o seu programa de exemplo, o CoyoteArquitetus.
Porém, não estou conseguindo criar a descrição.
O link URI da mídia não funciona. Quando tento abrir o vídeo pelo CoyoteArquitetus aparece uma mensagem que o link não existe. Tentei de várias formas escrever o link. Notei que nos exemplos é usada a barra / em vez da \ (c:/teste.mov).
Tentei colocar o vídeo direto no c: mas não funcionou.
também não consegui criar um segmento ou uma região.
Poderiam me dar uma ajuda para usar o CoyoteArquitetus?
/***
*Explicção sobre o projeto
****
Descrever o vídeo manualmente torna a descrição bem mais legível do que extrair a descrição automaticamente, pois senão só teriamos descrição sobre textura e cores e outras coisas que ninguém entende ou usa. Mas o problema da descrição manual é que ela torna quase impossível a descrição completa de um video longo (apesar que a descrição completa não pode ser extraida automaticamente, a descrição manual é a única solução), como por exemplo descrever o filme inteiro, todo os objetos de todas as cenas:
1:20 min, quadros 5002 - 5300. Quadrante 1, objetos: Jennifer, vestido amarelo, caneca, mesa...
Bem isso que escrevi parece estranho mas está no projeto: estrair a descrição de um vídeo, com os objetos, pessoas da cena, quadros chave etc..
Isto é humanamente impossível. Também está no projeto que o mpeg 7 (ou seus descritores automáticos) podem localizar um objeto comparando com um esboço. Isto é meio difícil. Pois o mepeg-7 não guarda a forma dos objetos(se pode guardar, então a descrição vai ficar maior que o vídeo), então essa procura deve ser feita no próprio vídeo o que não utulizaria o mpeg-7, a não ser para armazenar o resultado.
O projeto pode parecer estranho, mas era esse tipo de explicação sobre o mpeg-7 que davam algumas bibliografias. então é por isso que não tinahamos conhecimento do que realmente era o mpeg-7 (um padrão de sintaxe para descrição de multimídia + algumas ferramentas de suporte, como descritores automáticos [que não foram ainda implementados, ou pelo menos não disponíveis para todos por serem beta]).
Valeu!
Bom ...
No MPEG-7, como você percebeu, existem diversos Descritores que podem ser utilizados em muitas ocasiões. O problema é você gerar um MPEG-7 no formado XML com metadados que não lhe interesse. Isso só iria aumentar o tamanho dos dados com coisas inúteis.
Seria interessante você pegar o Schema MPEG-7 e visualizá-lo em alguma ferramenta (como o XMLSPY, por exemplo). Assim você poderá identificar o que irá utilizar do MPEG-7.
Outro caso é, quando você diz que o MPEG-7 não guarda formas dos objetos. Tenho quase certeza que possui descritores para isso, ou seja, guarda as formas dos objetos.
Quanto a ficar maior do que os dados originais, isso acontece se você tiver os metadados em texto plano. Pois o MPEG-7 também possui um formato binário (BiN) o qual pode compactar os metadados em mais de 90%.
Aqui está o projeto XM do Mpeg-7 onde você encontrará muita coisa, inclusive as implementações em C/C++ de diversos casos ( detecção de face, pesquisa baseada em imagens, dentre outros)
http://www.lis.ei.tum.de/research/bv/topics/mmdb/e_mpeg7.html
No projeto CANNOT, nós estamos gerando XML no formato MPEG-7, mas não de tudo que o padrão suporta. Geramos apenas o que julgamos necessário, como: Anotações do vídeo, dos segmentos e das regiões. Desta mesma forma, o IBM Annotation Tool se comporta.
Ainda no projeto CANNOT, nós capturamos as descrições e armazenamos em base de dados (postgresql 8.0 , por exemplo). A camada responsável por isso é a DataAccess. Aqui está um exemplo de utilização da camada DataAccess na versão mais atual(utilizando o padrão DAO) - http://prdownloads.sourceforge.net/cannot/ExampleDataaccess-03_SRC.zip?download
ou
https://sourceforge.net/project/showfiles.php?group_id=134523
clicando em package -> Example.
[]'s
Almerindo Rehem
Esqueci de comentar que o Arquitetus ainda está em fase de implementação e que não funciona bem com o JVM maior que 1.4.x. Se tiver com o 1.5, esses erros são comuns.