BRPI1107133A2 - dispositivo, sistema e mÉtodo de formaÇço de imagem - Google Patents

dispositivo, sistema e mÉtodo de formaÇço de imagem Download PDF

Info

Publication number
BRPI1107133A2
BRPI1107133A2 BRPI1107133-8A BRPI1107133A BRPI1107133A2 BR PI1107133 A2 BRPI1107133 A2 BR PI1107133A2 BR PI1107133 A BRPI1107133 A BR PI1107133A BR PI1107133 A2 BRPI1107133 A2 BR PI1107133A2
Authority
BR
Brazil
Prior art keywords
image
area
image signals
signals
timing
Prior art date
Application number
BRPI1107133-8A
Other languages
English (en)
Inventor
Eiji Oba
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of BRPI1107133A2 publication Critical patent/BRPI1107133A2/pt

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/635Region indicators; Field of view indicators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Studio Devices (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

DISPOSITIVO, SISTEMA E MÉTODO DE FORMAÇçO DE IMAGEM. Um dispositivo de formação de imaem inclui: um sensor de imagem que de modo fotoelétrico converte luz de objeto para gerar sinais de imagem; uma porção de armazenamento que configuração uma segunda área dentro de uma primeira área a fim de corresponder a uma área específica espeificada por um valor de configuração para configurar uma faixa de extraçaõ de uma imagem com base nos sinais de imagem;uma unidade de ajuste de temporização na qual os sinais de imagem são lidos a partir do sensor de imagem e escritos para a a porção de armazenamento; um processador de conversão de imagem que efetua predeterminado processamento na imagem com base nos sinais de imagem lidos a partir do sensor de imagem; uma unidade de saída que converte os sinais de imagem processado com temporização de varredura contínua em sinais de imagem de um predeterminado formato e emite os sinais de imagem para unidade de exibição.

Description

"DISPOSITIVO, SISTEMA E MÉTODO DE FORMAÇÃO DE IMAGEM"
CAMPO
A presente descrição se refere a um dispositivo de formação de imagem, um sistema de formação de imagem, e um método de formação de imagem que são idealmente usados em uma câmera instalada em veículo que captura e exibe imagens de áreas que são difíceis para um motorista, por exemplo, de um automóvel ver.
FUNDAMENTO Na técnica relacionada, técnicas de exibir imagens capturadas através de uma câmera compacta montada em um veículo automóvel, um veículo ferroviário, ou o similar em um dispositivo de exibição instalado, por exemplo, perto do assento do motorista são conhecidas (por exemplo, ver JP- A-2002-19556 e JP-A-2010-33108). Capturando as imagens de áreas que são difíceis para o motorista ver durante a direção o ato de dirigir usando tal uma câmera e exibindo as imagens capturadas em um dispositivo de exibição, tais áreas podem ser mudadas para áreas que são visíveis para o motorista. Por exemplo, no caso de veículos automóveis, a traseira ou o similar de um veículo é freqüentemente configurada como as áreas que são difíceis para os motoristas verem levando em consideração um caso no qual o veículo se move na direção para trás para estacionar. . Mais ainda, nas interseções de uma rodovia estreita, é difícil reconhecer veículos se aproximando dos lados esquerdo e direito.
Mais ainda, um sistema de formação de imagem que usa um dispositivo de monitoração que captura e exibe imagens emitidas por uma pluralidade de câmeras de modo a exibir o ambiente em volta de um veículo é conhecido. Este sistema de formação de imagem aumenta a visibilidade de uma pluralidade de imagens usando uma função de apresentação de PinP (Imagem na Imagem) de exibir imagens em diferentes direções na mesma tela de monitor. Um outro sistema de formação de imagem instalado em veículo é conhecido que converte e combina partes de uma completa imagem usando uma ECU (Unidade de Controle Eletrônico) ou o similar para processar imagens emitidas por uma câmera para por meio disso , efetuar uma apresentação de PinP usando uma função de arranjar áreas de tela separadas dentro de uma tela. Neste sistema de formação de imagem, após as imagens emitidas pela câmera serem apresentadas em uma memória da memória da ECU através de quadros, uma pluralidade de imagens transmitidas são combinadas juntas. Assim sendo, a definição de imagens exibidas em um monitor instalado em veículo depende da largura de banda do sistema de transmissão. Por conseguinte, as imagens são tomadas na memória de imagem da ECU e as imagens de conversão imagens de conversão são combinadas juntas em um estado onde a resolução das imagens transmitidas é diminuída.
Fig. 18 mostra um exemplo de uma imagem 100 do ambiente em torno de um veículo, capturada com uma câmera instalada em veículo da técnica relacionada.
Na técnica relacionada, um sistema de câmera é conhecido no qual uma câmera instalada em veículo é disposta na frente de um veículo para exibir o vídeo nos lados esquerdo e direito do veículo para uma unidade de exibição de modo que o usuário possa observar as áreas nos lados esquerdo e direito do veículo assim como no lado frontal. Mais ainda, um sistema de câmera é conhecido no qual uma câmera usa uma lente anamórfica ou o similar da qual o eixo óptico da lente é designada para ser assimétrico de modo que o usuário possa observar as áreas nos lados esquerdo e direito de um veículo assim como no lado frontal. Nos sistemas de câmeras anteriores, as imagens capturadas por três câmeras dispostas na frente e nos lados esquerdo e direito do veículo são apresentadas, e as imagens são combinadas e exibidas através de uma função de apresentação usada em uma ECU de controle de câmera ou um sistema de navegação. SUMÁRIO Contudo, quando dirigindo um veículo através de uma rodovia em um ângulo direito ou tirando o veículo para fora de um garagem de estacionamento, pode ser difícil para o motorista observar outros veículos ou pedestres se aproximando dos lados esquerdo e direito do assento do motorista. Já que uma câmera instalada em veículo montada em um veículo necessita capturar uma ampla faixa de áreas, uma lente de olho de peixe, uma lente amórfica, e o similar são usados. Assim sendo, se uma imagem capturada por essas lentes é exibida como ela é, já que objetos localizados na periferia da imagem são localizados em uma pequena escala, o motorista pode ignorar objetos perigosos ou obstáculos durante o ato de dirigir.
Mais ainda, no sistema de formação de imagem da técnica relacionada, é necessário para prender uma pluralidade de câmeras nos lados esquerdo, direito, frente e traseira de um veículo. Ainda mais, processadores de combinação de imagem separados são necessários para combinar as imagens capturadas pelas respectivas câmeras. Assim sendo, construir um sistema de formação de imagem acarreta uma quantidade de esforce e é caro, e tal um sistema não é amplamente usado. Em adição, quando uma câmera é configurada combinando uma pluralidade de lentes, o sistema de lente tem uma configuração complexa, e a câmera se torna característica e grande. Assim sendo, a posição de montagem da câmera é limitada. Ainda mais, o uso de uma câmera de amplo ângulo da técnica relacionada para exibir uma imagem de amplo ângulo tem um problema no fato que é difícil para o motorista perceber a distância para um veículo se aproximando devido a uma grande distorção da câmera de amplo ângulo. Por conseguinte, é muito perigoso para o motorista dirigir o veículo confiando na distância visualmente percebida já que está muito diferente da distância real.
Mais ainda, no sistema de formação de imagem da técnica relacionada, já que a definição de imagem é determinada pela capacidade de transmissão do arnês, a definição de imagem vai diminuir quando a imagem é ampliada pela ECU disposta no estágio traseiro da câmera. Ainda mais, já que a ECU necessita apresentar todas as imagens transmitidas a partir da câmera em uma memória uma vez, é necessário montar componentes para combinação de imagem assim como componentes para armazenamento de imagem no sistema de formação de imagem. Por conseguinte, o número de componentes necessários para construir um sistema de formação de imagem aumenta, tornando o sistema de formação de imagem complexo e caro.
Por conseguinte, é desejável permitir a um motorista (usuário) facilmente ver imagens capturadas a partir das direções esquerda e direita em relação a uma direção de movimento junto com uma imagem de uma área local que o motorista foca com uma particular atenção na mesma tela ao mesmo tempo.
Em uma modalidade da presente descrição, luz de objeto é de modo fotoelétrico convertida para gerar sinais de imagem.
Uma segunda área é configurada dentro de uma primeira área em uma porção de armazenamento a fim de corresponder a uma área específica especificada por um valor de configuração para configurar uma faixa de extração de uma imagem com base nos sinais de imagem.
A temporização na qual os sinais de imagem são lidos a partir de um sensor de imagem e os sinais de imagem são escritos para a porção de armazenamento e a temporização na qual os sinais de imagem são lidos a partir da porção de armazenamento são ajustados.
Então, predeterminado processamento na imagem com base nos sinais de imagem lidos a partir do sensor de imagem é efetuado. A taxa de quadro de escrever os sinais de imagem é mudada em unidades de quadros pela temporização ajustada, e um sinal de imagem de uma direção correspondendo a uma imagem obtida formando imagem em uma direção, dentre os sinais de imagem introduzidos a partir do sensor de imagem é escrito para a segunda área em um predeterminado período de quadro. Por outro lado, um sinal de imagem de direção à esquerda correspondendo a uma imagem obtida formando imagem do lado esquerdo de uma direção é escrito para uma primeira área de divisão dividida da primeira área em um período de quadro diferente do período de quadro do sinal de imagem unidirecional. Um sinal de imagem de direção à direita correspondendo a uma imagem obtida formando imagem do lado direito de uma direção é escrito para uma segunda área de divisão dividida da primeira área em um período de quadro diferente do período de quadro de escrever o sinal de imagem de direção à esquerda para a primeira área de divisão.
O sinal de imagem unidirecional, o sinal de imagem de direção à esquerda, e o sinal de imagem de direção à direita lidos da primeira e segunda áreas de acordo com a temporização de varredura contínua são convertidos em sinais de imagem de um predeterminado formato e emitindo os sinais de imagem para uma unidade de exibição.
Com esta configuração, apropriadamente arranjando e armazenando sinais de imagem na porção de armazenamento, é possível armazenar sinais de imagem lidos do sensor de imagem em uma porção de armazenamento e emitir o sinal de imagem unidirecional, o sinal de imagem de direção à esquerda, e o sinal de imagem de direção à direita a partir da porção de armazenamento como eles são em sincronização com a temporização de varredura contínua.
De acordo com a modalidade da presente descrição, o dispositivo de formação de imagem tem uma função de arranjar uma tela secundária dentro de uma imagem emitida pelo dispositivo de formação de imagem tendo uma função de PinP e emitir a tela secundária para a unidade de exibição. Na tela secundária, uma imagem com base no sinal de imagem unidirecional é exibida. Mais ainda, em uma tela excluindo a tela secundária, as imagens do lado esquerdo e direito com base no sinal de imagem de direção à direita e no sinal de imagem de direção à esquerda são exibidas. Nesta maneira, quando monitorando o ambiente em volta usando uma imagem de amplo ângulo, o usuário pode observar as áreas na direção horizontal assim como a área em uma direção ao mesmo tempo olhando a mesma tela. Mais ainda, melhorando a visibilidade, o motorista pode detector a situação do ambiente em volta do veículo do motorista em um estágio anterior.
DESCRIÇÃO BREVE DOS DESENHOS
Fig. 1 é um diagrama em bloco mostrando uma configuração interna exemplar de um dispositivo de formação de imagem e um dispositivo de exibição de acordo com uma modalidade exemplar da presente descrição.
Figs. 2A a 2D são vistas ilustrando exemplos da temporização em que um sensor de imagem da técnica relacionada lê sinais de imagem e a temporização em que um dispositivo de formação de imagem da técnica relacionada emite sinais de imagem.
Fig. 3 é uma vista ilustrando um exemplo de imagens dispostas em uma primeira área e uma segunda área.
Figs. 4A a 4C são vistas mostrando exemplos de um processo de escrever uma imagem de conversão na primeira e segunda áreas.
Figs. 5A a 5D são vistas ilustrando um exemplo de um processo de conversão de imagem através de um uma processador de conversão de imagem de acordo com uma modalidade exemplar da presente descrição.
Figs. 6A a 6E são vistas ilustrando um exemplo de um processo através de uma unidade de ajuste de temporização de acordo com uma modalidade exemplar da presente descrição.
Figs. 7A a 7E são vistas mostrando um exemplo de ajuste de temporização quando exibindo um imagem parcial em uma escala ampliada em um modo de PinP em uma modalidade exemplar da presente descrição. Figs. 8Α a 8D são vistas ilustrando um exemplo (primeiro caso) de ajuste de temporização quando exibindo uma imagem parcial em uma escala ampliada em um modo de PinP em uma modalidade exemplar da presente descrição.
Figs. 9A a 9D são vistas ilustrando um exemplo (segundo caso) de ajuste de temporização quando exibindo uma imagem parcial em uma escala ampliada em um modo de PinP em uma modalidade exemplar da presente descrição.
Figs. IOA e IOB são vistas ilustrando um exemplo de ampliar imagens esquerda e direita em ambas as direções vertical e horizontal em uma modalidade exemplar da presente descrição.
Fig. 11 é uma vista ilustrando um exemplo de uma conversão de imagem e processo de ampliação de um processador de conversão de imagem convertendo e ampliando imagens pequenas esquerda e direita tendo sido submetidas ao ajuste de temporização de acordo com uma modalidade exemplar da presente descrição.
Figs. 12A e 12B são vistas ilustrando um exemplo de uma apresentação de sobreposição de PinP caracterizado pelo fato de que uma imagem central é exibida a fim de se sobrepor com uma imagem ampliada na direção horizontal em uma modalidade exemplar da presente descrição.
Figs. 13A à 13D são vistas ilustrando um exemplo quando uma imagem parcial é exibida em uma escala ampliada em um modo de PinP em uma modalidade exemplar da presente descrição.
Fig. 14 é uma vista de topo exemplar de um automóvel no qual um dispositivo de formação de imagem de acordo com uma modalidade exemplar da presente descrição está instalado.
Figs. 15A a 15C são vistas ilustrando um exemplo de uma imagem (a completa imagem é disposta na parte superior) do ambiente em volta de um veículo, capturada com um dispositivo de formação de imagem de acordo com uma modalidade exemplar da presente descrição.
Fig. 16 é uma vista ilustrando um exemplo de uma imagem (a imagem completa é disposta na parte inferior) do ambiente em volta de um veículo, capturada com um dispositivo de formação de imagem de acordo com uma modalidade exemplar da presente descrição.
Fig. 17 é uma vista ilustrando um exemplo de uma imagem (a imagem completa é disposta na parte superior e expandida na direção horizontal) do ambiente em volta de um veículo, capturada com um dispositivo de formação de imagem de acordo com uma modalidade exemplar da presente descrição.
Fig. 18 é uma vista ilustrando um exemplo de uma imagem do ambiente em volta de um veículo, capturada com uma câmera instalada em veículo da técnica relacionada.
DESCRIÇÃO DETALHADA Daqui em diante, modos para realizar a presente descrição
(daqui em diante também referidos como a presente modalidade) serão descritos. A descrição será dada na seguinte ordem.
1. Modalidade exemplar (Controle de Apresentação de PinP: Exemplo de Controlar Apresentação de PinP usando uma Porção de
Armazenamento de Imagem; e
2. Exemplo Modificado <1. Modalidade exemplar>
[Configuração Total exemplar do Sistema de formação de imagem]
Fig. 1 mostra uma configuração exemplar de um dispositivo de formação de imagem 1 e um dispositivo de exibição 2 conforme uma modalidade exemplar de um sistema de formação de imagem 5 de acordo com a presente descrição. Na presente modalidade, um caso no qual o dispositivo de formação de imagem 1 é aplicado a uma câmera instalada em veículo presa à traseira de um veículo automóvel (não mostrado), e o dispositivo de exibição 2 é aplicado a um dispositivo de exibição de um sistema de navegação de carro ou o similar montado no veículo serão descritos como um exemplo. O dispositivo de formação de imagem Ieo dispositivo de exibição 2 estão conectados por um cabo ou o similar (não mostrado) , e por meio do que o sistema de formação de imagem 5 é formado no qual sinais de imagem são introduzidos a partir do dispositivo de formação de imagem 1 para o dispositivo de exibição 2, e sinais de controle são introduzidos a partir do dispositivo de exibição 2 para o dispositivo de formação de imagem 1.
Na presente modalidade, embora um exemplo no qual o dispositivo de formação de imagem 1 seja montado em um automóvel é ilustrado, o local de montagem não é limitada a isto. Isto é, o dispositivo de formação de imagem 1 de acordo com a modalidade da presente descrição pode ser montado em um veículo ferroviário e o corpo de um veículo ou um casco de embarcação tal como uma máquina veicular tal como equipamento pesado (por exemplo, um carro grua móvel), uma máquina industrial, o um iate.
Primeiro, os elementos constituintes do dispositivo de exibição 2 serão descritos. O dispositivo de exibição 2 inclui uma unidade de exibição 21 e uma unidade de entrada de operação 22. A unidade de exibição 21 é configurada, por exemplo, por um LCD (Mostrador de Cristal Líquido) ou o similar e é configurada para exibir sinais de imagem transmitidos a partir do dispositivo de formação de imagem 1 como uma imagem. A unidade de entrada de operação 22 gera sinais de controle de acordo com o conteúdo de uma operação de botão de um usuário pressionando um botão de Selecionar/OK Bl para selecionar a tela de exibição, configura e supre um valor de configuração para uma imagem a ser selecionada pelo dispositivo de formação de imagem 1 para a unidade de controle 14.
A unidade de entrada de operação 22 ainda inclui um botão de valor de entrada B2 independente do botão de Selecionar/OK BI. Com o botão de valor de entrada B2, as imagens de "áreas locais que o usuário foca com particular atenção" são selecionadas e configuradas de acordo com o conteúdo de uma operação de botão pelo usuário, e um modo de apresentação único é configurado antecipadamente e armazenado. Fazendo assim, o modo de apresentação único pode ser invocado por uma operação simples de pressionar o botão de Selecionar/OK Bl conforme necessário. Daqui em diante, este modo de apresentação configurado antecipadamente através deste método de exibição será refeitos como um "modo de visão pessoal".
Em particular, quando o usuário pressiona longamente o botão de Selecionar/OK Bleo botão de valor de entrada B2 ao mesmo tempo, a unidade de entrada de operação 22 gera um sinal de solicitação de interrupção para o dispositivo de formação de imagem 1 a fim de transitar para uma tela de menu de configuração para o "modo de visão pessoal". Nesta tela de menu de configuração, o usuário pressiona o botão de Selecionar/OK Bleo botão de valor de entrada B2 continuamente (esta operação de botão é uma primeira entrada de comando) para por meio disso , gerar sinais de controle, por meio do que uma posição de extração e valores de controle de configuração necessários para ampliação parcial são determinados e armazenados em uma porção de armazenamento de valor de configuração 15. Mais ainda, a posição determinada e valores de configuração são fornecidos para o dispositivo de formação de imagem 1, e configuração necessária para a apresentação única no "modo de visão pessoal" é efetuada.
Mais ainda, quando o pressionamento do botão de Selecionar/OK Bl é detectado, o dispositivo de formação de imagem 1 no qual o "modo de visão pessoal" está configurado pelo método descrito efetua os seguintes processos. Isto é, esta operação de botão é considerada como uma segunda entrada de comando. Mais ainda, um sinal de controle para ler a imagem de uma área configurada como o "modo de visão pessoal" é gerado.
Embora o "modo de visão pessoal" seja um exemplo de modo de apresentação para tornar áreas cegas únicas para que o usuário possa ver mais facilmente, áreas que são registras antecipadamente quando projetando ou fabricando um dispositivo de formação de imagem pode ser configuradas e exibidas em um formato de PinP.
Embora no exemplo mostrado na Fig. 1, o dispositivo de exibição 2 inclua uma unidade de exibição 21 e uma unidade de entrada de operação 22 como unidades separadas, um dispositivo de exibição que usa um painel de toque ou o similar no qual a unidade de exibição 21 e a unidade de entrada de operação 21 são integradas pode ser usado.
A seguir, elementos constituintes do dispositivo de formação de imagem 1 serão descrita. O dispositivo de formação de imagem 1 inclui um sensor de imagem 11, uma unidade de ajuste de qualidade de imagem 12, uma unidade de conversão de imagem 13, uma unidade de controle 14, uma porção de armazenamento de valor de configuração 15, uma unidade de ajuste de temporização 16, uma unidade de controle de exibição 17, um codificador de saída (unidade de saída) 18, e uma unidade de seleção de área 19.
Um sensor de imagem 11 é configurado através de um dispositivo de formação de imagem em estado sólido. Como um sensor de imagem 11, um sensor de imagem de CCD (Dispositivo Acoplado de Carga), um sensor de imagem de CMOS (Semicondutor de Óxido de Metal Complementar), e o similar pode ser usado, por exemplo. Um sensor de imagem 11 gera sinais de imagem convertendo de modo fotoelétrico luz de objeto condensada por uma lente de amplo ângulo (não mostrado) disposta perto do corpo de um veículo ou um casco de embarcação no qual o dispositivo de formação de imagem 1 está montado. Os sinais de imagem obtidos através do sensor de imagem 11 são fardos para a unidade de ajuste de qualidade de imagem 12. A unidade de ajuste de qualidade de imagem 12 converte os sinais de imagem fornecidos em sinais de imagem digitais e efetua ajuste de qualidade de imagem. Como um ajuste de qualidade de imagem, AGC (Controle de Ganho Automático), redução de ruído, aprimoramento da qualidade de imagem, e o similar são efetuados, por exemplo. A unidade de ajuste de qualidade de imagem 12 controla o acionamento do sensor de imagem 11. Mais ainda, a unidade de ajuste de qualidade de imagem 12 ajusta as qualidades de imagem das imagens compostas de um sinal de imagem unidirecional, um sinal de imagem de direção à esquerda, e um sinal de imagem de direção à direita que são para serem escritas na primeira e segunda áreas 132a e 132β descritas mais tarde de acordo com a temporização na qual os sinais de imagem são apresentados a partir do sensor de imagem 11 em unidades de quadros. Neste caso, as respectivas imagens direcionais são controladas para terem qualidade de imagem diferentes. A temporização é determinada com base em um sinal de temporização de leitura fornecido a partir da unidade de ajuste de temporização 16. Os sinais de imagem dos quais as qualidades de imagem são ajustadas pela unidade de ajuste de qualidade de imagem 12 são fornecidos para a unidade de conversão de imagem 13.
A unidade de conversão de imagem 13 é configurada para incluir um processador de conversão de imagem 131 e uma porção de armazenamento de imagem 132 e é configurada para converter um formato de imagem em um formato de saída padrão, por exemplo, o formato de NTSC. A porção de armazenamento de imagem 132 inclui uma primeira área 132a para armazenar um primeiro sinal de imagem correspondendo a um imagem completa com base nos sinais de imagem entrada a partir do sensor de imagem lie uma segunda área 132β para armazenar um segundo sinal de imagem correspondendo a uma imagem parcial que é uma parte da imagem completa. Mais ainda, a primeira área 132a é divida em duas áreas, que são a primeira área de divisão 132al para armazenar um sinal de imagem de direção à esquerda dentre o primeiro sinal de imagem e a segunda área de divisão 132a2 para armazenar um sinal de imagem de direção à direita. Na presente modalidade, um "sinal de imagem unidirecional" obtido formando imagem uma área em uma direção na qual a lente do dispositivo de formação de imagem 1 faz face é usada como o segundo sinal de imagem. Mais ainda, um "sinal de imagem de direção à esquerda" obtida formando imagem do lado esquerdo de uma direção e um "sinal de imagem de direção à direita" obtida formando imagem do lado direito de uma direção são coletivamente usados como o primeiro sinal de imagem. A porção de armazenamento de imagem 132 configura a segunda área 132β dentro da primeira área 132a a fim de corresponder a uma área específica especificada através de um valor de configuração gerada pela unidade de controle 14 que configura uma faixa de extração da imagem com base nos sinais de imagem. Mais ainda, a primeira área 132a é configurada em uma porção da porção de armazenamento de imagem 132 excluindo a segunda área 132β.
No dispositivo de formação de imagem 1, a primeira e segunda áreas 132a e 132β são fornecidas na porção de armazenamento de imagem 132, e a unidade de seleção de área 19 é fornecida a fim de selecionar uma área para a qual os sinais de imagem são para serem escritos. Uma imagem de conversão a ser exibida na tela inteira da unidade de exibição 21 é armazenada na primeira área 132a, e uma imagem de conversão a ser exibida em uma tela pequena de PinP é armazenada na segunda área 132β. Lendo continuamente imagens na porção de armazenamento de imagem 132 de acordo com a temporização de quadro, as imagens do formato de PinP pode ser emitidas em um formato de saída padrão.
Especificamente, um processador de conversão de imagem 131 extrai uma imagem de uma área específica dentro da imagem com base nos sinais de imagem fornecidos a partir da unidade de ajuste de qualidade de imagem 12 com base no controle da unidade de controle 14. Mais ainda, a imagem extraída é ampliada para uma imagem tendo o tamanho correspondendo à tela cheia da unidade de exibição 21 do dispositivo de exibição 2. Neste caso, o processador de conversão de imagem 131 efetua predeterminado processamento na imagem com base nos sinais de imagem lidos a partir do sensor de imagem 11. Mais ainda, o processador de conversão de imagem 131 escreve sinais de imagem para a segunda área 132β enquanto mudando a taxa de quadro de escrever sinais de imagem em unidades de quadro através da temporização ajustada. Este ajuste é efetuado no sinal de imagem unidirecional correspondendo à imagem obtida formando imagem uma área em uma direção dentre os sinais de imagem introduzidos a partir do sensor de imagem.
Mais ainda, o processador de conversão de imagem 131 escreve o sinal de imagem de direção à esquerda correspondendo à imagem obtida formando imagem do lado esquerdo de uma direção na primeira área de divisão 132al dividida a partir da primeira área 132a em um período de quadro diferente do período de quadro do sinal de imagem unidirecional. Ainda mais, o processador de conversão de imagem 131 escreve o sinal de imagem de direção à direita correspondendo à imagem obtida formando imagem do lado direito de uma direção na segunda área de divisão 132a2 dividida a partir da primeira área 132a em um período de quadro diferente do período de quadro quando imagens são escritas para a primeira área de divisão 132al. Sinais de imagem diferente dos sinais de imagem escritos para a primeira área são escritos em um subseqüente período de quadro e em sincronização com temporização de leitura de quadro seqüencial no tempo. As imagens extraídas e ampliadas são emitidas para a porção de armazenamento de imagem 132. A porção de armazenamento de imagem 132 também serve como uma memória de quadro para manter os sinais de imagem fornecidos a partir do processador de conversão de imagem 131 para um predeterminado período.
Conforme descrito acima, o dispositivo de formação de imagem 1 inclui a unidade de conversão de imagem 13 que tem uma função de gerar e emitir imagens de conversão a partir de uma imagem de amplo ângulo e que armazena uma imagem de uma área parcial designada para estar embutida em uma parte de uma imagem área necessária para emitir a imagem completa. Já que a imagem tirada a partir do sensor de imagem 11 através a lente de amplo ângulo (não mostrado) do dispositivo de formação de imagem 1 tem um quantidade de distorção, a unidade de conversão de imagem 13 processa os sinais de imagem para corrigir a distorção. Neste caso, as áreas específicas que são desejadas para serem exibidas em uma escala ampliada são ampliadas e individualmente inseridas em uma área de endereço designada como uma tela secundária de uma imagem de saída e são mantidas na segunda área 132β usada como uma área de memória de armazenamento temporário. Mais ainda, a imagem é emitida junto com uma imagem embutida no estágio traseiro da câmera durante atualização do quadro, por meio do que a função de PinP é realizada. A unidade de controle 14 é configurada, por exemplo, através
de uma MPU (Unidade de Micro Processamento) ou o similar. A unidade de controle 14 gera o valor de configuração para o "modo de visão pessoal" definido pela "primeira entrada de comando" que especifica a faixa de "área específica" com base no tamanho e posição de um quadro de acordo com o conteúdo do sinal de controle introduzido a partir da unidade de entrada de operação 22 e armazena o valor de configuração na porção de armazenamento de valor de configuração 15. Isto é, o valor de configuração serve como um valor de configuração que designa a faixa de extração da imagem com base no sinal de imagem fornecido a partir da unidade de ajuste de qualidade de imagem 12. O valor de configuração inclui um fator de aproximação/afastamento quando da aproximação/afastamento da área específica, e coordenadas XY da área específica. Mais ainda, a unidade de controle 14 inclui um contador para contar o número de pressionamentos do botão de valor de entrada B2 do dispositivo de exibição 2 e um contador de tempo para medir o tempo.
Quando da recepção da segunda entrada de comando a partir da unidade de entrada de operação 22, a unidade de controle 14 lê o valor de configuração a partir da porção de armazenamento de valor de configuração e emite o valor de configuração para a unidade de conversão de imagem 13. Mais ainda, a unidade de controle 14 gera um sinal de controle para ajustar a temporização dos sinais de imagem a partir do sensor de imagem 11 e a temporização dos sinais de imagem a partir da porção de armazenamento de imagem 132 e supre o sinal de controle to a unidade de ajuste de temporização 16. Ainda mais, a unidade de controle 14 gera um sinal de controle para emitir os sinais de imagem convertidos por um processador de conversão de imagem 131 para o codificador de saída 18 e supre o sinal de controle para o processador de conversão de imagem 131.
A unidade de seleção de área 19 e a unidade de ajuste de temporização 16 ajusta a temporização de ler os sinais de imagem a partir do sensor de imagem 11 e escrever os mesmos na porção de armazenamento de imagem 132 e a temporização de ler sinais de imagem a partir da porção de armazenamento de imagem 132 com base no sinal de controle fornecido a partir da unidade de controle 14. Os detalhes dos processos da unidade de ajuste de temporização 16 serão descritos com referência às Figs. 6A a 6E.
A unidade de controle de exibição 17 lê imagens armazenadas na porção de armazenamento de imagem 132 e emite as mesmas para o codificador de saída 18 de acordo com a temporização ajustada pela unidade de ajuste de temporização 16 com base no sinal de controle fornecido a partir da unidade de controle 14. Mais ainda, a unidade de controle de exibição 17 gera uma linha de quadro ou o similar para configurar a área específica e emite a mesma pra o codificador de saída 18. Neste caso, a unidade de controle de exibição 17 exibe um quadro do qual o tamanho e posição são variados de acordo com a operação introduzida a partir do usuário na unidade de exibição 21 para exibir imagens com base nos sinais de imagem emitidos por uma unidade de saída. Mais ainda, a unidade de controle de exibição 17 exibe uma imagem extraída como a área específica na tela secundária de PinP. Ainda mais, embora um exemplo no qual a unidade de controle de exibição 17 exiba a imagem extraída como a área específica na tela cheia de PinP e exiba a imagem completa na tela secundária de PinP seja ilustrado, as telas de saída de PinP podem ser configuradas na maneira oposta.
O codificador de saída 18 lê o sinal de imagem unidirecional, o sinal de imagem de direção à esquerda, e o sinal de imagem de direção à direita a partir da primeira área 132a (a primeira e segunda áreas de divisão 132al e 132a2) e da segunda área 132β de acordo com a temporização de varredura contínua. Mais ainda, o codificador de saída 18 converte e emite os sinais de imagem (o sinal de imagem unidirecional, sinal de imagem de direção à direita, e sinal de imagem de direção à esquerda) em sinais de imagem de um predeterminado formato em um estado onde a imagem completa e as imagens parciais são associadas cada uma com a outra. Este formato pode ser o formato de NTSC (Comitê do Sistema de Televisão Nacional), por exemplo, e o codificador de saída 18 supre os sinais de imagem para a unidade de exibição 21 do dispositivo de exibição 2. A unidade de ajuste de temporização 16 ajusta a temporização da imagem de modo que imagens possam ser emitidas em sincronização com o sinal de Sync V da temporização do NTSC independente se as imagens são extraídas ou não. Este ajuste é efetuado de modo a ajustar o tempo de ler imagens a partir de um sensor de imagem 11 e emitir imagens de conversão atrasando o quadro de imagem inteiro.
Figs. 2A a 2D mostram exemplos da temporização na qual um sensor de imagem da técnica relacionada lê sinais de imagem e a temporização na qual um dispositivo de formação de imagem da técnica relacionada emite sinais de imagem. A Fig. 2A mostra a temporização de leitura do sensor, em um caso da técnica relacionado no qual caso da técnica relacionada na qual nem função de PinP nem função de extração ou ampliação de imagens parciais é efetuada, enquanto a Fig. 2B mostra a temporização da saída da câmera que é geralmente atrasada devido ao processamento de qualidade de imagem.
As figuras 2C e 2D mostram exemplos de temporização de processamento de imagem na câmera onde imagens tiradas a partir do sensor são emitidas como elas são. A Figura 2C mostra a temporização de saída do sensor e a Figura 2D mostra a temporização de saída do sinal da câmera.
Neste exemplo, um caso no qual o dispositivo de formação de imagem 1 da técnica relacionada não efetua conversão para corrigir distorção, o modo de apresentação de PinP, extração e ampliação de imagens parciais, e o similar serão descritos.
O sensor de imagem lê uma linha de sinais de imagem em cada período horizontal (1H). Todas as linhas horizontais na área de imagem do sensor de imagem são lidas durante um período vertical (IV). Imagens apresentadas a partir do sensor de imagem 11 são emitidas para a saída do dispositivo de formação de imagem como elas são sem ser submetidas à conversão de tamanho de imagem ou o similar.
Uma porção de armazenamento de imagem do dispositivo de formação de imagem da técnica relacionada não tem a primeira e segunda áreas 132a e 132β correspondendo à porção de armazenamento de imagem 132 da presente modalidade. Aqui, já que a unidade de ajuste de qualidade de imagem e a unidade de conversão de imagem efetuam predeterminado processamento, respectivamente, a temporização na qual o dispositivo de formação de imagem 1 emite sinais de imagem é geralmente atrasado do mesmo montante. Como um resultado, não é necessário efetuar ajuste de temporização para cada área de imagem local.
Fig. 3 mostra um exemplo de imagens dispostas na primeira e segunda áreas 132α e 132β.
Uma imagem de conversão a ser exibida na tela inteira da unidade de exibição 21 é armazenada na primeira área 132a, e a imagem de conversão a ser exibida em um tela pequena de PinP é armazenada na segunda área 132β. Na seguinte descrição, a tela cheia da unidade de exibição 21 será referida como uma "tela principal" e uma área no qual a imagem parcial é exibida será referida como uma "tela secundária". A unidade de conversão de imagem 13 já conhece a faixa de áreas nas direções horizontal e vertical da tela secundária.
Sempre que uma linha de imagens processadas por um processador de conversão de imagem 131 são escritas para a porção de armazenamento de imagem 132, a unidade de conversão de imagem 13 calcula as posições de início e término nas quais a tela secundária é exibida e escreve o sinal de imagem da tela secundária para a segunda área 132β em unidades de linhas. Aqui, escrita dos sinais de imagem para a primeira e segunda áreas 132a e 132β é efetuada com base no valor de um contador de determinação de tela secundária (não mostrado) da unidade de conversão de imagem 13. O contador de determinação de tela secundária é um contador que conta os sinais de imagem escritos na direção horizontal para cada pixel e conta os sinais de imagem escritos na direção vertical para cada linha.
Já que a escrita é também efetuada na direção vertical, o sinal de imagem da tela secundária é escrito para a segunda área 132β se o valor do contador de determinação de tela secundária é maior do que a linha correspondendo à posição de inicio de exibição da tela secundária. Mais ainda, a escrita para a segunda área 132β termina se o valor do contador de determinação de tela secundária é maior do que a posição de término de exibição da tela secundária. Aqui, o sinal de imagem escrito para a primeira área 132a é um sinal de imagem de um quadro presente, ao passo que o sinal de imagem escrito para a segunda área 132β é um sinal de imagem do quadro anterior. Um processo de emitir sinais de imagem dos quadros presente e anterior dividindo uma porção de armazenamento de imagem 132 em duas áreas será descrito com referência às Figs. 4A a 4C e Figs. 5A a 5D.
Figs. 4A a 4C são vistas mostrando exemplos de um processo de escrever uma imagem de conversão na primeira e segunda áreas 132a e 132β.
Primeiro, conforme mostrado na Fig. 4A, uma imagem de conversão S a ser exibida em uma tela pequena de PinP é escrita para a segunda área 132β. A primeira área 132a é uma área de máscara na qual nenhuma imagem é escrita. Subseqüentemente, conforme mostrado na Fig. 4B, a imagem de conversão F a ser exibida na tela cheia é escrita para a primeira área 132a. Neste caso, a segunda área 132β é uma área de máscara na qual nenhuma imagem é escrita.
Então, a unidade de seleção de área 19 força a imagem de conversão F da tela cheia e a imagem de conversão S da tela pequena que são escritas nesta maneira a serem alternativamente emitidas a partir do codificador de saída 18 em unidades de quadro enquanto diminuindo a taxa de quadro de 1/2. Isto é, as respectivas imagens de conversão são atualizadas a cada dois quadros. Efetuando tal um processo, conforme mostrado na Fig. 4C, a imagem de conversão F da tele cheia e a imagem de conversão S da tela pequena que são imagens obtidas em diferentes tempos são combinadas e emitidas.
Com tal uma configuração, é possível exibir uma imagem capturada no modo normal na tela cheia da unidade de exibição 21, por exemplo, e exibir uma imagem de uma área específica Pa (ver Fig. 6A) com base no modo de visão pessoal na tela pequena de PinP. Emitindo as imagens de ambas as áreas em cada quadro de saída, o usuário pode observar uma imagem ampliada da área específica Pa enquanto olhando a iamem normal capturada pelo dispositivo de formação de imagem 1. Assim sendo, o usuário pode facilmente entender a situação do ambiente em volta do veículo. Mais ainda, de acordo com a configuração da presente modalidade, não é necessário fornecer uma pluralidade de porções de armazenamento de imagem 132 a fim de corresponder ao número de áreas sem usar um dispositivo para gerar e combinar imagens de PinP na parte externa do dispositivo de formação de imagem 1 e memória adicionais necessárias para esta operação. Por conseguinte, é possível diminui o número de componentes de um sistema de monitoramento do ambiente em volta do veículo configurado pelo dispositivo de formação de imagem 1 e pela unidade de exibição 21 e para diminuir o custo do sistema.
[Processo de Conversão de Imagem Exemplar através do Processador de Conversão de Imagem 131]
Figs. 5A a 5D mostram um exemplo da temporização na qual imagens são convertidas.
Fig. 5A mostra um exemplo do tempo de leitura no qual imagens são lidas a partir do sensor de imagem 11.
Neste exemplo, imagens são lidas a partir do sensor de imagem 11 em unidades de quadro.
Fig. 5B mostra um exemplo no qual os símbolos são atribuídos às imagens lidas para cada quadro.
Fig. 5 C mostra um exemplo de imagens de conversão introduzidas para a unidade de conversão de imagem 13. Já que imagens são processadas pela unidade de ajuste de qualidade de imagem 12 que está disposta entre o sensor de imagem Ilea unidade de conversão de imagem 13, as imagens são entradas para um processador de conversão de imagem 131 mais tarde do que a temporização quando as imagens são lidas a partir do sensor de imagem 11.
Fig. 5D mostra um exemplo de uma temporização de leitura de
imagem. O processador de conversão de imagem 131 aumenta a taxa de quadro da imagem completa ou a imagem parcial extraída das imagens introduzidas em unidades de quadro duas vezes, de modo que a diferença nos temporizações nas quais a imagem completa e a imagem parcial são escritas para a porção de armazenamento de imagem 132 é um quadro. Na presente modalidade, a imagem completa é ilustrada como uma imagem de conversão α-n e a imagem parcial é ilustrada como uma imagem de conversão β-η (onde η é a número natural número).
O processador de conversão de imagem 131 escreve a imagem completa para a primeira área 132a e a imagem parcial para a segunda área 132β. A unidade de seleção de área 19 lê a imagem completa e a imagem parcial por dois períodos de quadros. Mais ainda, a diferença nos temporizações nas quais a unidade de seleção de área 19 lê a imagem completa e a imagem parcial a partir da porção de armazenamento de imagem 132 é um quadro. Como um resultado, dois tipos de imagens de PinP das quais ao diferença de quadro é 1 são exibidas na unidade de exibição 21.
Conforme descrito acima, já que a saída das respectivas imagens de conversão é atualizada a cada dois quadros, imagens obtidas em diferentes momentos são combinadas e emitidas. Nesta maneira, um sensor de imagem 11 pode emitir imagens de cada quadro sem diminuir a taxa de quadro. A taxa de saída de quadro é 30 fps (quadro/segundo) no formato do NTSC, que gera a diferença de tempo mas não causa qualquer problema de uso prático. Mais ainda, já que o dispositivo de formação de imagem 1 emite imagens, é possível construir o sistema de formação de imagem 5 a fim de emitir imagens continuamente em sincronização com o sinal de temporização de sincronização vertical de referência tal como a saída analógica do NTSC.
O processador de conversão de imagem 131 pode escrever o sinal de imagem unidirecional para a primeira área 132a e escrever o sinal de imagem de direção à esquerda e o sinal de imagem de direção à direita para a segunda área 132β. Neste caso, o codificador de saída 18 exibe as imagens ampliadas divididas da esquerda e direita na tela secundária de PinP dentro da tela exibida pela unidade de exibição 21, e exibe uma imagem obtida formando imagem uma área em uma direção na tela principal. [Processo de Ajuste de temporização Exemplar pela Unidade de Ajuste de temporização 16]
Figs. 6A a 6E às Figs. 9A a 9D mostram exemplos de um processo de ajuste de temporização pela unidade de ajuste de temporização 16 quando exibindo uma imagem parcial em uma escala ampliada.
Fig. 6A mostra a temporização de saída do sensor na qual os sinais de imagem são lidas a partir do sensor de imagem 11 usando uma imagem completa 6.
Na Fig. 6A, a temporização na qual o primeiro pixel (um pixel no canto superior esquerdo da tela) dentre os respectivos pixéis de um quadro é lido é denotado por Ti 1, e a temporização na qual o último pixel (um pixel no canto inferior direito da tela) é lido, é denotado por Tie. Após o primeiro pixel ser lido na temporização Ti 1, o período de varredura horizontal IH começa, e uma linha de pixéis até a extremidade direita da tela são seqüencialmente lidos. Após leitura da primeira linha, pixéis na segunda linha para a última linha são seqüencialmente lidos, por meio do que todos os pixéis de um quadro são lidos. Isto é, na leitura de sinais de imagem a partir do sensor de imagem 11 mostrado na Fig. 6A, um período calculado (Tie - Til = PERÍODO DE IV EFETIVO) é um período de IV efetivo.
Fig. 6B mostra um exemplo de uma imagem parcial 7 em uma área configurada como a área específica Pa no "modo de visão pessoal". Na Fig. 6B, a área específica Pa é representado pela linha tracejada, a temporização na qual o pixel no canto superior esquerdo da área específica Pa é lido, é denotado por Tin, e a temporização na qual o pixel no canto inferior direito é lido, é denotado por Tim. Um período calculado por (Tim - TiN : ÁREA ESPECÍFICA QUE É VARIÁVEL) muda com o tamanho da área específica Pa. Na presente modalidade, a imagem parcial 7 na área específica Pa é extraída, e a imagem extraída é emitida para o dispositivo de exibição 2 durante o período de IV efetivo.
Fig. 6C mostra um exemplo da temporização na qual imagens são emitidas para o dispositivo de exibição 2.
Na Fig. 6C, a temporização de saída do sinal de câmera do processo de extração, na qual o primeiro pixel da imagem parcial 7 na área específica Pa é emitido para o dispositivo de exibição 2 é denotado por To 1, e a temporização na qual o último pixel é emitido para o dispositivo de exibição 2 é denotado por Toe.
Fig. 6D mostra um exemplo da temporização de saída do sensor de imagem na qual um sensor de imagem 11 emite sinais de imagem.
Neste exemplo, o primeiro período horizontal no período de IV é denotado por "1H", o segundo período horizontal por "2H", e o x-ésimo período horizontal por "xH".
Fig. 6E mostra um exemplo da temporização de saída do dispositivo de formação de imagem, na qual o dispositivo de formação de imagem 1 emite sinais de imagem.
Devido a um processamento de qualidade de imagem e processamento de extração de imagem, a temporização na qual o dispositivo de formação de imagem 1 emite sinais de imagem é geralmente atrasado. Contudo, já que é necessário emitir uma imagem parcial sobre o período de IV, a imagem é mantida in a porção de armazenamento de imagem 132 usada como uma memória de área de armazenamento temporário.
Quando emitindo a imagem parcial 7 na área específica Pa mostrada na Fig. 6B sobre o período de IV efetivo expresso por (Toe - Tol =
Γ _
PERÍODO DE IV EFETIVO), é necessário emitir uma imagem parcial 7 correspondendo à área específica Pa no período de IV efetivo com um retardo. Em adição, já que um retardo associada com um processamento de ajuste de qualidade de imagem pela unidade de ajuste de qualidade de imagem 12 é também adicionado, a temporização na qual o sinal de imagem é emitido a partir do dispositivo de formação de imagem 1 mostrado na Fig. 6D é atrasado por um predeterminado período a partir da temporização na qual o sinal de imagem é lido a partir do sensor de imagem 11 mostrado na Fig. 6E.
Por conseguinte, de modo a emitir a imagem parcial 7 da área específica Pa com um retardo, a unidade de ajuste de temporização 16 ajusta a temporização de ler os sinais de imagem a partir do sensor de imagem Ilea temporização de ler a imagem parcial da porção de armazenamento de imagem 132.
Figs. 7 A a 7E mostram um exemplo de ajuste de temporização quando exibindo a imagem parcial em uma escala ampliada no modo de PinP.
Figs. 7A, 7D, e 7E mostram um exemplo da temporização do sensor no qual o sensor de imagem 11 emite sinais de imagem e a temporização da câmera no qual o dispositivo de formação de imagem 1 emite sinais de imagem para o dispositivo de exibição 2 de forma similar a Figs. 6A, 6D, e 6E. Contudo, a quantidade de ajuste de temporização quando exibindo a imagem parcial em uma escala ampliada no modo de PinP não é determinado de forma uniforme.
Fig. 7A mostra um exemplo da temporização de saída do
sensor.
Fig. 7B mostra um exemplo da temporização de saída do sinal de câmera do processo de extração (primeiro caso) no qual a imagem completa 6 é exibida em uma escala reduzida na área específica Pa, e a imagem parcial 7 é exibida na tela cheia.
Fig. IC mostra um exemplo (segundo caso) no qual a imagem parcial 7 é exibida em uma escala reduzida na área específica Pa, e a imagem completa 6 é exibida na tela cheia. Em IZ é apresenta a diferença na temporização de exibição que não é absorvida somente por ajuste da temporização.
Fig. 7D mostra a temporização de saída do sensor de imagem (Período de IV efetivo) enquanto a Fig. 7E mostra a temporização de saída do dispositivo de formação de imagem.
Neste caso, é difícil absorver uma diferença na temporização de exibição através de ajuste de temporização, a temporização é ajustada em uma maneira conforme mostrado nas Figs. 8A a 8D ou Figs. 9A a 9D.
As Figs. 8A a 8D mostram o caso 1 do ajuste de temporização quando a imagem parcial é exibida em escala ampliada no modo de PinP.
Figs. 8A a 8D mostram um exemplo (primeiro caso) de ajuste de temporização quando a imagem parcial é exibida em uma escala ampliada no modo de PinP. A unidade de controle de exibição 17 exibe a segunda imagem extraída como a área específica na tela cheia de PinP e exibe uma primeira imagem na tela secundária.
Fig. 8A mostra um exemplo da temporização de saída do sensor na qual a sensor de imagem 11 emite sinais de imagem.
Conforme descrito acima, o período de IV efetivo é calculado pela seguinte equação. Tie - Til = Período de IV Efetivo
Fig. 8B mostra um exemplo de uma área na qual a imagem parcial 7 é configurada.
Conforme descrito acima, a área específica Pa na qual a imagem parcial 7 é configurada, é variável. Mais ainda, o período efetivo variável da imagem parcial 7 é calculada pela seguinte equação.
Tim - Tin = Período Efetivo Variável
Fig. 8C mostra um exemplo de uma tela exibida no modo de
PinP.
No modo de apresentação de PinP, a imagem completa 6 é exibida em uma escala reduzida na área específica Pa dentro de uma imagem parcial 7 que é exibida na tela cheia. A unidade de ajuste de temporização 16 ajusta o tempo de escrever imagem usando a função de ajuste de temporização, e a unidade de seleção de área 19 expande e emite imagens a partir da porção de armazenamento de imagem 132 com base em uma instrução da unidade de ajuste de temporização 16. Neste caso, quando a temporização de início de exibição da imagem parcial 7 exibida em uma escala ampliada é To 1, e a temporização de término de exibição é Toe, o período de IV efetivo é calculado pela seguinte equação.
Toe - Tol = Período de IV Efetivo Fig. 8D mostra um exemplo de exibir a imagem completa 6 em uma escala ampliada.
Aqui, quando a temporização de início de exibição da imagem completa 6 é Tp 1, e a temporização de término de exibição é Tp, o período de IV efetivo é calculado pela seguinte equação. Aqui, a temporização de início de exibição Tpl e a temporização de término de exibição Tpe são variáveis dependendo da posição de arranjo da tela de PinP.
Tpe - Tpl = Período de IV Efetivo As Figs. 9A a 9D mostram o caso 2 do ajuste de temporização quando a imagem parcial é exibida em escala ampliada no modo de PinP.
Figs. 9A a 9D mostram um exemplo (segundo caso) de ajuste de temporização quando exibindo uma imagem parcial em uma escala ampliada no modo de PinP. A unidade de controle de exibição 17 exibe uma segunda imagem extraída como a área específica na tela secundária de PinP.
Figs. 9A e 9B mostram um exemplo da temporização do sensor e a temporização da câmera de forma similar às Figs. 8A e 8B.
Figs. 9C e 9D mostram um exemplo de exibição da imagem completa 6 na tela cheia.
Conforme mostrado na Fig. 9C, quando a temporização de início de exibição da imagem completa 6 é To 1, e a temporização de término de exibição é Toe, o período de IV efetivo é calculado pela seguinte equação.
Toe - Tol = Período de IV Efetivo Conforme mostrado na Fig. 9D, a temporização de início de exibição Tpl e a temporização de término de exibição Tpe da imagem parcial 7 exibida na área específica Pa são variáveis dependendo da posição de arranjo da tela de PinP.
Tpe - Tpl = Período de IV Efetivo Figs. IOA e IOB mostram um exemplo no qual as imagens esquerda e direita incluídas na imagem completa 6 lida a partir do sensor de imagem 11 são ampliadas nas direções vertical e horizontal.
Fig. IOA mostra um exemplo de uma área 9L no qual a imagem parcial no lado esquerdo da imagem completa 6 é incluída e uma área 9R na qual a imagem parcial no lado direito é incluído. Um sinal de imagem de direção à esquerda correspondendo a uma imagem obtida formando imagem do lado esquerdo de uma direção é lida a partir da área 9L. Por outro lado, um sinal de imagem de direção à direita correspondendo a uma imagem obtida formando imagem do lado direito de uma direção é lido a partir da área 9R.
Fig. IOB mostra um exemplo no qual a imagem incluída na área 9L e a imagem incluída na área 9R estão ampliadas.
O processador de conversão de imagem 131 expande e amplia a imagem direcional à esquerda incluída na área 9L e a imagem direcional à direita incluída na área 9R dentre as imagens lidas a partir do sensor de imagem 11. Mais ainda, o processador de conversão de imagem 131 escreve o sinal de imagem de direção à esquerda e o sinal de imagem de direção à direita para a primeira área 132a de modo que a imagem exibida na unidade de exibição 21 com base nos sinais de imagem lidos a partir da primeira área 132a seja exibida sem sobreposição nas escalas ampliadas ou reduzidas nas direções vertical e horizontal da tela da unidade de exibição 21. Na presente modalidade, o sinal de imagem de direção à esquerda convertido é escrito para a primeira área de divisão 132al, e o sinal de imagem de direção à direita convertido é escrito para a segunda área de divisão 132a2, por meio do que as imagens esquerda e direita IOL e IOR são geradas.
Fig. 11 mostra um exemplo de um processo de conversão de imagem nas imagens esquerda e direita através do processador de conversão de imagem 131.
Neste exemplo, a temporização na qual as imagens são extraídas a partir do sensor de imagem 11 para por meio disso, gerar as imagens esquerda e direita ampliadas.
Sinais de imagem dos períodos de Tinll' a Tinir' e Tinrl' a Tinrr' na direção horizontal da área 9L são lidas a partir do sensor de imagem 11. O processador de conversão de imagem 131 efetua um processo de expansão/redução de imagem de continuamente emitir os sinais de imagem lidos durante um período de IH efetivo. Mais ainda, o processador de conversão de imagem 131 efetua o mesmo processo de expansão/redução de temporização no sinal de imagem de direção à esquerda e no sinal de imagem de direção à direita na direção vertical para por meio disso, gerar uma imagem de um período de quadro.
Figs. 12A e 12B mostram um exemplo de ampliar a imagem central incluída na imagem completa 6 lida a partir do sensor de imagem 11.
Fig. 12A mostram um exemplo de uma área 8 no qual a imagem parcial no centro da imagem completa 6 está incluída. Um sinal de imagem unidirecional correspondendo a uma imagem obtida formando imagem uma área em uma direção (na presente modalidade, a direção frontal) é lido a partir da área 8.
Fig. 12B mostra um exemplo de ampliar a imagem incluída na área 8 na direção horizontal. O processador de conversão de imagem 131 expande e amplia a imagem incluída na área 8 dentre as imagens lidas a partir do sensor de imagem 11 na direção horizontal. Mais ainda, o processador de conversão de imagem 131 escreve o sinal de imagem unidirecional convertido para a segunda área 132β para por meio disso, gerar a imagem central de modo que a imagem central seja exibida na unidade de exibição 21 como PinP nas imagens esquerda e direita mostradas na Fig. 10B.
Figs. 13A a 13D mostram um exemplo de ajuste de temporização quando uma imagem parcial é exibida em uma escala ampliada na unidade de exibição 21 no modo de PinP.
Fig. 13A mostra um exemplo da temporização de saída do sensor no qual o sensor de imagem 11 emite sinais de imagem de forma similar à Fig. 6A.
Fig. 13B mostra um exemplo no qual as áreas 8, 9L, e 9R são configuradas em uma imagem completa 6.
No exemplo mostrado na Fig. 13C, de forma similar à Fig. 12B, na porção de armazenamento de imagem 132, o sinal de imagem de direção à esquerda é escrito para a primeira área de divisão 132α1, o sinal de imagem de direção à direita é escrito para a segunda área de divisão 132a2, e o sinal de imagem unidirecional é escrito para a segunda área 132β.
Fig. 13D mostra um exemplo de uma imagem com base no sinal de imagem unidirecional escrito para a segunda área 132β.
Conforme descrito acima, o processador de conversão de imagem 131 arranja a segunda área 132β a fim de concordar com as partes superior, central, e inferior dentro da tela exibida na unidade de exibição 21 e escreve o sinal de imagem unidirecional para a segunda área 132β. Mais ainda, o processador de conversão de imagem 131 amplia a segunda área 132β na direção horizontal na parte superior ou inferior dentro da tela e escreve o sinal de imagem unidirecional para a segunda área 132β. Assim sendo, pode ser entendido que expandindo a imagem com base no sinal de imagem unidirecional escrita para a segunda área 132β, a imagem comprimida que é extraída como a área 8 é obtida.
Fig. 14 mostra uma vista de topo exemplar de um automóvel no qual o dispositivo de formação de imagem 1 da presente modalidade está instalado.
O dispositivo de formação de imagem 1 é instalado em uma porção da capota no lado frontal de um automóvel e uma porção da mala traseira no lado traseiro, e o dispositivo de exibição 2 está instalado no assento do motorista dentro do veículo. Os dispositivos de formação de imagem 1 instalados nos lados frontais e traseiros têm um ângulo de imagem de cerca de 180°. Na presente modalidade, a "direção frontal" do dispositivo de formação de imagem 1 fornecido no lado frontal é referida como "uma direção", e a "direção traseira" do dispositivo de formação de imagem 1 fornecido no lado traseiro é referida como "uma direção".
Figs. 15A a 15C mostram um exemplo no qual uma imagem obtida formando imagem do lado frontal de um veículo é exibida na parte superior da unidade de exibição 21 no modo de PinP.
Fig. 15A mostra um exemplo da apresentação de tela cheia quando nenhuma conversão de imagem ou o similar é efetuada.
Neste exemplo, uma imagem 30 capturada pelo dispositivo de formação de imagem 1 fornecida no lado traseiro do automóvel é exibida. Já que a lente usada no dispositivo de formação de imagem 1 tem um grande raio de curvatura, distorção de imagem na periferia da unidade de exibição 21 é particularmente grande. Por conseguinte, o usuário não pode facilmente identificar um veículo que é para ser focado e pode dar má interpretação à relação posicionai de modo que o veículo se aproximando apareça estar distante do veículo do motorista.
Fig. 15B mostra um exemplo de imagens obtida formando imagem do lado frontal, esquerdo, direito, incluído na imagem 30.
Neste exemplo, áreas 3IL e 3IR localizada nos lados esquerdo e direito da imagem 30 são exibidas em uma escala ampliada e são selecionadas como telas divididas principais. Mais ainda, uma área 32 localizada no centro da imagem 30 é selecionada como a tela secundária que é exibida como uma tela de PinP na Fig. 15C. A seleção é automaticamente efetuada com base no valor de configuração lido a partir da porção de armazenamento de valor de configuração 15.
Nesta maneira, durante um período de transição no qual imagens parciais extraídas a partir da imagem completa antes da conversão, normalmente vistas pelo motorista são exibidos em uma escala ampliada, os quadros de áreas em negrito (áreas 31, 31L, e 3IR) correspondendo às porções ampliadas são temporariamente exibidos. O período necessário para exibir os quadros é cerca de 0,5 a 5 segundos, e os quadros em negrito sendo exibidos chamam a atenção do usuário olhando a tela secundária exibida como a tela de PinP. Os respectivos valores de configurações são determinados antes que o processador de conversão de imagem 131 escreva o sinal de imagem unidirecional para a segunda área 132β e o sinal de imagem de direção à esquerda e o sinal de imagem de direção à direita para a primeira área 132α. O processador de conversão de imagem 131 adiciona informação representando a área específica especificada pelos valores de configuração e escreve sinais de imagem lidos a partir do sensor de imagem 11 para a porção de armazenamento de imagem 132 como eles são. Nesta maneira, quando o motorista olha a imagem exibida na unidade de exibição 21 para verificar outros veículos se aproximando ou o similar ou a situação nos lados esquerdo e direito, é possível prevenir a situação no qual o motorista falha em reconhecer um pedestre em frente do veículo.
Fig. 15C mostra um exemplo no qual a tela principal em adição, tela secundária de PinP são exibidas juntas na unidade de exibição 21. Antes de exibir uma imagem na unidade de exibição 21, o processador de conversão de imagem 131 remove distorção de imagem nas áreas 31L, 3 IR, e 32. Mais ainda, as imagens esquerda e direita nas áreas 3IL e 3IR mostradas na Fig. 15B são ampliadas, e as imagens direcional à esquerda e direcional à direita são exibidas nas telas esquerda e direita 33L e 33R dividindo a tela principal. Mais ainda, a unidade de controle de exibição 17 que opera de acordo com a operação do usuário pode exibir a imagem de uma direção mudando a posição e tamanho da tela secundária 34 que é exibida como uma tela de PinP.
Nesta maneira, exibindo as imagens obtidas formando imagem dos lados esquerdo e direito do veículo em uma escala ampliada, o usuário pode reconhecer outros veículos se aproximando do veículo do motorista. Mais ainda, exibindo a tela secundária 34 no qual a imagem incluída na área 32 é convertida em uma escala reduzida na parte superior da tela como uma tela de PinP, o motorista pode facilmente entender a situação do ambiente em volta do veículo do motorista. Mais ainda, o motorista pode mudar o tamanho da tela secundária 34 exibida como uma tela de PinP em uma escala ampliada ou reduzida na direção indicada pelas setas quebradas. Fazendo assim, mesmo quando um automóvel ou o similar incluído na tela esquerda ou direita 33L ou 33R se aproxima do veículo do motorista e aparece em uma escala ampliada, a exibição da tela secundária 34 não é prejudicada.
Fig. 16 mostra um exemplo no qual uma imagem obtida formando imagem do lado frontal de um veículo é exibida em um modo de PinP na parte inferior da unidade de exibição 21.
Neste exemplo, a tela secundária 34 no qual a imagem reduzida é exibida em um modo de PinP é configurada na parte inferior central das telas principais 35L e 35R no qual as imagens esquerda e direita são exibidas. O tamanho da imagem exibida na tela secundária 34 pode ser mudado ampliando ou reduzindo a tela secundária 34 na direção indicada pelas setas quebradas de forma similar à imagem mostrada na Fig. 15C. Nesta maneira, mesmo quando um automóvel ou o similar incluído nas imagens exibidas nas telas principais 35L e 35R se aproxima do veículo do motorista e aparece em uma escala ampliada, a exibição da tela secundária 34 não é prejudicada.
Fig. 17 mostra um exemplo no qual uma imagem obtida formando imagem do lado frontal de um veículo é expandida na direção horizontal e exibida na parte superior da unidade de exibição 21 em um modo de PinP.
Neste exemplo, a imagem de uma área 31 é exibida em um
modo de PinP em uma tela secundária 37 que é arranjada na parte superior da tela da unidade de exibição 21 e que é comprimida na direção vertical e expandida na direção horizontal. Já que o motorista pode facilmente observar o lado frontal, a visibilidade não é prejudicada mesmo quando a tela secundária 37 é comprimida na direção vertical. Mais ainda, telas principais 36L e 36R exibindo as telas principais esquerda e direita divididas são arranjadas abaixo da tela secundária 37, e as imagens direcional à esquerda e direcional à direita são exibidas nas respectivas telas principais em uma escala ampliada. Neste caso, mesmo quando um automóvel ou o similar incluído nas imagens exibidas nas telas principais 36L e 36R se aproxima do veículo do motorista e aparece em uma escala ampliada, a exibição da tela secundária 37 não é prejudicada.
Nesta maneira, a imagem capturada no lado frontal ou traseiro de um automóvel é inserida na tela secundária que é exibida como uma tela de PinP. Neste caso, a posição de arranjo da tela secundária pode ser apropriadamente mudada para a seguinte posição em relação à tela completa de acordo com o estado do dispositivo de formação de imagem 1 instalado, do tamanho da tela da unidade de exibição 21, e do propósito de melhorar a visibilidade do motorista. Isto é, a tela secundária pode ser apropriadamente arranjada nas seguintes posições: a) a parte superior central da tela; b) a parte inferior central da tela; c) a parte superior horizontal da tela; e d) a parte inferior horizontal da tela.
De acordo com o sistema de formação de imagem 5 da modalidade exemplar descrita acima, é possível extrair partes de uma imagem lida a partir do mesmo sensor de imagem 11 e exibir qualquer um, da imagem completa ou da imagem parcial na tela secundária como uma tela de PinP. Contudo, de modo a exibir a imagem completa e a imagem parcial, é necessário ajustar a temporização entre conversão de imagem e exibição de imagens em dois sentido. Assim sendo, quando realizando a função de apresentação de PinP como a tela secundária de PinP, uma memória área de memória na qual informação de imagens exibidas na tela secundária é armazenada, é assegurada em uma porção de armazenamento de imagem 132 como a segunda área 132β, e imagens adquiridas a partir da tela cheia são inseridas antecipadamente na segunda área 132β. Nesta maneira, não é necessário ajustar a temporização durante o processo de emitir a tela cheia e a tela secundária em duas maneiras Nesta maneira, o dispositivo de formação de imagem 1 dispõe como imagens do quadro anterior em uma escala reduzida em uma área de endereço correspondendo à posição de exibição de PinP display no endereço de leitura seqüencial de "memória de imagem cheia", usada quando exibindo a tela cheia.
Mais ainda, o dispositivo de formação de imagem 1 tem um função de arranjar a tela secundária dentro de uma imagem emitida pelo dispositivo de formação de imagem 1 tendo a função de PinP. Mais ainda, sob o controle do dispositivo de formação de imagem 1, a imagem obtida formando imagem dos lados esquerdo e direito de um veículo é exibida ampliada na tela cheia, e a imagem do lado frontal do veículo é exibida na tela secundária. Nesta maneira, já que é possível identificar a direção de movimento do veículo e um objeto se aproximando do veículo do motorista, o motorista pode determinar se movimento à frente ou para trás do veículo do motorista vão obstruir o caminho de outros veículos ou o similar antecipadamente de mover o veículo. Na técnica relacionada, quando dirigindo um veículo através de uma rodovia em um ângulo direito ou tirando o veículo para fora de uma garagem de estacionamento, era difícil para o motorista observar outros veículos ou pedestres se aproximando dos lados esquerdo e direito do assento do motorista. Contudo, é possível observar as imagens do lado esquerdo e direito e as imagens do lado frontal e traseiro do veículo em uma escala ampliada a partir de uma imagem de amplo ângulo em uma tela exibida na unidade de exibição 21 em um custo baixo. Mais ainda, é possível fornecer o sistema de formação de imagem 5 em um custo baixo que permite ao motorista dirigir com segurança um veículo em interseções ou em garagens de estacionamento com pobre visibilidade.
Mais ainda, a saída das respectivas imagens de conversão são atualizadas a cada dois quadros. Assim sendo, imagens obtidas em diferentes momentos são combinadas e emitidas para a unidade de exibição 21. Por conseguinte, é possível emitir imagens de cada quadro para a unidade de exibição 21 sem diminuir a taxa de quadro de imagens emitidas pelo sensor de imagem 11. Mais ainda, já que o dispositivo de formação de imagem 1 emite imagens para o dispositivo de exibição 2, é possível construir o sistema de formação de imagem 5 a fim de emitir imagens continuamente em sincronização com um sinal de temporização de sincronização vertical de referência tal como a saída analógica de NTSC.
Conforme descrito acima, o dispositivo de formação de imagem 1 pode capturar uma imagem de amplo ângulo como requerido em uma câmera de monitoramento de ambiente em torno de uma veículo instalada no veículo tendo a função de PinP. A partir de uma imagem de amplo ângulo, é difícil entender os detalhes de uma imagem local. Em particular, mesmo quando a área específica que o usuário quer focar está presente na imagem de amplo ângulo, requer uma quantidade de tempo para o usuário entender a situação ou o usuário pode não entender os detalhes a partir da imagem como ela era. Em adição, é importante para o motorista detectar um perigo em um estágio antecipado quanto dirigindo. Em vista de tal uma demanda, fornecendo a função no qual o dispositivo de formação de imagem 1 configura uma correspondente imagem parcial na área específica Pa a partir da imagem de amplo ângulo capturada pelo dispositivo de formação de imagem 1 antecipadamente e exibindo a correspondente imagem na tela secundária ou o similar como a tela de PinP, o motorista pode facilmente entender a situação. Fazendo assim, já que o motorista pode observar uma área de foco específico em mais detalhe junto com a imagem completa, o motorista pode facilmente e rapidamente entender a situação do ambiente em volta.
Mais ainda, o dispositivo de formação de imagem 1 tem a função de PinP de arranjar uma tela secundária dentro da mesma tela emitida pelo dispositivo de formação de imagem 1. Assim sendo, o motorista ou o similar pode designar uma imagem parcial de uma área que é difícil para o motorista ou o similar observar a partir da imagem completa a olhos nus na tela secundária. Alternativamente, também é possível exibir a imagem completa na tela secundária e exibir a imagem ampliada detalhada de uma área específica na tela cheia. Mais ainda, transmitindo a imagem completa e a imagem parcial para o dispositivo de exibição 2 a fim de serem inseridas na mesma tela como a tela de PinP substancialmente ao mesmo tempo, o motorista pode entender a área completa do ambiente em volta e os detalhes da área específica ao mesmo tempo.
Mais ainda, já que as imagens são atualizadas a cada dois quadros, a unidade de ajuste de qualidade de imagem 12 ajusta as áreas de qualidades de imagem que são lidas em diferentes momentos e são associadas com diferentes áreas de imagem para a qualidade ótima, onde pelo dispositivo de formação de imagem 1 pode emitir as respectivas imagens de conversão. Mais ainda, já que o método de apresentação de PinP é realizado alternativamente escrevendo quadros para a porção de armazenamento de imagem 132, é possível obter uma vantagem adicional que é possível otimizar o controle de exposição para cada área. Na técnica relacionada, quando áreas das quais o brilho muda enormemente são exibida no modo de PinP, algumas imagens podem aparecer muito escuras ou muito claras. Contudo, ajustando a qualidade de imagem de imagens exibidas em cada área para a qualidade ótima, é possível ajustar o brilho das imagens com base em sinais de imagem escritos para as respectivas áreas em unidades de quadro. Por conseguinte, o dispositivo de formação de imagem 1 pode emitir imagens que são geralmente facilmente entendidas pelo motorista.
Nos dispositivos de formação de imagem instalados em veículo existentes para monitorar o ambiente em volta, área de monitoração são configuradas antecipadamente para o propósito de observar áreas específicas que são configuradas no decorrer de fabricação. Embora haja produtos nos quais áreas de gerenciamento visual podem ser designadas antes do embarque das fabricas, não há produto no qual áreas de monitoração podem ser designadas levando em consideração situação de baixa visibilidade associada com o ambiente do ato de dirigir dos usuários. Por outro lado, de acordo com o sistema de formação de imagem 5, já que o motorista pode designar áreas de baixa visibilidade sob o ambiente do ato de dirigir do motorista e manter as áreas designadas, é possível monitorar eficazmente o ambiente em volta, por exemplo, quando estacionando em um espaço estreito na casa do motorista. <2. Exemplo Modificado>
Conforme mostrado na Figs. 4A a 4C, a presente descrição pode ser aplicada não somente à configuração no qual a exibição da tela de PinP é controlada usando um porção de armazenamento de imagem 132 mas também uma configuração no qual uma pluralidade de porções de armazenamento de imagem 132 são fornecidas a fim de corresponder ao número de áreas.
A presente descrição não é limitada à modalidade descrita acima, mas várias aplicações e modificações podem ser feitas sem fugir do espírito da presente descrição descrita nas reivindicações.
A presente descrição contém assunto relacionado àquele descrito no Pedido de Patente de Prioridade Japonesa JP 2010-191376 depositado no Escritório de Patente do Japão em 27 de agosto de 2010, da qual o conteúdo inteiro é aqui incorporado para referência.
Deve ser entendido por aqueles com qualificação na técnica que várias modificações, combinações, sub-combinações e alterações podem ocorrer dependendo dos requisitos de projeto e outros fatores na medida que eles estejam dentro do escopo das reivindicações anexas ou das equivalentes delas.

Claims (10)

1. Dispositivo de formação de imagem, caracterizado pelo fato de compreender: - um sensor de imagem que de modo fotoelétrico converte luz de objeto para gerar sinais de imagem; - uma porção de armazenamento que configura uma segunda área dentro de uma primeira área a fim de corresponder à área específica especificada por um valor de configuração para configurar uma faixa de extração de uma imagem com base nos sinais de imagem; - uma unidade de ajuste de temporização que ajusta a temporização na qual os sinais de imagem são lidos a partir de um sensor de imagem e os sinais de imagem são escritos para a porção de armazenamento e a temporização na qual os sinais de imagem são lidos a partir da porção de armazenamento; - um processador de conversão de imagem que efetua predeterminado processamento na imagem com base nos sinais de imagem lidos a partir de um sensor de imagem de modo que a taxa de quadro de escrever os sinais de imagem para a primeira e segunda áreas seja mudada em unidades de quadros através da temporização ajustada, - um processador de conversão de imagem escrevendo um sinal de imagem unidirecional correspondendo a uma imagem obtida formando imagem em uma direção, dentre os sinais de imagem introduzidos do sensor de imagem para a segunda área em um predeterminado período de quadro, - escrever um sinal de imagem de direção à esquerda correspondendo a uma imagem obtida formando imagem do lado esquerdo de uma direção para uma primeira área de divisão dividida a partir da primeira área em um período de quadro diferente do período de quadro do sinal de imagem unidirecional, e - escrever um sinal de imagem de direção à direita correspondendo a uma imagem obtida formando imagem do lado direito de uma direção para uma segunda área de divisão dividida a partir da primeira área em um período de quadro diferente do período de quadro de escrever o sinal de imagem de direção à esquerda para a primeira área de divisão; - uma unidade de saída que converte o sinal de imagem unidirecional, o sinal de imagem de direção à esquerda, e o sinal de imagem de direção à direita lidos a partir da primeira e segunda áreas de acordo com a temporização de varredura contínua nos sinais de imagem de um predeterminado formato e emite os sinais de imagem para uma unidade de exibição.
2. Dispositivo de formação de imagem de acordo com a reivindicação 1, caracterizado pelo fato de que a primeira área é configurada em uma porção da porção de armazenamento excluindo a segunda área, e em que um processador de conversão de imagem escreve o sinal de imagem de direção à esquerda e o sinal de imagem de direção à direita para a primeira área de modo que uma imagem exibida na unidade de exibição com base nos sinais de imagem lidos a partir da primeira área é exibida sem sobrepor em uma escala ampliada ou reduzida nas direções vertical e horizontal da tela da unidade de exibição.
3. Dispositivo de formação de imagem de acordo com a reivindicação 2, caracterizado pelo fato de que o processador de conversão de imagem escreve o sinal de imagem unidirecional para a segunda área, adiciona informação indicando a área específica especificada pelo valor de configuração para uma imagem de saída normal de um predeterminado período antes que a unidade de saída inicie uma operação de conversão de emitir o sinal de imagem de direção à esquerda e o sinal de imagem de direção à direita para a primeira área, e escreve os sinais de imagem lidos a partir do sensor de imagem para a porção de armazenamento como eles são.
4. Dispositivo de formação de imagem de acordo com a reivindicação 3, caracterizado pelo fato de que o processador de conversão de imagem arranja a segunda área em uma parte superior, uma parte central, ou uma parte inferior dentro da tela exibida na unidade de exibição ou arranja a segunda área na parte superior ou inferior parte dentro da tela a fim de ser expandida na direção horizontal e escreve o sinal de imagem unidirecional para a segunda área.
5. Dispositivo de formação de imagem de acordo com a reivindicação 4, caracterizado pelo fato de compreender adicionalmente: uma unidade de controle de exibição que exibe um quadro do qual o tamanho e posição são variáveis de acordo com uma operação introduzida a partir de um usuário na unidade de exibição para exibir imagens com base nos sinais de imagem emitidos pela unidade de saída, em que a unidade de controle gera o valor de configuração com base no tamanho e posição do quadro.
6. Dispositivo de formação de imagem de acordo com a reivindicação 5, caracterizado pelo fato de compreender adicionalmente: uma unidade de ajuste de qualidade de imagem que controla o acionamento do sensor de imagem e ajusta a qualidade de imagem de imagens com base no sinal de imagem unidirecional, no sinal de imagem de direção à esquerda, e no sinal de imagem de direção à direita escritos para a primeira e segunda áreas em sincronização com a temporização na qual os sinais de imagem são apresentados a partir do sensor de imagem em unidades de quadros de modo que o sinal de imagem unidirecional seja ajustado diferentemente do sinal de imagem de direção à esquerda e do sinal de imagem de direção à direita.
7. Dispositivo de formação de imagem de acordo com a reivindicação 6, caracterizado pelo fato de que o dispositivo de formação de imagem é montado no corpo de um veículo ou um casco de embarcação, e o sensor de imagem de modo fotoelétrico converte luz de objeto em torno do corpo do veículo ou casco de embarcação para gerar os sinais de imagem.
8. Dispositivo de formação de imagem de acordo com a reivindicação 2, caracterizado pelo fato de que o processador de conversão de imagem escreve o sinal de imagem unidirecional para a primeira área e o sinal de imagem de direção à esquerda e o sinal de imagem de direção à direita para a segunda área.
9. Sistema de formação de imagem, caracterizado pelo fato de compreender: - um dispositivo de formação de imagem; e - um dispositivo de exibição, em que o dispositivo de formação de imagem inclui - um sensor de imagem que de modo fotoelétrico converte luz de objeto para gerar sinais de imagem; - uma porção de armazenamento que configura uma segunda área dentro de uma primeira área a fim de corresponder a uma área específica especificada por um valor de configuração para configurar uma faixa de extração de uma imagem com base nos sinais de imagem; - uma unidade de ajuste de temporização que ajusta a temporização na qual os sinais de imagem são lidos a partir do sensor de imagem e os sinais de imagem são escritos para a porção de armazenamento e a temporização na qual os sinais de imagem são lidos a partir da porção de armazenamento; - um processador de conversão de imagem que efetua predeterminado processamento na imagem com base nos sinais de imagem lidos a partir do sensor de imagem de modo que uma taxa de quadro de escrever os sinais de imagem seja mudada em unidades de quadros pela temporização ajustada, escreve um sinal de imagem unidirecional correspondendo a uma imagem obtida formando imagem em uma direção, dentre os sinais de imagem introduzidos a partir do sensor de imagem para a segunda área em um predeterminado período de quadro, escreve um sinal de imagem de direção à esquerda correspondendo a uma imagem obtida formando imagem do lado esquerdo de uma direção para a primeira área de divisão dividida a partir da primeira área em um período de quadro diferente do período de quadro do sinal de imagem unidirecional, e escreve um sinal de imagem de direção à direita correspondendo a uma imagem obtida formando imagem do lado direito de uma direção para a segunda área de divisão dividida a partir da primeira área em um período de quadro diferente do período de quadro de escrever o sinal de imagem de direção à esquerda para a primeira área de divisão; e - uma unidade de saída que converte o sinal de imagem unidirecional, o sinal de imagem de direção à esquerda e o sinal de imagem de direção à direita lidos a partir da primeira e segunda áreas de acordo com temporização de varredura contínua em sinais de imagem de um predeterminado formato e emite os sinais de imagem para a unidade de exibição, e - o dispositivo de exibição inclui a unidade de exibição que exibe imagens com base nos sinais de imagem emitidos a partir da unidade de saída.
10. Método de formação de imagem, caracterizado pelo fato de compreender: - de modo fotoelétrico converter luz de objeto para gerar sinais de imagem; - configurar uma segunda área dentro de uma primeira área em uma porção de armazenamento a fim de corresponder a uma área específica especificada por um valor de configuração para configurar uma faixa de extração de uma imagem com base nos sinais de imagem; - ajustar a temporização na qual os sinais de imagem são lidos a partir do sensor de imagem e os sinais de imagem são escritos para a porção de armazenamento e a temporização na qual os sinais de imagem são lidos a partir da porção de armazenamento; - efetuar predeterminado processamento na imagem com base nos sinais de imagem lidos a partir do sensor de imagem de modo que a taxa de quadro de escrever os sinais de imagem seja mudada em unidades de quadros pela temporização ajustada, - escrever um sinal de imagem unidirecional correspondendo a uma imagem obtida formando imagem em uma direção, dentre os sinais de imagem introduzidos a partir do sensor de imagem para a segunda área em um predeterminado período de quadro, - escrever um sinal de imagem de direção à esquerda correspondendo a uma imagem obtida formando imagem do lado esquerdo de uma direção para a primeira área de divisão dividida a partir da primeira área em um período de quadro diferente do período de quadro do sinal de imagem unidirecional, e - escrever um sinal de imagem de direção à direita correspondendo a uma imagem obtida formando imagem do lado direito de uma direção para a segunda área de divisão dividida a partir da primeira área em um período de quadro diferente do período de quadro de escrever o sinal de imagem de direção à esquerda para a primeira área de divisão; e - converter o sinal de imagem unidirecional, o sinal de imagem de direção à esquerda, e o sinal de imagem de direção à direita lidos a partir da primeira e segunda áreas de acordo com temporização de varredura contínua em sinais de imagem de um predeterminado formato e emitir os sinais de imagem para a unidade de exibição.
BRPI1107133-8A 2010-08-27 2011-08-19 dispositivo, sistema e mÉtodo de formaÇço de imagem BRPI1107133A2 (pt)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010191376A JP5672862B2 (ja) 2010-08-27 2010-08-27 撮像装置、撮像システム及び撮像方法

Publications (1)

Publication Number Publication Date
BRPI1107133A2 true BRPI1107133A2 (pt) 2013-05-21

Family

ID=45316489

Family Applications (1)

Application Number Title Priority Date Filing Date
BRPI1107133-8A BRPI1107133A2 (pt) 2010-08-27 2011-08-19 dispositivo, sistema e mÉtodo de formaÇço de imagem

Country Status (6)

Country Link
US (3) US9088702B2 (pt)
EP (2) EP2424221B1 (pt)
JP (1) JP5672862B2 (pt)
CN (2) CN105915773B (pt)
BR (1) BRPI1107133A2 (pt)
RU (1) RU2011134926A (pt)

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2915025B8 (en) * 2012-11-01 2021-06-02 Eyecam, Inc. Wireless wrist computing and control device and method for 3d imaging, mapping, networking and interfacing
JP2015032050A (ja) * 2013-07-31 2015-02-16 株式会社東芝 表示制御装置、表示制御方法およびプログラム
WO2015129801A1 (ja) * 2014-02-26 2015-09-03 株式会社ニコン 撮像装置
JP6582642B2 (ja) 2014-08-11 2019-10-02 セイコーエプソン株式会社 車両用撮像装置、車両用撮像表示システム、及び車両
JP6582644B2 (ja) 2014-08-11 2019-10-02 セイコーエプソン株式会社 撮像装置、撮像表示装置、及び、車両
JP6384188B2 (ja) 2014-08-12 2018-09-05 ソニー株式会社 車両用表示装置と表示制御方法および後方モニタリングシステム
WO2018105007A1 (ja) * 2016-12-05 2018-06-14 富士通周辺機株式会社 運転支援プログラム、運転支援方法および運転支援装置
CN106911892A (zh) * 2017-02-21 2017-06-30 深圳市金立通信设备有限公司 一种图像处理的方法及终端
JP6754893B2 (ja) * 2017-03-31 2020-09-16 本田技研工業株式会社 画像生成装置及び画像生成方法
DE102017205630A1 (de) * 2017-04-03 2018-10-04 Conti Temic Microelectronic Gmbh Kameravorrichtung und Verfahren zur Erfassung eines Umgebungsbereichs eines Fahrzeugs
JP6649914B2 (ja) * 2017-04-20 2020-02-19 株式会社Subaru 画像表示装置
DE102017218722A1 (de) * 2017-10-19 2019-04-25 Robert Bosch Gmbh Umfelderfassungssystem zum Erfassen eines Umfelds eines Fahrzeugs und Verfahren zum Erfassen eines Umfelds eines Fahrzeugs
US11314399B2 (en) 2017-10-21 2022-04-26 Eyecam, Inc. Adaptive graphic user interfacing system
EP3480779A1 (en) * 2017-11-01 2019-05-08 Volvo Car Corporation Method and system for handling images
US10999539B2 (en) * 2017-12-26 2021-05-04 Waymo Llc Adjustable vertical field of view
JP7419721B2 (ja) * 2018-12-20 2024-01-23 セイコーエプソン株式会社 回路装置、電子機器及び移動体
JP2020202503A (ja) * 2019-06-11 2020-12-17 キヤノン株式会社 撮像装置、コンピュータプログラムおよび記憶媒体
JP7279533B2 (ja) * 2019-06-14 2023-05-23 ソニーグループ株式会社 センサ装置、信号処理方法

Family Cites Families (54)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4249213A (en) * 1978-09-14 1981-02-03 Hitachi, Ltd. Picture-in-picture television receiver
US4528585A (en) * 1983-03-30 1985-07-09 Rca Corporation Television receiver having picture magnifying apparatus
JPS61240789A (ja) * 1985-04-18 1986-10-27 Matsushita Electric Ind Co Ltd 画像処理装置
EP0245745B1 (en) * 1986-05-12 1993-10-27 Hitachi, Ltd. Image processing system
GB9012326D0 (en) * 1990-06-01 1990-07-18 Thomson Consumer Electronics Wide screen television
US5815199A (en) * 1991-01-31 1998-09-29 Matsushita Electric Works, Ltd. Interphone with television
US5745711A (en) * 1991-10-23 1998-04-28 Hitachi, Ltd. Display control method and apparatus for an electronic conference
EP0719039A3 (en) * 1992-08-10 1998-03-11 Sony Corporation Electronic shutter time control with noise suppression for a video camera
US7849393B1 (en) * 1992-12-09 2010-12-07 Discovery Communications, Inc. Electronic book connection to world watch live
US5450140A (en) * 1993-04-21 1995-09-12 Washino; Kinya Personal-computer-based video production system
US6594688B2 (en) * 1993-10-01 2003-07-15 Collaboration Properties, Inc. Dedicated echo canceler for a workstation
US5500654A (en) * 1993-12-27 1996-03-19 Kabushiki Kaisha Toshiba VGA hardware window control system
JPH07234773A (ja) * 1993-12-27 1995-09-05 Toshiba Corp 表示制御装置
JPH1059068A (ja) * 1996-08-23 1998-03-03 Yoshihisa Furuta 車両の死角確認装置
JP3890691B2 (ja) * 1997-02-27 2007-03-07 ヤマハ株式会社 画像記録再生装置及び画像記録再生プログラムを記憶した記憶媒体
US6693524B1 (en) * 1998-06-02 2004-02-17 George R. Payne Vehicle backup monitoring and alarm system
JP4723703B2 (ja) * 1999-06-25 2011-07-13 富士通テン株式会社 車両の運転支援装置
WO2001064481A2 (en) * 2000-03-02 2001-09-07 Donnelly Corporation Video mirror systems incorporating an accessory module
BRPI0109291B1 (pt) * 2000-03-17 2015-06-23 Thomson Licensing Sa Método e aparelho para gravar e exibir simultaneamente uma pluralidade de sinais de vídeo a partir de fontes de vídeo diferentes
JP2002019556A (ja) 2000-07-04 2002-01-23 Matsushita Electric Ind Co Ltd 監視システム
US6895126B2 (en) * 2000-10-06 2005-05-17 Enrico Di Bernardo System and method for creating, storing, and utilizing composite images of a geographic location
JP3703731B2 (ja) * 2001-04-12 2005-10-05 シャープ株式会社 表示制御装置、表示装置、および携帯電話機
JP2002325249A (ja) * 2001-04-25 2002-11-08 Sumitomo Electric Ind Ltd 車両側方映像生成装置
JP4786076B2 (ja) * 2001-08-09 2011-10-05 パナソニック株式会社 運転支援表示装置
US7253833B2 (en) * 2001-11-16 2007-08-07 Autonetworks Technologies, Ltd. Vehicle periphery visual recognition system, camera and vehicle periphery monitoring apparatus and vehicle periphery monitoring system
AU2003217627A1 (en) * 2002-02-22 2003-09-09 Cbl Acquisition Llc Optical ring architecture
JP4195966B2 (ja) * 2002-03-05 2008-12-17 パナソニック株式会社 画像表示制御装置
IL155525A0 (en) * 2003-04-21 2009-02-11 Yaron Mayer System and method for 3d photography and/or analysis of 3d images and/or display of 3d images
KR100585534B1 (ko) * 2003-08-13 2006-05-30 엘지전자 주식회사 멀티 픽쳐를 이용한 채널 디스플레이 방법 및 장치
JP2005110202A (ja) * 2003-09-08 2005-04-21 Auto Network Gijutsu Kenkyusho:Kk カメラ装置及び車両周辺監視装置
JP4855654B2 (ja) * 2004-05-31 2012-01-18 ソニー株式会社 車載装置、車載装置の情報提供方法、車載装置の情報提供方法のプログラム及び車載装置の情報提供方法のプログラムを記録した記録媒体
US7576767B2 (en) * 2004-07-26 2009-08-18 Geo Semiconductors Inc. Panoramic vision system and method
JP4606336B2 (ja) * 2005-02-21 2011-01-05 株式会社オートネットワーク技術研究所 車両周辺視認装置
WO2007055335A1 (ja) * 2005-11-11 2007-05-18 Sony Corporation 画像処理装置、画像処理方法、そのプログラム及びそのプログラムを記録した記録媒体
JP2007166351A (ja) * 2005-12-15 2007-06-28 Sony Corp 撮像装置および撮像方法
US9182228B2 (en) * 2006-02-13 2015-11-10 Sony Corporation Multi-lens array system and method
JP2007306353A (ja) * 2006-05-12 2007-11-22 Opt Kk 動画の表示方法、動画表示システムおよび広角動画撮像装置
JP5062175B2 (ja) * 2006-08-04 2012-10-31 コニカミノルタホールディングス株式会社 液晶表示装置の製造方法
PT2113119E (pt) * 2007-02-14 2014-03-17 Photint Venture Group Inc Método e sistema de combinação de imagens
US8253770B2 (en) * 2007-05-31 2012-08-28 Eastman Kodak Company Residential video communication system
US8159519B2 (en) * 2007-05-31 2012-04-17 Eastman Kodak Company Personal controls for personal video communications
JP4940030B2 (ja) * 2007-06-26 2012-05-30 富士通株式会社 送信装置、受信装置、およびプログラム
JP2009033581A (ja) * 2007-07-30 2009-02-12 Hitachi Ltd 画像信号記録再生装置
JP2009211012A (ja) * 2008-03-06 2009-09-17 Funai Electric Co Ltd 広角複眼撮像装置
TW200939763A (en) * 2008-03-07 2009-09-16 Sunplus Technology Co Ltd Image processing system and method for processing divisional TV pictures
JP4735991B2 (ja) * 2008-03-18 2011-07-27 ソニー株式会社 画像処理装置および方法、プログラム並びに記録媒体
US8164655B2 (en) * 2008-05-19 2012-04-24 Spatial Cam Llc Systems and methods for concurrently playing multiple images from a storage medium
JP2010033108A (ja) * 2008-07-24 2010-02-12 Sony Corp 画像処理システム、撮像装置、画像処理方法及びコンピュータプログラム
JP2010191376A (ja) 2009-02-20 2010-09-02 Kawai Musical Instr Mfg Co Ltd 楽譜編集装置及び楽譜編集プログラム
JP5423235B2 (ja) * 2009-08-20 2014-02-19 ソニー株式会社 撮像装置
US20110221764A1 (en) * 2010-03-12 2011-09-15 Microsoft Corporation Laying out and cropping images in pre-defined layouts
US9071759B2 (en) * 2010-03-30 2015-06-30 Fujifilm Corporation Compound-eye imaging device, and parallax adjusting method and program thereof
US8736680B1 (en) * 2010-05-18 2014-05-27 Enforcement Video, Llc Method and system for split-screen video display
US8493482B2 (en) * 2010-08-18 2013-07-23 Apple Inc. Dual image sensor image processing system and method

Also Published As

Publication number Publication date
US9088702B2 (en) 2015-07-21
JP2012049918A (ja) 2012-03-08
CN105915773B (zh) 2019-08-27
US10462372B2 (en) 2019-10-29
CN105915773A (zh) 2016-08-31
US20190028651A1 (en) 2019-01-24
CN102387344B (zh) 2016-06-22
US20120050470A1 (en) 2012-03-01
EP2424221A2 (en) 2012-02-29
RU2011134926A (ru) 2013-02-27
EP3654632A1 (en) 2020-05-20
CN102387344A (zh) 2012-03-21
US10110820B2 (en) 2018-10-23
US20150288886A1 (en) 2015-10-08
EP2424221B1 (en) 2020-02-12
JP5672862B2 (ja) 2015-02-18
EP2424221A3 (en) 2014-07-02

Similar Documents

Publication Publication Date Title
BRPI1107133A2 (pt) dispositivo, sistema e mÉtodo de formaÇço de imagem
US10142549B2 (en) Image capturing apparatus and image smooth zooming method thereof
JP5194679B2 (ja) 車両用周辺監視装置および映像表示方法
US8780200B2 (en) Imaging apparatus and image capturing method which combine a first image with a second image having a wider view
JP5321711B2 (ja) 車両用周辺監視装置および映像表示方法
US8279267B2 (en) Apparatus and method for capturing images of a scene
JP2009017020A (ja) 画像処理装置及び表示画像生成方法
KR20090113878A (ko) 차량용 주변감시장치
JP2005311868A (ja) 車両周辺視認装置
US20120154670A1 (en) Photographing Apparatus and Method to Reduce Auto-Focus Time
EP3076655A1 (en) Imaging settings changing device, imaging system, and imaging settings changing method
JP5078781B2 (ja) 画像表示装置及び撮像装置
US20110018978A1 (en) 3d image display apparatus and 3d image display method
JP2010199835A (ja) 画像処理装置
JP2015014672A (ja) カメラ制御装置、カメラシステム、カメラ制御方法、及びプログラム
JP2012085268A (ja) 撮像装置、撮像システム及び撮像方法
JP6029294B2 (ja) 映像提示装置および映像提示プログラム
JP4977556B2 (ja) 半導体集積回路装置および描画処理表示システム
US20170364765A1 (en) Image processing apparatus, image processing system, vehicle, imaging apparatus and image processing method
JP2020135206A (ja) 画像処理装置、車載用カメラシステム及び画像処理方法
TW201221390A (en) Real-time imaging system and method for vehicle rear viewing
US20140210953A1 (en) Image display apparatus, parallax adjustment display method thereof, and image capturing apparatus
JP2015103918A (ja) 撮像装置及び撮像装置の制御方法
US11830104B2 (en) Image processing apparatus, camera system, and image processing method for superimposing an image representing a part of a vehicle body
JP5478761B2 (ja) 撮像装置

Legal Events

Date Code Title Description
B03A Publication of a patent application or of a certificate of addition of invention [chapter 3.1 patent gazette]
B08F Application dismissed because of non-payment of annual fees [chapter 8.6 patent gazette]

Free format text: REFERENTE A 5A ANUIDADE.

B08K Patent lapsed as no evidence of payment of the annual fee has been furnished to inpi [chapter 8.11 patent gazette]

Free format text: EM VIRTUDE DO ARQUIVAMENTO PUBLICADO NA RPI 2385 DE 20-09-2016 E CONSIDERANDO AUSENCIA DE MANIFESTACAO DENTRO DOS PRAZOS LEGAIS, INFORMO QUE CABE SER MANTIDO O ARQUIVAMENTO DO PEDIDO DE PATENTE, CONFORME O DISPOSTO NO ARTIGO 12, DA RESOLUCAO 113/2013.