BR112021007133A2 - método para exibição de imagem em cenário fotográfico e dispositivo eletrônico - Google Patents

método para exibição de imagem em cenário fotográfico e dispositivo eletrônico Download PDF

Info

Publication number
BR112021007133A2
BR112021007133A2 BR112021007133-4A BR112021007133A BR112021007133A2 BR 112021007133 A2 BR112021007133 A2 BR 112021007133A2 BR 112021007133 A BR112021007133 A BR 112021007133A BR 112021007133 A2 BR112021007133 A2 BR 112021007133A2
Authority
BR
Brazil
Prior art keywords
image
color
region
electronic device
camera
Prior art date
Application number
BR112021007133-4A
Other languages
English (en)
Inventor
Yuanyou LI
Bin Hu
Yongxing Yang
Wei Luo
Original Assignee
Huawei Technologies Co., Ltd.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Huawei Technologies Co., Ltd. filed Critical Huawei Technologies Co., Ltd.
Publication of BR112021007133A2 publication Critical patent/BR112021007133A2/pt

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • H04N23/632Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters for displaying or modifying preview images prior to image capturing, e.g. variety of image resolutions or capturing parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/64Computer-aided capture of images, e.g. transfer from script file into camera, check of taken image quality, advice or proposal for image composition or decision on when to take image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/635Region indicators; Field of view indicators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/667Camera operation mode switching, e.g. between still and video, sport and normal or high- and low-resolution modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/84Camera processing pipelines; Components thereof for processing colour signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • H04N9/74Circuits for processing colour signals for obtaining special effects
    • H04N9/75Chroma key

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Studio Devices (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

método para exibição de imagem em cenário fotográfico e dispositivo eletrônico. as modalidades deste pedido fornecem um método para exibir uma imagem em um cenário de fotografia e um dispositivo eletrônico, e se relacionam ao campo das tecnologias de eletrônica, de modo que uma cor de uma região inteira na qual um corpo está localizado em uma imagem possa ser retida em um cenário de fotografia, e um efeito visual do usuário é relativamente bom. uma solução específica é a seguinte: um dispositivo eletrônico exibe um quadro de visor em uma tela sensível ao toque após detectar uma primeira operação realizada por um usuário para abrir uma câmera. o quadro de visor inclui uma primeira imagem colorida. o dispositivo eletrônico exibe uma segunda imagem no quadro de visor após detectar uma segunda operação realizada pelo usuário para indicar um primeiro modo de processamento. a segunda imagem é uma imagem obtida após o primeiro processamento ser realizado em uma primeira imagem original capturada por uma lente de câmera, a segunda imagem inclui uma primeira região e uma segunda região, a primeira região é uma região na qual um primeiro objeto alvo está localizado na segunda imagem, a primeira região é uma imagem colorida, e a segunda região é uma imagem em tons de cinza. o primeiro objeto alvo é um ou mais tipos de corpo, ou o primeiro objeto alvo é um ou mais corpos. as modalidades deste pedido são aplicadas à fotografia de imagem.

Description

MÉTODO PARA EXIBIÇÃO DE IMAGEM EM CENÁRIO FOTOGRÁFICO E DISPOSITIVO ELETRÔNICO CAMPO TÉCNICO
[0001] As modalidades deste pedido se referem ao campo das tecnologias de eletrônica e, em particular, a um método para exibir uma imagem em um cenário de fotografia e um dispositivo eletrônico.
ANTECEDENTES
[0002] Com o desenvolvimento das tecnologias de eletrônica, uma câmera em um dispositivo eletrônico tem uma quantidade crescente de funções de fotografia. Atualmente, surge uma função de fotografia de retenção de cor. Ao usar a função, um usuário pode especificar uma cor, e um dispositivo eletrônico pode reter, em uma imagem capturada, valores de pixel de píxeis iguais ou semelhantes à cor especificada pelo usuário, e converter, em valores de tons de cinza, valores de pixel de píxeis que diferem bastante da cor especificada pelo usuário.
[0003] Como um corpo a ser fotografado geralmente não tem apenas uma única cor, mas tem mais de uma cor, ou as cores do corpo são gradualmente variadas, as cores de uma imagem obtida usando a solução de retenção de cor podem não ser naturais, e um efeito visual é relativamente pobre.
[0004] Por exemplo, quando um usuário especifica uma cor: azul para reter uma cor de um balão em uma imagem colorida, porque a maioria (a saber, uma região 02) de uma região do balão é azul ou quase azul, como mostrado na FIG. 1, uma cor da região 02 preenchida com riscos no balão pode ser retida após o processamento de retenção de cor. No entanto, como a cor de uma parte destacada (a saber, uma região 01) na parte superior do balão na imagem colorida difere muito da cor: azul especificado pelo usuário, a cor da região 01 do balão não pode ser retida após o processamento de retenção de cor, e a região 01 é uma imagem em tons de cinza. Como uma região 03 diferente do balão na imagem colorida difere muito da cor: azul especificada pelo usuário, uma cor da região 03 não pode ser retida após o processamento de retenção de cor e a região 03 também é uma imagem em tons de cinza. Pode ser visto a partir da FIG. 1 que, após o processamento de retenção de cor, uma parte do balão é uma imagem colorida e a outra parte é uma imagem em tons de cinza. Consequentemente, uma imagem obtida após o processamento de retenção de cor tem um efeito relativamente pobre.
SUMÁRIO
[0005] As modalidades deste pedido fornecem um método para exibir uma imagem em um cenário de fotografia e um dispositivo eletrônico, de modo que uma cor de uma região inteira na qual um corpo está localizado em uma imagem possa ser retida em um cenário de fotografia, e um efeito visual do usuário é relativamente bom.
[0006] Para atingir o objetivo anterior, as seguintes soluções técnicas são utilizadas nas modalidades deste pedido.
[0007] De acordo com um aspecto, uma solução técnica deste pedido fornece um método para exibir uma imagem. O método pode ser aplicado a um dispositivo eletrônico com uma tela sensível ao toque e uma lente de câmera, e o método pode incluir: exibir, pelo dispositivo eletrônico, uma tela de captura na tela sensível ao toque após detectar uma primeira operação realizada por um usuário para abrir uma câmera, onde a tela de captura inclui um quadro de visor, e o quadro de visor inclui uma primeira imagem colorida; após detectar uma segunda operação realizada pelo usuário para indicar um primeiro modo de processamento,
exibindo, pelo dispositivo eletrônico, uma segunda imagem no quadro de visor em resposta à segunda operação, onde a segunda imagem é uma imagem obtida após o primeiro processamento ser realizado em uma primeira imagem original capturada pela lente da câmera, a segunda imagem inclui uma primeira região e uma segunda região, a primeira região é uma região na qual um primeiro objeto alvo está localizado na segunda imagem, a segunda região é uma região diferente da primeira região na segunda imagem, a primeira região é uma imagem colorida, a segunda região é uma imagem em tons de cinza, e o primeiro objeto alvo é um ou mais tipos de corpo, ou o primeiro objeto alvo é um ou mais corpos.
[0008] Quando o primeiro objeto alvo é um tipo de corpo, a região na qual o primeiro objeto alvo está localizado é uma região na qual um corpo pertencente a um primeiro tipo alvo está localizado.
[0009] O primeiro modo de processamento é um modo de retenção de cor, e o primeiro processamento é o processamento de retenção de cor.
[0010] Nesta solução, de acordo com uma imagem exibida pelo dispositivo eletrônico no quadro de visor no primeiro modo de processamento de um cenário de fotografia, toda uma região na qual um corpo particular está localizado é uma imagem colorida, e um caso no qual uma parte de uma região de um corpo é uma imagem colorida e a outra parte é uma imagem em tons de cinza não ocorre.
[0011] Em uma implementação possível, uma imagem na primeira região é a mesma que uma imagem em uma região na qual o primeiro objeto alvo está localizado na primeira imagem original, uma cor da imagem na primeira região é a mesma que uma cor da imagem na região na qual o primeiro objeto alvo está localizado na primeira imagem original, e uma imagem na segunda região da segunda imagem é uma imagem obtida após o processamento em tons de cinza ser realizado em uma imagem em uma região diferente da região na qual o primeiro objeto alvo está localizado na imagem original.
[0012] Em outras palavras, no primeiro modo de processamento do cenário de fotografia, o dispositivo eletrônico pode reter uma cor de uma imagem em regiões inteiras nas quais um ou mais corpos correspondentes ao primeiro objeto alvo estão localizados na imagem original capturada pela lente da câmera, e processar a outra região da imagem original como uma imagem em tons de cinza para obter a segunda imagem.
[0013] Em outra implementação possível, a exibição, pelo dispositivo eletrônico, de uma segunda imagem no quadro de visor inclui: obter, pelo dispositivo eletrônico, a primeira imagem original capturada pela lente da câmera e, em seguida, realizar, pelo dispositivo eletrônico, o primeiro processamento na primeira imagem original, para gerar e exibir a segunda imagem; e realizar, pelo dispositivo eletrônico, o primeiro processamento na primeira imagem original inclui: realizar, pelo dispositivo eletrônico, segmentação de imagem na primeira imagem original, para obter regiões nas quais uma pluralidade de objetos incluídos na primeira imagem original são respectivamente localizados, onde o objeto é um tipo de corpo ou um corpo; reter, pelo dispositivo eletrônico, valores de pixel de píxeis na primeira região na qual o primeiro objeto alvo está localizado na primeira imagem original; e converter valores de pixel de píxeis em uma região diferente da primeira região na primeira imagem original em valores de tons de cinza.
[0014] Em outras palavras, o dispositivo eletrônico segmenta, por segmentação de imagem, a primeira imagem original em regiões nas quais os corpos estão localizados ou regiões correspondentes aos tipos de corpo (a saber, regiões nas quais os corpos pertencentes aos tipos de corpo estão localizados), para reter a região na qual o primeiro objeto alvo está localizado, ou seja, regiões nas quais um ou mais corpos incluídos no primeiro objeto alvo estão localizados, como uma imagem colorida, e processa a outra região na imagem original como uma imagem em tons de cinza.
[0015] Em outra implementação possível, o primeiro objeto alvo é um objeto alvo predefinido, ou o primeiro objeto alvo é um objeto alvo que é automaticamente determinado com base em um assunto a ser fotografado na primeira imagem original.
[0016] Nesta solução, no primeiro modo de processamento do cenário de fotografia, o dispositivo eletrônico pode exibir automaticamente, com base no primeiro objeto alvo, a segunda imagem obtida após o processamento de retenção de cor.
[0017] Em outra implementação possível, a exibição, pelo dispositivo eletrônico, de uma segunda imagem no quadro de visor em resposta à segunda operação inclui: em resposta à segunda operação, avisar, pelo dispositivo eletrônico, ao usuário para especificar o primeiro objeto alvo; e se o dispositivo eletrônico detectar uma terceira operação realizada pelo usuário para especificar o primeiro objeto alvo, exibir, pelo dispositivo eletrônico, a segunda imagem no quadro de visor em resposta à terceira operação.
[0018] Nesta solução, no primeiro modo de processamento do cenário fotográfico, somente após a obtenção de um objeto alvo indicado pelo usuário, o dispositivo eletrônico exibe, com base no objeto alvo, a segunda imagem obtida após o processamento de retenção de cor.
[0019] Em outra implementação possível, após a exibição, pelo dispositivo eletrônico, de uma segunda imagem no quadro de visor, o método pode incluir ainda: exibir, pelo dispositivo eletrônico, uma terceira imagem no quadro de visor após a lente da câmera capturar uma segunda imagem original, onde a terceira imagem é uma imagem obtida após o primeiro processamento ser realizado na segunda imagem original, a terceira imagem inclui uma terceira região e uma quarta região, a terceira região é uma região na qual o primeiro objeto alvo está localizado na terceiro imagem, a quarta região é uma região diferente da terceira região na terceira imagem, a terceira região é uma imagem colorida, e a quarta região é uma imagem em tons de cinza.
[0020] Em outras palavras, no primeiro modo de processamento do cenário de fotografia, o dispositivo eletrônico pode obter e exibir constantemente, em tempo real com base em uma imagem original atualmente capturada pela lente da câmera, uma imagem obtida após o processamento de retenção de cor.
[0021] Em outra implementação possível, o método pode incluir ainda: detectar, pelo dispositivo eletrônico, uma quarta operação realizada pelo usuário para indicar um segundo objeto alvo, onde o segundo objeto alvo é um ou mais tipos de corpo, ou o segundo objeto alvo é um ou mais corpos; e exibir, pelo dispositivo eletrônico, uma quarta imagem no quadro de visor em resposta à quarta operação, onde a quarta imagem é uma imagem obtida após o primeiro processamento ser realizado em uma terceira imagem original capturada pela lente da câmera, onde a quarta imagem inclui uma quinta região e uma sexta região, a quinta região é uma região na qual o segundo objeto alvo está localizado na quarta imagem, a sexta região é uma região diferente da quinta região na quarta imagem, a quinta região é uma imagem colorida, e a sexta região é uma imagem em tons de cinza.
[0022] Nesta solução, o usuário pode alterar ainda mais um objeto alvo, de modo que o dispositivo eletrônico realize o processamento de retenção de cor com base no objeto alvo alterado pelo usuário e exiba uma imagem obtida após o processamento de retenção de cor.
[0023] Em outra implementação possível, o método pode incluir ainda: detectar, pelo dispositivo eletrônico, a quinta operação realizada pelo usuário para instruir a capturar uma foto; e armazenar, pelo dispositivo eletrônico em resposta à quinta operação, uma imagem exibida no quadro de visor.
[0024] Desta forma, o dispositivo eletrônico pode armazenar e registrar uma imagem obtida após o processamento de retenção de cor. Em outras palavras, uma imagem fotografada é uma imagem obtida após o processamento de retenção de cor.
[0025] Em outra implementação possível, a detecção, pelo dispositivo eletrônico, da quarta operação realizada pelo usuário para instruir a capturar uma foto inclui: detectar, pelo dispositivo eletrônico, a quarta operação realizada pelo usuário para instruir a capturar uma foto em um modo de filmagem de vídeo ou modo de captura contínua; e o armazenamento, pelo dispositivo eletrônico em resposta à quarta operação, uma imagem exibida no quadro de visor inclui: em resposta à quarta operação, o armazenamento, pelo dispositivo eletrônico, de uma pluralidade de quadros de imagens exibidas no quadro de visor em um processo de fotografia, onde a pluralidade de quadros de imagens exibidas no quadro de visor são imagens obtidas após o primeiro processamento ser realizado em uma pluralidade de quadros de imagens originais capturadas pela lente da câmera.
[0026] Desta forma, no modo de captura contínua e no modo de gravação de vídeo, o dispositivo eletrônico pode armazenar e gravar uma pluralidade de imagens obtidas após o processamento de retenção de cor.
[0027] Em outra implementação possível, antes que o dispositivo eletrônico detecte a segunda operação realizada pelo usuário para indicar o primeiro modo de processamento, o método pode incluir ainda: detectar, pelo dispositivo eletrônico, uma sexta operação realizada pelo usuário para instruir a filmar um vídeo; e em resposta à quinta operação, exibir, pelo dispositivo eletrônico no quadro de visor, imagens coloridas capturadas pela lente da câmera em um processo de filmagem de vídeo, e armazenar as imagens coloridas; após o dispositivo eletrônico detectar a segunda operação, a exibição, pelo dispositivo eletrônico, de uma segunda imagem no quadro de visor em resposta à segunda operação inclui: em resposta à segunda operação, exibir, pelo dispositivo eletrônico no quadro de visor no processo de filmagem de vídeo, a segunda imagem obtida após o primeiro processamento é realizada em cada quadro de imagem capturado pela lente da câmera; e o método pode ainda incluir: armazenar, pelo dispositivo eletrônico, uma pluralidade de quadros de imagens exibidas no quadro de visor no processo de gravação de vídeo.
[0028] Nesta solução, o dispositivo eletrônico pode primeiro filmar um segmento de vídeo incluindo imagens de cores normais e, após o dispositivo eletrônico entrar em um modo de retenção de cor, o dispositivo eletrônico continua a filmar um segmento de vídeo incluindo imagens obtidas após o processamento de retenção de cor.
[0029] Em outra implementação possível, a tela de captura do dispositivo eletrônico inclui um controle usado para indicar o primeiro modo de processamento, e a segunda operação é uma operação em que o usuário toca no controle.
[0030] Desta forma, tocando no controle na tela de captura que é usado para indicar o primeiro modo de processamento, o usuário pode instruir mais convenientemente para entrar no modo de retenção de cor.
[0031] Em outra implementação possível, a tela de captura do dispositivo eletrônico exibe um controle 1, e que a segunda operação é detectada inclui: detectar que o usuário toca no controle 1; exibir uma lista de funções, onde a lista de funções inclui um controle 2 usado para indicar o primeiro modo de processamento; e detectar uma operação em que o usuário toca no controle 2.
[0032] Em outra implementação possível, que o dispositivo eletrônico detecta a segunda operação inclui: detectar, pelo dispositivo eletrônico, um gesto predefinido do usuário na tela de captura, por exemplo, uma operação de gesto para desenhar uma trilha circular.
[0033] Nesta solução, o usuário pode instruir, por meio do gesto predefinido na tela de fotografia, o dispositivo eletrônico a entrar no primeiro modo de processamento.
[0034] Em outra implementação possível, que o dispositivo eletrônico detecta a terceira operação realizada pelo usuário para especificar o primeiro objeto alvo inclui: detectar, pelo dispositivo eletrônico, uma operação em que o usuário toca um primeiro corpo na imagem exibida no quadro de visor, onde o primeiro objeto alvo é o primeiro corpo, ou o primeiro objeto alvo é um tipo de corpo do primeiro corpo.
[0035] Nesta solução, o usuário pode definir o primeiro objeto alvo tocando um corpo na imagem exibida no quadro de visor.
[0036] Em outra implementação possível, que o dispositivo eletrônico detecta a terceira operação realizada pelo usuário para especificar o primeiro objeto alvo inclui: detectar, pelo dispositivo eletrônico, uma operação que o usuário seleciona, desenhando uma trilha, uma quinta região na imagem exibida no quadro de visor, onde o primeiro objeto alvo é um corpo incluído na quinta região, ou o primeiro objeto alvo é um tipo de corpo de um corpo incluído na quinta região.
[0037] Nesta solução, o usuário pode definir o primeiro objeto alvo selecionando alguns corpos na imagem exibida no quadro de visor.
[0038] Em outra implementação possível, o aviso, pelo dispositivo eletrônico, ao usuário para especificar o primeiro objeto alvo inclui: exibir, pelo dispositivo eletrônico, uma lista de tipos de corpo; e que o dispositivo eletrônico detecta a terceira operação realizada pelo usuário para especificar o primeiro objeto alvo inclui: detectar, pelo dispositivo eletrônico, uma operação que o usuário toca em um primeiro tipo de corpo na lista de tipos de corpo, onde o primeiro tipo de corpo é o primeiro objeto alvo.
[0039] Nesta solução, a lista de tipos de corpo é avisada ao usuário, para que ele possa especificar convenientemente um tipo de corpo da lista de tipos de corpo para servir como o primeiro objeto alvo.
[0040] Em outra implementação possível, o aviso, pelo dispositivo eletrônico, ao usuário para especificar o primeiro objeto alvo inclui: exibir, pelo dispositivo eletrônico, uma lista de corpos; e que o dispositivo eletrônico detecta a terceira operação realizada pelo usuário para especificar o primeiro objeto alvo inclui: detectar, pelo dispositivo eletrônico, uma operação que o usuário toca em um primeiro corpo na lista de tipos de corpo, onde o primeiro corpo ou um tipo de corpo do primeiro corpo é o primeiro objeto alvo.
[0041] Nesta solução, a lista de corpos é avisada ao usuário, para que ele possa especificar convenientemente um corpo da lista de corpos para usar o corpo ou um tipo de corpo do corpo como o primeiro objeto alvo.
[0042] Em outra implementação possível, o dispositivo eletrônico armazena, em resposta à quarta operação, a imagem exibida no quadro de visor e uma imagem original correspondente.
[0043] Dessa forma, o dispositivo eletrônico pode armazenar uma imagem original colorida e uma imagem obtida após o processamento de retenção de cor.
[0044] De acordo com outro aspecto, uma solução técnica deste pedido fornece um método para exibição de uma imagem, aplicado a um dispositivo eletrônico com tela sensível ao toque. O método inclui: detectar, pelo dispositivo eletrônico, uma primeira operação realizada por um usuário para abrir uma primeira imagem; exibir a primeira imagem na tela sensível ao toque em resposta à primeira operação, onde a primeira imagem é uma imagem colorida; detectar uma segunda operação realizada pelo usuário para indicar um primeiro modo de processamento; exibir uma segunda imagem em resposta à segunda operação, onde a segunda imagem é uma imagem obtida após a primeira imagem ser processada; e armazenar a segunda imagem após detectar uma operação realizada pelo usuário para instruir o armazenamento de uma imagem, onde a segunda imagem e a primeira imagem incluem, cada uma, uma primeira região e uma segunda região, a primeira região é uma região na qual um primeiro objeto alvo está localizado, e a segunda região é uma região diferente da primeira região; e a primeira região na segunda imagem é uma imagem colorida, uma imagem na primeira região na segunda imagem é a mesma que uma imagem na primeira região na primeira imagem, e a segunda região na segunda imagem é uma imagem em tons de cinza.
[0045] Nesta solução, o dispositivo eletrônico pode realizar o processamento de retenção de cor em uma imagem colorida fotografada, para reter uma cor de uma região inteira na qual um corpo particular está localizado.
[0046] De acordo com outro aspecto, uma solução técnica deste pedido fornece um método para exibição de uma imagem, aplicado a um dispositivo eletrônico com tela sensível ao toque. O método inclui: detectar, pelo dispositivo eletrônico, uma primeira operação realizada por um usuário para abrir um primeiro vídeo, onde o primeiro vídeo inclui uma pluralidade de quadros das primeiras imagens; em resposta à primeira operação, exibir, na tela sensível ao toque do dispositivo eletrônico, uma primeira tela correspondente ao primeiro vídeo; detectar uma segunda operação realizada pelo usuário para indicar um primeiro modo de processamento; detectar uma terceira operação realizada pelo usuário para instruir a reproduzir o primeiro vídeo; reproduzir e exibir o primeiro vídeo em resposta à terceira operação, onde cada quadro de imagem no primeiro vídeo exibido é uma segunda imagem obtida após a primeira imagem ser processada; e armazenar o primeiro vídeo após detectar uma operação realizada pelo usuário para instruir o armazenamento de um vídeo, onde uma imagem no primeiro vídeo é a segunda imagem, onde a segunda imagem e a primeira imagem incluem, cada uma, uma primeira região e uma segunda região, a primeira região é uma região na qual um primeiro objeto alvo está localizado e a segunda região é uma região diferente da primeira região; e a primeira região na segunda imagem é uma imagem colorida, uma imagem na primeira região na segunda imagem é a mesma que uma imagem na primeira região na primeira imagem, e a segunda região na segunda imagem é uma imagem em tons de cinza.
[0047] Nesta solução, o dispositivo eletrônico pode realizar o processamento de retenção de cor em uma imagem colorida incluída em um vídeo filmado, para reter uma cor de uma região inteira na qual um corpo particular está localizado na imagem.
[0048] De acordo com outro aspecto, uma solução técnica fornece um aparelho para exibir uma imagem. O aparelho está incluído em um dispositivo eletrônico, e o aparelho tem uma função de implementar o comportamento do dispositivo eletrônico nos aspectos anteriores e nas possíveis implementações dos aspectos anteriores. A função pode ser implementada por hardware, ou pode ser implementada pela execução do software correspondente por hardware. O hardware ou software inclui um ou mais módulos ou unidades correspondentes à função anterior, por exemplo, um módulo ou unidade de detecção, um módulo ou unidade de exibição, e um módulo ou unidade de armazenamento.
[0049] De acordo com outro aspecto, esta solução técnica fornece um dispositivo eletrônico, incluindo uma tela sensível ao toque, em que a tela sensível ao toque inclui uma superfície sensível ao toque e uma tela, uma lente de câmera, um ou mais processadores, uma memória, uma pluralidade de aplicativos, e um ou mais programas de computador, onde o um ou mais programas de computador são armazenados na memória, o um ou mais programas de computador incluem uma instrução, e quando a instrução é executada pelo dispositivo eletrônico, o dispositivo eletrônico é habilitado para realizar o método para exibir um imagem em qualquer implementação possível de qualquer um dos aspectos anteriores.
[0050] De acordo com outro aspecto, esta solução técnica fornece um dispositivo eletrônico, incluindo um ou mais processadores e uma ou mais memórias, onde a uma ou mais memórias são acopladas ao um ou mais processadores, a uma ou mais memórias são configuradas para armazenar código de programa de computador, o código de programa de computador inclui uma instrução de computador, e quando o um ou mais processadores executam a instrução de computador, o dispositivo eletrônico é habilitado para realizar o método para exibir uma imagem em qualquer implementação possível de qualquer um dos aspectos anteriores.
[0051] De acordo com outro aspecto, esta solução técnica fornece um meio de armazenamento de computador, incluindo uma instrução de computador, onde quando a instrução de computador é executada em um dispositivo eletrônico, o dispositivo eletrônico é habilitado para realizar o método para exibir uma imagem em qualquer implementação possível de qualquer um dos aspectos anteriores.
[0052] De acordo com outro aspecto, esta solução técnica fornece um produto de programa de computador, onde quando o produto de programa de computador é executado em um dispositivo eletrônico, o dispositivo eletrônico é habilitado para realizar o método para exibir uma imagem em qualquer implementação possível de qualquer um dos aspectos anteriores.
BREVE DESCRIÇÃO DOS DESENHOS
[0053] FIG. 1 é um diagrama esquemático de um efeito de retenção de cor na técnica anterior; FIG. 2 é um diagrama esquemático de uma estrutura de hardware de um dispositivo eletrônico de acordo com uma modalidade deste pedido; FIG. 3 é um diagrama esquemático de uma estrutura de software de um dispositivo eletrônico de acordo com uma modalidade deste pedido; FIG. 4A e FIG. 4B são um diagrama esquemático de um grupo de interfaces de exibição de acordo com uma modalidade deste pedido; FIG. 5 é um diagrama esquemático de outro grupo de interfaces de exibição de acordo com uma modalidade deste pedido; FIG. 6A e FIG. 6B são um diagrama esquemático de outro grupo de interfaces de exibição de acordo com uma modalidade deste pedido; FIG. 7A e FIG. 7B são um diagrama esquemático de outro grupo de interfaces de exibição de acordo com uma modalidade deste pedido; FIG. 8A, FIG. 8B e FIG. 8C são um diagrama esquemático de outro grupo de interfaces de exibição de acordo com uma modalidade deste pedido; FIG. 9A e FIG. 9B são um diagrama esquemático de um grupo de imagens de acordo com uma modalidade deste pedido; FIG. 10 é um diagrama esquemático de uma interface de exibição de acordo com uma modalidade deste pedido;
FIG. 11A e FIG. 11B são um diagrama esquemático de outro grupo de interfaces de exibição de acordo com uma modalidade deste pedido; FIG. 12A, FIG. 12B e FIG. 12C são um diagrama esquemático de outro grupo de interfaces de exibição de acordo com uma modalidade deste pedido; FIG. 13 é um diagrama esquemático de outra interface de exibição de acordo com uma modalidade deste pedido; FIG. 14 é um diagrama esquemático de outra interface de exibição de acordo com uma modalidade deste pedido; FIG. 15A-1 e FIG. 15 A-2 são um diagrama esquemático de outro grupo de interfaces de exibição de acordo com uma modalidade deste pedido; FIG. 15B-1 e FIG. 15B-2 são um diagrama esquemático de outro grupo de interfaces de exibição de acordo com uma modalidade deste pedido; FIG. 16 é um diagrama esquemático de outra interface de exibição de acordo com uma modalidade deste pedido; FIG. 17A, FIG. 17B e FIG. 17C são um diagrama esquemático de outro grupo de interfaces de exibição de acordo com uma modalidade deste pedido; FIG. 18A, FIG. 18B e FIG. 18C são um diagrama esquemático de outro grupo de interfaces de exibição de acordo com uma modalidade deste pedido; FIG. 19 é um diagrama esquemático de um processo de segmentação de imagem de acordo com uma modalidade deste pedido; FIG. 20 é um diagrama esquemático de um grupo de resultados de segmentação de imagem de acordo com uma modalidade deste pedido; FIG. 21 é um fluxograma de um método para exibir uma imagem de acordo com uma modalidade deste pedido; FIG. 22 é um fluxograma de outro método para exibir uma imagem de acordo com uma modalidade deste pedido; FIG. 23 é um diagrama estrutural esquemático de outro dispositivo eletrônico de acordo com uma modalidade deste pedido; FIG. 24 é um diagrama esquemático de outra interface de exibição de acordo com uma modalidade deste pedido; FIG. 25A e FIG. 25B são um diagrama esquemático de outra interface de exibição de acordo com uma modalidade deste pedido; FIG. 26 é um diagrama esquemático de outra interface de exibição de acordo com uma modalidade deste pedido; e FIG. 27 é um diagrama esquemático de outra interface de exibição de acordo com uma modalidade deste pedido.
DESCRIÇÃO DAS MODALIDADES
[0054] A seguir são descritas as soluções técnicas nas modalidades deste pedido com referência aos desenhos anexos nas modalidades deste pedido. Nas descrições das modalidades deste pedido, "/" significa "ou" a menos que especificado de outra forma. Por exemplo, A / B pode representar A ou B. Nesta especificação, "e / ou" descreve apenas uma relação de associação para descrever objetos associados e representa que podem existir três relações. Por exemplo, A e / ou B podem representar os três casos a seguir: Apenas A existe, A e B existem e apenas B existe. Além disso, na descrição das modalidades deste pedido, "uma pluralidade de" significa pelo menos dois.
[0055] Os termos "primeiro" e "segundo" mencionados abaixo são usados apenas para fins de descrição, e não devem ser entendidos como uma indicação ou implicação de importância relativa ou indicação implícita de uma quantidade de características técnicas indicadas. Portanto, uma característica limitada por "primeiro" ou "segundo" pode incluir explicitamente ou implicitamente uma ou mais características. Nas descrições das modalidades, a menos que especificado de outra forma, "uma pluralidade de" significa pelo menos dois.
[0056] As modalidades deste pedido fornecem um método para exibir uma imagem. O método pode ser aplicado a um dispositivo eletrônico, de modo que durante a captura de fotos ou vídeos, as regiões nas quais os corpos estão localizados ou as regiões correspondentes aos tipos de corpos em uma imagem podem ser obtidas por meio da segmentação da imagem, e cores das regiões nas quais corpos particulares estão localizados são retidas com base nas regiões nas quais os corpos estão localizados ou regiões correspondentes aos tipos de corpo, para reter uma cor de uma região inteira em que um corpo particular está localizado, melhorando assim um efeito de processamento de imagem e experiência visual do usuário. Um problema da técnica anterior em que uma parte de uma região de um corpo é uma imagem colorida e a outra parte é uma imagem em tons de cinza porque a retenção de cor é realizada com base em uma cor especificada não ocorre.
[0057] Pode haver uma pluralidade de tipos de corpos, como pessoas, veículos, flores, animais, edifícios, solo e céu. Um tipo de corpo pode incluir uma pluralidade de corpos do tipo de corpo. Uma região correspondente a um tipo de corpo é uma região na qual um corpo desse tipo está localizado. Um ou mais corpos particulares são um ou mais corpos especificados por um usuário, ou um ou mais corpos predefinidos pelo dispositivo eletrônico, ou um ou mais corpos determinados pelo dispositivo eletrônico com base em um corpo em uma imagem colorida capturada por uma lente de câmera, uma posição e um tamanho do corpo, e semelhantes. Alternativamente, um ou mais corpos particulares são corpos pertencentes a um ou mais tipos de corpos especificados por um usuário, ou corpos pertencentes a um ou mais tipos de corpos predefinidos pelo dispositivo eletrônico, ou corpos pertencentes a um ou mais tipos de corpos determinados pelo dispositivo eletrônico com base em um corpo em uma imagem colorida capturada por uma lente de câmera, uma posição e um tamanho do corpo, e semelhantes.
[0058] A segmentação de imagem também pode ser referida como segmentação semântica, e é uma tecnologia e um processo de segmentação de uma imagem em várias regiões particulares com propriedades especiais, e especificando um alvo que atrai um interesse. Pode haver uma pluralidade de métodos de segmentação de imagem, por exemplo, um método de segmentação baseado em rede neural convolucional (convolutional neural network, CNN), um método de segmentação baseado em limiar, um método de segmentação baseado em região, um método de segmentação baseado em borda, e um método de segmentação baseado em teoria particular.
[0059] O método para exibir uma imagem nas modalidades deste pedido pode ser aplicado a um dispositivo eletrônico, como um telefone celular, um tablet, um dispositivo vestível, um dispositivo no veículo, um dispositivo de realidade aumentada (augmented reality, AR) / um dispositivo de realidade virtual (virtual reality, VR), um notebook, um computador pessoal ultramóvel (ultra-mobile personal computer, UMPC), um netbook, ou um assistente digital pessoal (personal digital assistant, PDA). Um tipo específico de dispositivo eletrônico não é limitado nas modalidades deste pedido.
[0060] Por exemplo, a FIG. 2 é um diagrama estrutural esquemático de um dispositivo eletrônico 100. O dispositivo eletrônico 100 pode incluir um processador 110, uma interface de memória externa 120, uma memória interna 121, uma interface de barramento serial universal (universal serial bus, USB) 130, um módulo de gerenciamento de carregamento 140, um módulo de gerenciamento de energia 141, uma bateria 142, uma antena 1, uma antena 2, um módulo de comunicações móveis 150, um módulo de comunicações sem fio 160, um módulo de áudio 170, um alto-falante 170A, um receptor de telefone 170B, um microfone 170C, um conector de fone de ouvido 170D, um módulo sensor 180, um botão 190, um motor 191, um indicador 192, uma lente de câmera 193, uma tela de exibição 194, uma interface de cartão de módulo de identidade de assinante (SIM) 195, e semelhantes. O módulo de sensor 180 pode incluir um sensor de pressão 180A, um sensor de giroscópio 180B, um sensor de pressão barométrica 180C, um sensor magnético 180D, um sensor de aceleração 180E, um sensor de distância 180F, um sensor óptico de proximidade 180G, um sensor de impressão digital 180H, uma sensor de temperatura 180J, um sensor de toque 180K, um sensor de luz ambiente 180L, um sensor de condução óssea 180M, e semelhantes.
[0061] Pode ser entendido que a estrutura esquemática nesta modalidade deste pedido não constitui limitação específica no dispositivo eletrônico 100. Em algumas outras modalidades deste pedido, o dispositivo eletrônico 100 pode incluir mais ou menos componentes do que aqueles mostrados na figura, ou alguns componentes podem ser combinados, ou alguns componentes podem ser divididos, ou componentes são dispostos de maneiras diferentes. Os componentes mostrados na figura podem ser implementados usando hardware, software ou uma combinação de software e hardware.
[0062] O processador 110 pode incluir uma ou mais unidades de processamento. Por exemplo, o processador 110 pode incluir um processador de aplicativo (application processor, AP), um processador de modem, uma unidade de processamento gráfico (graphics processing unit, GPU), um processador de sinal de imagem (image signal processor, ISP), um controlador, uma memória, um codec de vídeo, um processador de sinal digital (digital signal processor, DSP), um processador de banda base e / ou uma unidade de processamento de rede neural (neural-network processing unit, NPU), e semelhantes. Diferentes unidades de processamento podem ser componentes separados ou podem ser integradas em um ou mais processadores.
[0063] O controlador pode ser um centro nervoso e um centro de comando do dispositivo eletrônico 100. O controlador pode gerar um sinal de controle de operação com base em um código de operação de instrução e um sinal de sequência de tempo, para completar o controle de leitura de instrução e execução de instrução.
[0064] A memória pode ser ainda disposta no processador 110, para armazenar uma instrução e dados. Em algumas modalidades, a memória no processador 110 é um cache. A memória pode armazenar uma instrução ou dados que são usados ou usados ciclicamente pelo processador 110. Se o processador 110 precisar usar a instrução ou os dados novamente, o processador 110 pode invocar diretamente a instrução ou os dados da memória, de modo a evitar acesso repetido, e reduzir o tempo de espera do processador 110, melhorando assim a eficiência do sistema.
[0065] Em algumas modalidades, o processador 110 pode incluir uma ou mais interfaces. A interface pode ser uma interface de circuito integrado (I2C), uma interface de som de circuito integrado (inter-integrated circuit sound, I2S), uma interface de modulação de código de pulso (pulse code modulation, PCM), uma interface de receptor / transmissor assíncrono universal (universal asynchronous receiver/transmitter, UART), uma interface de processador da indústria móvel (mobile industry processor interface, MIPI), uma interface de entrada / saída de uso geral (general-purpose input/output, GPIO), uma interface de módulo de identidade de assinante (subscriber identity module, SIM), uma interface de barramento serial universal (universal serial bus, USB), e / ou semelhante.
[0066] A interface I2C é um barramento serial de sincronização bidirecional, e inclui uma linha de dados seriais (serial data line, SDA) e uma linha de relógio serial (SCL). Em algumas modalidades, o processador 110 pode incluir uma pluralidade de grupos de barramentos I2C. O processador 110 pode ser acoplado separadamente ao sensor de toque 180K, um carregador, um flash, a lente da câmera 193, e semelhantes em diferentes interfaces de barramento I2C. Por exemplo, o processador 110 pode ser acoplado ao sensor de toque 180K através de uma interface I2C, de modo que o processador 110 se comunique com o sensor de toque 180K através de uma interface de barramento I2C, para implementar uma função de toque do dispositivo eletrônico 100.
[0067] A interface I2S pode ser configurada para realizar comunicação de áudio. Em algumas modalidades, o processador 110 pode incluir uma pluralidade de grupos de barramentos I2S. O processador 110 pode ser acoplado ao módulo de áudio 170 através de um barramento I2S, para implementar a comunicação entre o processador 110 e o módulo de áudio 170. Em algumas modalidades, o módulo de áudio 170 pode transmitir um sinal de áudio para o módulo de comunicações sem fio 160 por meio de uma interface I2S, para implementar uma função de atender uma chamada por meio de um fone de ouvido Bluetooth.
[0068] A interface PCM também pode ser configurada para realizar comunicação de áudio, para realizar amostragem, quantização e codificação em um sinal analógico. Em algumas modalidades, o módulo de áudio 170 pode ser acoplado ao módulo de comunicações sem fio 160 através de uma interface de barramento PCM. Em algumas modalidades, o módulo de áudio 170 também pode transmitir um sinal de áudio para o módulo de comunicações sem fio 160 por meio de uma interface PCM, para implementar uma função de atender uma chamada por meio de um fone de ouvido Bluetooth. Tanto a interface I2S quanto a interface PCM podem ser configuradas para realizar comunicação de áudio.
[0069] A interface UART é uma linha de dados serial universal e está configurada para realizar comunicação assíncrona. O barramento pode ser um barramento de comunicação bidirecional. A interface UART comuta os dados a serem transmitidos entre a comunicação serial e a comunicação paralela. Em algumas modalidades, a interface UART é geralmente configurada para conectar o processador 110 ao módulo de comunicações sem fio 160. Por exemplo, o processador 110 se comunica com um módulo Bluetooth no módulo de comunicações sem fio 160 através da interface UART, para implementar uma função Bluetooth. Em algumas modalidades, o módulo de áudio 170 pode transmitir um sinal de áudio para o módulo de comunicações sem fio 160 através da interface UART, para implementar uma função de reproduzir música em um fone de ouvido Bluetooth.
[0070] A interface MIPI pode ser configurada para conectar o processador 110 a um componente periférico, como a tela de exibição 194 ou a lente da câmera 193. A interface MIPI inclui uma interface serial de câmera (camera serial interface, CSI), uma interface serial de exibição (display serial interface, DSI), e semelhantes. Em algumas modalidades, o processador 110 se comunica com a lente da câmera 193 através da interface CSI, para implementar uma função de fotografia do dispositivo eletrônico 100. O processador 110 se comunica com a tela de exibição 194 através da interface DSI, para implementar uma função de exibição do dispositivo eletrônico 100.
[0071] A interface GPIO pode ser configurada usando software. A interface GPIO pode ser configurada como um sinal de controle ou pode ser configurada como um sinal de dados. Em algumas modalidades, a interface GPIO pode ser configurada para conectar o processador 110 à lente da câmera 193, a tela 194, o módulo de comunicações sem fio 160, o módulo de áudio 170, o módulo sensor 180, e semelhantes. A interface GPIO pode ainda ser configurada como uma interface I2C, uma interface I2S, uma interface UART, uma interface MIPI ou semelhante.
[0072] A interface USB 130 é uma interface que atende a uma especificação padrão USB e pode ser especificamente uma interface Mini USB, uma interface Micro USB, uma interface USB Tipo C, ou semelhante. A interface USB 130 pode ser configurada para se conectar ao carregador para carregar o dispositivo eletrônico, ou pode ser configurada para transmitir dados entre o dispositivo eletrônico 100 e um dispositivo periférico, ou pode ser configurada para se conectar a um fone de ouvido, para reproduzir áudio no fone de ouvido. A interface pode ser configurada adicionalmente para se conectar a outro dispositivo eletrônico, como um dispositivo de AR.
[0073] Pode ser entendido que uma relação de conexão de interface esquemática entre os módulos nesta modalidade deste pedido é apenas um exemplo para a descrição, e não constitui nenhuma limitação na estrutura do dispositivo eletrônico 100. Em algumas outras modalidades deste pedido, o dispositivo eletrônico 100 pode, alternativamente, usar uma maneira de conexão de interface diferente daquela na modalidade anterior, ou usar uma combinação de uma pluralidade de maneiras de conexão de interface.
[0074] O módulo de gerenciamento de carregamento 140 está configurado para receber uma entrada de carregamento do carregador. O carregador pode ser um carregador sem fio, ou um carregador com fio. Em algumas modalidades nas quais o carregador é um carregador com fio, o módulo de gerenciamento de carregamento 140 pode receber uma entrada de carregamento do carregador com fio através da interface USB 130. Em algumas modalidades nas quais o carregador é um carregador sem fio, o módulo de gerenciamento de carregamento 140 pode receber uma entrada de carregamento do carregador sem fio através de uma bobina de carregamento sem fio do dispositivo eletrônico 100. Ao carregar a bateria 142, o módulo de gerenciamento de carregamento 140 pode ainda fornecer energia ao dispositivo eletrônico através do módulo de gerenciamento de energia 141.
[0075] O módulo de gerenciamento de energia 141 está configurado para se conectar à bateria 142, ao módulo de gerenciamento de carregamento 140, e ao processador 110. O módulo de gerenciamento de energia 141 recebe uma entrada da bateria 142 e / ou do módulo de gerenciamento de carregamento 140, para fornecer energia ao processador 110, a memória interna 121, uma memória externa, a tela de exibição 194, a lente da câmera 193, o módulo de comunicações sem fio 160, e semelhantes. O módulo de gerenciamento de energia 141 pode ser configurado adicionalmente para monitorar parâmetros como a capacidade da bateria, uma contagem do ciclo da bateria, e um estado de saúde da bateria (vazamento elétrico e impedância). Em algumas outras modalidades, o módulo de gerenciamento de energia 141 pode ser disposto alternativamente no processador 110. Em algumas outras modalidades, o módulo de gerenciamento de energia 141 e o módulo de gerenciamento de carregamento 140 podem ser alternativamente dispostos em um mesmo componente.
[0076] Uma função de comunicação sem fio do dispositivo eletrônico 100 pode ser implementada usando a antena 1, a antena 2, o módulo de comunicações móvel 150, o módulo de comunicações sem fio 160, o processador de modem, o processador de banda base, e semelhantes.
[0077] A antena 1 e a antena 2 são configuradas para transmitir e receber um sinal de onda eletromagnética. Cada antena do dispositivo eletrônico 100 pode ser configurada para cobrir uma ou mais bandas de frequência de comunicação. Diferentes antenas podem ser multiplexadas para melhorar a utilização das antenas. Por exemplo, a antena 1 pode ser multiplexada como uma antena de diversidade de uma rede de área local sem fio. Em algumas outras modalidades, a antena pode ser usada em combinação com um comutador de sintonia.
[0078] O módulo de comunicações móveis 150 pode fornecer uma solução para comunicação sem fio, como 2G / 3G / 4G / 5G aplicada ao dispositivo eletrônico 100. O módulo de comunicações móveis 150 pode incluir pelo menos um filtro, um comutador, um amplificador de potência, um amplificador de baixo ruído (low noise amplifier, LNA), e semelhantes. O módulo de comunicações móveis 150 pode receber uma onda eletromagnética sobre a antena 1, realizar processamento, como filtragem e amplificação na onda eletromagnética recebida, e transmitir uma onda eletromagnética processada para o processador de modem para demodulação. O módulo de comunicações móveis 150 pode amplificar ainda mais um sinal modulado pelo processador de modem e converter o sinal em uma onda eletromagnética para radiação sobre a antena 1. Em algumas modalidades, pelo menos alguns módulos de função do módulo de comunicações móveis 150 podem ser dispostos no processador 110. Em algumas modalidades, pelo menos alguns módulos de função do módulo de comunicações móveis 150 e pelo menos alguns módulos do processador 110 podem ser dispostos em um mesmo componente.
[0079] O processador de modem pode incluir um modulador e um demodulador. O modulador é configurado para modular um sinal de banda base de baixa frequência a ser enviado em um sinal de frequência intermediária e alta. O demodulador é configurado para demodular um sinal de onda eletromagnética recebido em um sinal de banda base de baixa frequência. Em seguida, o demodulador transmite o sinal de banda base de baixa frequência obtido por meio de demodulação para o processador de banda base para processamento. Após ser processado pelo processador de banda base, o sinal de banda base de baixa frequência é transmitido ao processador do aplicativo. O processador de aplicativo emite um sinal sonoro por meio de um dispositivo de áudio (o qual não está limitado ao alto-falante 170A, ao receptor de telefone 170B, e semelhantes) ou exibe uma imagem ou um vídeo na tela de exibição 194. Em algumas modalidades, o processador de modem pode ser um componente independente. Em algumas outras modalidades, o processador de modem pode ser separado do processador 110 e o processador de modem e o módulo de comunicações móveis 150 ou outro módulo de função podem estar dispostos em um mesmo componente.
[0080] O módulo de comunicações sem fio 160 pode fornecer uma solução para comunicação sem fio aplicada ao dispositivo eletrônico 100, por exemplo, uma rede de área local sem fio (WLAN) (por exemplo, uma rede de fidelidade sem fio (wireless fidelity, Wi-Fi)), Bluetooth (BT), um sistema de navegação global por satélite (global navigation satellite system, GNSS), modulação de frequência (frequency modulation, FM), tecnologia de comunicação de campo próximo (near field communication, NFC), e tecnologia de infravermelho (infrared, IR). O módulo de comunicações sem fio 160 pode ser um ou mais componentes nos quais pelo menos um módulo de processamento de comunicação está integrado. O módulo de comunicações sem fio 160 recebe uma onda eletromagnética sobre a antena 2, realiza modulação de frequência e processamento de filtragem em um sinal de onda eletromagnética, e envia um sinal processado para o processador
110. O módulo de comunicações sem fio 160 pode ainda receber um sinal a ser enviado do processador 110, realizar modulação de frequência e amplificação do sinal, e converter o sinal em uma onda eletromagnética para radiação sobre a antena 2.
[0081] Em algumas modalidades, a antena 1 e o módulo de comunicações móveis 150 do dispositivo eletrônico 100 são acoplados, e a antena 2 e o módulo de comunicações sem fio 160 do dispositivo eletrônico 100 são acoplados, de modo que o dispositivo eletrônico 100 possa se comunicar com uma rede e outro dispositivo usando uma tecnologia de comunicações sem fio. A tecnologia de comunicação sem fio pode incluir um sistema global para comunicações móveis (GSM), um serviço geral de pacote por rádio (GPRS), acesso múltiplo por divisão de código (CDMA), acesso múltiplo por divisão de código de banda larga (WCDMA), acesso múltiplo por divisão de código por divisão de tempo (TD-CDMA), evolução de longo prazo (LTE), BT, um GNSS, uma WLAN, NFC, FM, uma tecnologia IR e / ou semelhantes. O GNSS pode incluir um sistema de posicionamento global (GPS), um sistema de navegação global por satélite (GLONASS), um sistema de navegação por satélite beidou (BDS), um sistema de satélite quase zenital (quasi-zenith satellite system, QZSS) e / ou um sistema de aumento baseado em satélite (SBAS).
[0082] O dispositivo eletrônico 100 implementa uma função de exibição sobre a GPU, a tela de exibição 194, o processador de aplicativo, e semelhantes. A GPU é um microprocessador para processamento de imagem, e se conecta à tela de exibição 194 e ao processador do aplicativo. A GPU está configurada para realizar cálculos matemáticos e geométricos, e para realizar renderização de gráficos. O processador 110 pode incluir uma ou mais GPUs, e executar uma instrução de programa para gerar ou alterar informação de exibição.
[0083] A tela de exibição 194 está configurada para exibir uma imagem, um vídeo, e semelhantes. A tela de exibição 194 inclui um painel de exibição. O painel de exibição pode usar uma tela de exibição de cristal líquido (liquid crystal display, LCD), um diodo emissor de luz orgânico (organic light-emitting diode, OLED), um diodo emissor de luz orgânico de matriz ativa (AMOLED), um diodo emissor de luz flexível (flex light-emitting diode, FLED), um MiniLed, um MicroLed, um Micro-oLed, um diodo emissor de luz de ponto quântico (QLED), e semelhantes. Em algumas modalidades, o dispositivo eletrônico 100 pode incluir uma ou N telas de exibição 194 e N é um número inteiro positivo maior que 1.
[0084] O dispositivo eletrônico 100 pode implementar uma função de fotografia sobre o ISP, a lente da câmera 193, o codec de vídeo, a GPU, a tela de exibição 194, o processador de aplicativo, e semelhantes.
[0085] O ISP está configurado para processar dados retroalimentados pela lente da câmera 193. Por exemplo, durante a captura de fotos, um obturador é pressionado, um raio de luz é transmitido a um elemento sensível à luz da lente da câmera através de uma lente, um sinal óptico é convertido em um sinal elétrico e o elemento sensível à luz da lente da câmera transmite o sinal elétrico para o ISP para processamento, e converte o sinal elétrico em uma imagem que pode ser vista. O ISP pode ainda realizar otimização de algoritmo em ruído, luminância e aparência da imagem. O ISP pode otimizar ainda mais parâmetros como exposição e temperatura de cor de um cenário de fotografia. Em algumas modalidades, o ISP pode ser disposto na lente da câmera 193.
[0086] A lente da câmera 193 está configurada para capturar uma imagem estática ou um vídeo. Uma imagem ótica de um corpo é gerada através da lente, e a imagem é projetada para o elemento sensível à luz. O elemento sensível à luz pode ser um dispositivo de carga acoplado (charge coupled device, CCD) ou um fototransistor semicondutor de óxido de metal complementar (complementary metal-oxide-semiconductor, CMOS). O elemento sensível à luz converte um sinal óptico em um sinal elétrico e, em seguida, transmite o sinal elétrico para o ISP, para que o ISP converta o sinal elétrico em um sinal de imagem digital. O ISP envia o sinal de imagem digital para o DSP para processamento. O DSP converte o sinal de imagem digital em um sinal de imagem em um formato padrão, como RGB ou YUV. Em algumas modalidades, o dispositivo eletrônico 100 pode incluir uma ou N lentes de câmera 193, e N é um número inteiro positivo maior que 1.
[0087] O processador de sinal digital é configurado para processar um sinal digital e, além de um sinal de imagem digital, pode ainda processar outro sinal digital. Por exemplo, quando o dispositivo eletrônico 100 realiza a seleção de frequência, o processador de sinal digital é configurado para realizar a transformada de Fourier, e semelhantes na energia de frequência.
[0088] O codec de vídeo é configurado para compactar ou descompactar um vídeo digital. O dispositivo eletrônico 100 pode suportar um ou mais codecs de vídeo. Desta forma, o dispositivo eletrônico 100 pode reproduzir ou gravar vídeos em uma pluralidade de formatos de codificação, por exemplo, grupo de especialistas em imagens em movimento (MPEG) 1, MPEG 2, MPEG 3 e MPEG 4.
[0089] A NPU é um processador de computação de rede neural (neural-network, NN) e processa rapidamente a informação de entrada usando uma estrutura de rede neural biológica, como um modo de transmissão entre células nervosas do cérebro humano, e pode realizar autoaprendizado constantemente. A NPU pode ser usada para implementar um aplicativo, como cognição inteligente do dispositivo eletrônico 100, por exemplo, reconhecimento de imagem, reconhecimento facial, reconhecimento de voz, e compreensão de texto.
[0090] A interface de memória externa 120 pode ser configurada para se conectar a um cartão de armazenamento externo, como um cartão micro SD, para estender a capacidade de armazenamento do dispositivo eletrônico 100. O cartão de armazenamento externo se comunica com o processador 110 através da interface de memória externa 120, para implementar uma função de armazenamento de dados, por exemplo, para armazenar arquivos como música e vídeos no cartão de armazenamento externo.
[0091] A memória interna 121 pode ser configurada para armazenar código de programa executável por computador, e o código de programa executável inclui uma instrução. O processador 110 realiza a instrução armazenada na memória interna 121, para realizar várias aplicações de função e processamento de dados do dispositivo eletrônico 100. A memória interna 121 pode incluir uma região de armazenamento de programa e uma região de armazenamento de dados. A região de armazenamento do programa pode armazenar um sistema operacional, um aplicativo exigido por pelo menos uma função (por exemplo, uma função de reprodução de voz ou uma função de reprodução de imagem), e semelhantes. A região de armazenamento de dados pode armazenar dados (por exemplo, dados de áudio e um catálogo de endereços), e semelhantes criados quando o dispositivo eletrônico 100 é usado. Além disso, a memória interna 121 pode incluir uma memória de acesso aleatório de alta velocidade, ou pode incluir uma memória não volátil, como pelo menos uma memória de disco magnético, uma memória flash, ou um armazenamento flash universal (universal flash storage, UFS).
[0092] O dispositivo eletrônico 100 pode implementar uma função de áudio, como reprodução de música ou gravação sobre o módulo de áudio 170, o alto-falante 170A, o receptor de telefone 170B, o microfone 170C, o conector de fone de ouvido 170D, o processador de aplicativo, e semelhantes.
[0093] O módulo de áudio 170 é configurado para converter informação de áudio digital em uma saída de sinal de áudio analógico e é ainda configurado para converter uma entrada de áudio analógica em um sinal de áudio digital. O módulo de áudio 170 pode ser ainda configurado para codificar e decodificar um sinal de áudio. Em algumas modalidades, o módulo de áudio 170 pode ser disposto no processador 110 ou alguns módulos de função do módulo de áudio 170 estão dispostos no processador 110.
[0094] O alto-falante 170A é configurado para converter um sinal elétrico de áudio em um sinal sonoro. O dispositivo eletrônico 100 pode ser usado para ouvir música ou atender uma chamada em um modo de mãos-livres no alto-falante 170A.
[0095] O receptor de telefone 170B é configurado para converter um sinal elétrico de áudio em um sinal de voz. Quando o dispositivo eletrônico 100 é usado para atender uma chamada ou receber informação de voz, o receptor de telefone 170B pode ser colocado perto de um ouvido humano, para receber a informação de voz.
[0096] O microfone 170C é configurado para converter um sinal sonoro em um sinal elétrico. Ao fazer uma chamada ou enviar informação de voz, um usuário pode falar com a boca se aproximando do microfone 170C, para inserir um sinal sonoro no microfone 170C. Pelo menos um microfone 170C pode ser disposto no dispositivo eletrônico 100. Em algumas outras modalidades, dois microfones 170C podem ser dispostos no dispositivo eletrônico 100 para coletar um sinal sonoro e implementar uma função de redução de ruído. Em algumas outras modalidades, três, quatro ou mais microfones 170C podem ser alternativamente dispostos no dispositivo eletrônico 100, para coletar um sinal sonoro, implementar redução de ruído, reconhecer uma fonte de som, implementar uma função de gravação direcional, e semelhantes.
[0097] O conector de fone de ouvido 170D está configurado para se conectar a um fone de ouvido com fio. O conector de fone de ouvido 170D pode ser uma interface USB 130, ou pode ser uma interface padrão de plataforma de terminal móvel aberta (open mobile terminal platform, OMTP) de 3,5 mm ou interface padrão da associação de indústria de telecomunicações celulares dos EUA (cellular telecommunications industry association of the USA, CTIA).
[0098] O sensor de pressão 180A é configurado para detectar um sinal de pressão, e pode converter o sinal de pressão em um sinal elétrico. Em algumas modalidades, o sensor de pressão 180A pode ser disposto na tela de exibição 194. Há uma pluralidade de tipos de sensores de pressão 180A, por exemplo, um sensor de pressão resistivo, um sensor de pressão indutivo, e um sensor de pressão capacitivo. O sensor de pressão capacitivo pode incluir pelo menos duas placas paralelas feitas de materiais condutores. Quando a força é exercida no sensor de pressão 180A, a capacitância entre os eletrodos muda. O dispositivo eletrônico 100 determina a força de pressão com base em uma mudança da capacitância. Quando uma operação de toque é realizada na tela de exibição 194, o dispositivo eletrônico 100 detecta a força da operação de toque usando o sensor de pressão 180A. O dispositivo eletrônico 100 pode ainda calcular uma posição do toque com base em um sinal de detecção do sensor de pressão 180A. Em algumas modalidades, as operações de toque que são realizadas na mesma posição de toque, mas têm diferentes intensidades de operação de toque, podem corresponder a diferentes instruções de operação. Por exemplo, quando uma operação de toque, cuja força de operação de toque é menor que um primeiro limiar de pressão, é realizada em um ícone de aplicativo de mensagem SMS, uma instrução de verificação de uma mensagem SMS é executada. Quando uma operação de toque cuja força de operação de toque é maior ou igual ao primeiro limiar de pressão é realizada no ícone do aplicativo de mensagem SMS, uma instrução de criação de uma nova mensagem SMS é executada.
[0099] O sensor de giroscópio 180B pode ser configurado para determinar uma postura de movimento do dispositivo eletrônico
100. Em algumas modalidades, o sensor de giroscópio 180B pode ser usado para determinar as velocidades angulares do dispositivo eletrônico 100 em torno de três eixos (a saber, eixos x, y e z). O sensor de giroscópio 180B pode ser configurado para realizar estabilização de imagem durante a captura de fotos. Por exemplo, quando um obturador é pressionado, o sensor de giroscópio 180B detecta um ângulo de oscilação (jittering) do dispositivo eletrônico 100, calcula, com base no ângulo, uma distância para a qual um módulo de lente precisa compensar, e permite que a lente compense o oscilação do dispositivo eletrônico 100 por meio de movimento reverso, de modo a implementar a estabilização de imagem. O sensor de giroscópio 180B pode ainda ser usado para um cenário de navegação e um cenário de jogo de detecção de movimento.
[00100] O sensor de pressão barométrica 180C é configurado para medir a pressão atmosférica. Em algumas modalidades, o dispositivo eletrônico 100 calcula uma altitude usando a pressão atmosférica medida pelo sensor de pressão barométrica 180C, para auxiliar no posicionamento e navegação.
[00101] O sensor magnético 180D inclui um sensor Hall. O dispositivo eletrônico 100 pode detectar a abertura e o fechamento de uma tampa de couro flip usando o sensor magnético 180D. Em algumas modalidades, quando o dispositivo eletrônico 100 é um dispositivo flip, o dispositivo eletrônico 100 pode detectar a abertura e o fechamento de uma tampa flip usando o sensor magnético 180D, para definir uma característica como desbloqueio automático da tampa flip com base em um estado de abertura e fechamento da capa de couro ou um estado de abertura e fechamento detectado da capa flip.
[00102] O sensor de aceleração 180E pode detectar a magnitude da aceleração do dispositivo eletrônico 100 em várias direções (geralmente em três eixos). Quando o dispositivo eletrônico 100 é estático, o sensor de aceleração 180E pode detectar magnitude e uma direção da gravidade. O sensor de aceleração 180E pode ser ainda configurado para reconhecer uma postura do dispositivo eletrônico, e é aplicado a uma aplicativo, como comutar entre a orientação de paisagem e a orientação vertical e um pedômetro.
[00103] O sensor de distância 180F é configurado para medir uma distância. O dispositivo eletrônico 100 pode medir uma distância por meio de infravermelho ou laser. Em algumas modalidades, em um cenário de fotografia, o dispositivo eletrônico 100 pode medir uma distância usando o sensor de distância 180F, para implementar o foco rápido.
[00104] O sensor óptico de proximidade 180G pode incluir, por exemplo, um diodo emissor de luz (LED) e um detector óptico, como um fotodiodo. O diodo emissor de luz pode ser um diodo emissor de luz infravermelha. O dispositivo eletrônico 100 pode emitir luz infravermelha usando o diodo emissor de luz. O dispositivo eletrônico 100 detecta luz infravermelha refletida de um corpo próximo usando o fotodiodo. Ao detectar luz refletida suficiente, o dispositivo eletrônico 100 pode determinar que existe um corpo perto do dispositivo eletrônico
100. Ao detectar luz refletida insuficiente, o dispositivo eletrônico 100 pode determinar que não há corpo perto do dispositivo eletrônico 100. O dispositivo eletrônico 100 pode detectar, usando o sensor óptico de proximidade 180G, que um usuário coloca o dispositivo eletrônico 100 perto de um ouvido para conversação, de modo que o desligamento automático da tela seja implementado, para conseguir economia de energia. O sensor óptico de proximidade 180G pode ser ainda configurado para desbloquear e bloquear automaticamente a tela em um modo de capa de couro e um modo de bolso.
[00105] O sensor de luz ambiente 180L é configurado para detectar a luminância da luz ambiente. O dispositivo eletrônico 100 pode ajustar adaptativamente a luminância da tela de exibição 194 com base na luminância detectada da luz ambiente. O sensor de luz ambiente 180L pode ser configurado para ajustar automaticamente o equilíbrio de branco durante a captura de fotos. O sensor de luz ambiente 180L pode ainda cooperar com o sensor óptico de proximidade 180G para detectar se o dispositivo eletrônico 100 está em um bolso, de modo a evitar um toque acidental.
[00106] O sensor de impressão digital 180H é configurado para coletar uma impressão digital. O dispositivo eletrônico 100 pode implementar desbloqueio de impressão digital, bloqueio de acesso ao aplicativo, fotografia de impressão digital, atendimento de chamadas com base em impressão digital, e semelhantes usando uma característica da impressão digital coletada.
[00107] O sensor de temperatura 180J é configurado para detectar uma temperatura. Em algumas modalidades, o dispositivo eletrônico 100 executa uma política de processamento de temperatura usando a temperatura detectada pelo sensor de temperatura 180J. Por exemplo, quando a temperatura relatada pelo sensor de temperatura 180J excede um limiar, o dispositivo eletrônico 100 reduz o desempenho de um processador próximo ao sensor de temperatura 180J, para reduzir o consumo de energia e implementar proteção contra calor. Em algumas outras modalidades, quando a temperatura é inferior a outro limiar, o dispositivo eletrônico 100 aquece a bateria 142, para evitar um desligamento anormal do dispositivo eletrônico 100 causado por uma baixa temperatura. Em algumas outras modalidades, quando a temperatura é mais baixa do que ainda outro limiar, o dispositivo eletrônico 100 aumenta uma tensão de saída da bateria 142, para evitar um desligamento anormal causado por uma baixa temperatura.
[00108] O sensor de toque 180K também é conhecido como "painel de toque". O sensor de toque 180K pode ser disposto na tela de exibição 194 e o sensor de toque 180K e a tela de exibição 194 constituem uma tela sensível ao toque. O sensor de toque 180K é configurado para detectar uma operação de toque realizada no ou próximo ao sensor de toque 180K. O sensor de toque pode transmitir a operação de toque detectada para o processador do aplicativo, para determinar um tipo de evento de toque. O sensor de toque 180K pode fornecer, sobre a tela de exibição 194, uma saída visual relacionada à operação de toque. Em algumas outras modalidades, o sensor de toque 180K pode ser alternativamente disposto em uma superfície do dispositivo eletrônico 100, e está localizado em uma posição diferente daquela da tela de exibição
194.
[00109] O sensor de condução óssea 180M pode obter um sinal de vibração. Em algumas modalidades, o sensor de condução óssea 180M pode obter um sinal de vibração de um osso de vibração de uma parte de corda vocal humana. O sensor de condução óssea 180M pode entrar em contato com um pulso humano e receber um sinal de pressão sanguínea. Em algumas modalidades, o sensor de condução óssea 180M pode ser disposto alternativamente em um fone de ouvido, para obter um fone de ouvido de condução óssea. O módulo de áudio 170 pode obter um sinal de voz por meio de análise com base no sinal de vibração, do osso de vibração da parte da corda vocal, que é obtido pelo sensor de condução óssea 180M, para implementar uma função de voz. O processador de aplicativo pode analisar informação de frequência cardíaca com base no sinal de batimento da pressão sanguínea obtido pelo sensor de condução óssea 180M, para implementar uma função de detecção de frequência cardíaca.
[00110] O botão 190 inclui um botão liga / desliga, um botão de volume, e semelhantes. O botão 190 pode ser um botão mecânico ou pode ser um botão de toque. O dispositivo eletrônico 100 pode receber uma entrada de botão, e gerar uma entrada de sinal de botão relacionada ao ajuste do usuário e controle de função do dispositivo eletrônico 100.
[00111] O motor 191 pode gerar um aviso de vibração. O motor 191 pode ser configurado para fornecer um aviso de vibração para uma chamada recebida, e pode ser ainda configurado para fornecer uma retroalimentação de vibração de toque. Por exemplo, as operações de toque realizadas em diferentes aplicativos (por exemplo, capturar fotos e reprodução de áudio) podem corresponder a diferentes efeitos de retroalimentação de vibração. Para operações de toque realizadas em diferentes regiões da tela de exibição 194, o motor 191 também pode corresponder a diferentes efeitos de retroalimentação de vibração. Diferentes cenários de aplicativo (por exemplo, um aviso de tempo, recebimento de informação, um despertador e um jogo) também podem corresponder a diferentes efeitos de retroalimentação de vibração. Um efeito de retroalimentação de vibração de toque pode ser ainda mais personalizado.
[00112] O indicador 192 pode ser uma luz indicadora, pode ser configurado para indicar um estado de carregamento e uma mudança de bateria, e pode ser ainda configurado para indicar uma mensagem, uma chamada perdida, uma notificação, e semelhantes.
[00113] A interface do cartão SIM 195 está configurada para se conectar a um cartão SIM. O cartão SIM pode ser inserido na interface do cartão SIM 195 ou destacado da interface do cartão SIM 195, para implementar o contato e a separação do dispositivo eletrônico 100. O dispositivo eletrônico 100 pode suportar uma ou N interfaces de cartão SIM, e N é um número inteiro positivo maior que 1. A interface do cartão SIM 195 pode suportar um cartão nano-SIM, um cartão micro-SIM, um cartão SIM, e semelhantes. Uma pluralidade de cartões pode ser inserida em uma mesma interface de cartão SIM 195 ao mesmo tempo. A pluralidade de cartões pode ser do mesmo tipo ou de tipos diferentes. A interface do cartão SIM 195 pode ser alternativamente compatível com diferentes tipos de cartões SIM. A interface do cartão SIM 195 também pode ser compatível com um cartão de armazenamento externo. O dispositivo eletrônico 100 interage com uma rede usando um cartão SIM, para implementar funções como conversação e comunicação de dados. Em algumas modalidades, o dispositivo eletrônico 100 usa um eSIM, ou seja, um cartão SIM incorporado. O cartão eSIM pode ser incorporado ao dispositivo eletrônico 100 e não pode ser desconectado do dispositivo eletrônico 100.
[00114] Nesta modalidade deste pedido, no cenário de fotografia, a lente da câmera 193 captura uma imagem colorida, o ISP processa dados retroalimentados pela lente da câmera 193 e a NPU no processador 110 pode realizar segmentação de imagem em uma imagem processada pelo ISP, para determinar regiões nas quais diferentes corpos estão localizados ou regiões correspondentes a diferentes tipos de corpos na imagem. O processador 110 pode reter cores de regiões nas quais um ou mais corpos particulares estão localizados, e realizar processamento em tons de cinza em uma região diferente das regiões do um ou mais corpos particulares, para reter uma cor de uma região inteira na qual um corpo particular está localizado.
[00115] O processamento em tons de cinza significa que os valores de pixel dos píxeis são convertidos em valores de tons de cinza, para converter uma imagem colorida em uma imagem em tons de cinza (também conhecida como imagem monocromática). O valor de pixel é usado para indicar a cor de um pixel, por exemplo, o valor de pixel pode ser um valor R (vermelho) G (verde) B (azul). O processamento de tons de cinza pode ser realizado para processar um valor RGB de um pixel como segue: valor R = valor G = valor B.
[00116] Um sistema de software do dispositivo eletrônico 100 pode usar uma arquitetura em camadas, uma arquitetura orientada a eventos, uma arquitetura de micronúcleo central,
uma arquitetura de micro serviço ou uma arquitetura de nuvem. Nesta modalidade deste pedido, a estrutura de software do dispositivo eletrônico 100 é ilustrada usando um sistema Android com uma arquitetura em camadas como exemplo.
[00117] FIG. 3 é um diagrama de blocos da estrutura de software do dispositivo eletrônico 100 nesta modalidade deste pedido. Na arquitetura em camadas, o software é dividido em várias camadas, e cada camada tem uma atribuição e tarefa claras. As camadas se comunicam entre si por meio de uma interface de software. Em algumas modalidades, o sistema Android é dividido em quatro camadas que são, respectivamente, uma camada de aplicativo, uma camada de estrutura de aplicativo, um sistema de ambiente Android (Android runtime) e biblioteca de sistema, e uma camada de núcleo central, de cima para baixo. A camada de aplicativo pode incluir uma série de pacotes de aplicativos.
[00118] Como mostrado na FIG. 3, os pacotes de aplicativos podem incluir aplicativos como câmera, fotos, calendário, telefone, mapas, navegação, WLAN, Bluetooth, música, vídeos e mensagens SMS.
[00119] A camada de estrutura de aplicativo fornece uma interface de programação de aplicativo (application programming interface, API) e uma estrutura de programação para os aplicativos na camada de aplicativo. A camada de estrutura do aplicativo inclui algumas funções predefinidas.
[00120] Como mostrado na FIG. 3, a camada de estrutura do aplicativo pode incluir um gerenciador de janelas, um provedor de conteúdo, um sistema de visualização, um gerenciador de telefone, um gerenciador de recursos, um gerenciador de notificação, e semelhantes.
[00121] O gerenciador de janelas está configurado para gerenciar um aplicativo de janela. O gerenciador de janelas pode obter o tamanho de uma tela de exibição, determinar se há uma barra de estado, bloquear a tela, capturar a tela, e semelhantes.
[00122] O provedor de conteúdo é configurado para armazenar e obter dados, de forma que os dados possam ser acessados por um aplicativo. Os dados podem incluir um vídeo, uma imagem, um áudio, chamadas feitas e recebidas, um histórico de navegação e marcadores, um catálogo de endereços, e semelhantes.
[00123] O sistema de visualização inclui um controle visual, como um controle para exibição de texto ou um controle para exibição de imagem. O sistema de visualização pode ser configurado para construir um aplicativo. A interface de exibição pode incluir uma ou mais visualizações. Por exemplo, uma interface de exibição incluindo um ícone de notificação de mensagem SMS pode incluir uma exibição para exibição de texto e uma exibição para exibição de imagem.
[00124] O gerenciador de telefone é configurado para fornecer uma função de comunicação do dispositivo eletrônico 100, por exemplo, para gerenciar um estado de chamada (incluindo atender ou recusar).
[00125] O gerenciador de recursos fornece vários recursos para um aplicativo, por exemplo, uma sequência de caracteres localizada, um ícone, uma imagem, um arquivo de disposições, e um arquivo de vídeo.
[00126] O gerenciador de notificação permite que um aplicativo exiba informação de notificação em uma barra de estado. A informação de notificação pode ser uma mensagem usada para indicar um tipo de notificação e pode desaparecer automaticamente após uma curta estadia sem interagir com um usuário. Por exemplo, o gerenciador de notificação é configurado para notificar a conclusão do download, um aviso de mensagem, e semelhantes. O gerenciador de notificações pode ser uma notificação que aparece em uma barra de estado superior do sistema na forma de um gráfico ou um texto de barra de rolagem, por exemplo, uma notificação de um aplicativo em execução em plano de fundo, ou pode ser uma notificação que aparece na tela na forma de uma janela de diálogo. Por exemplo, a informação de texto é avisada em uma barra de estado, um tom de aviso é emitido, o dispositivo eletrônico vibra, ou uma luz indicadora pisca.
[00127] O sistema de ambiente Android inclui uma biblioteca de núcleo central e uma máquina virtual. O sistema de ambiente Android é responsável por escalonar e gerenciar o sistema Android.
[00128] A biblioteca do núcleo central inclui duas partes: uma parte é uma função de desempenho que a linguagem Java precisa escalonar, e a outra parte é uma biblioteca do núcleo central do Android.
[00129] A camada de aplicativo e a camada de estrutura de aplicativo são realizadas na máquina virtual. A máquina virtual executa arquivos Java da camada de aplicativo e da camada de estrutura de aplicativo como arquivos binários. A máquina virtual é configurada para executar funções como gerenciamento de ciclo de vida de objeto, gerenciamento de pilha, gerenciamento de encadeamento, gerenciamento de segurança e exceção, e coleta de lixo.
[00130] A biblioteca do sistema pode incluir uma pluralidade de módulos de função, como um gerenciador de superfície (surface manager), uma biblioteca de mídia, uma biblioteca de processamento gráfico tridimensional (por exemplo, OpenGL ES) e um motor gráfico 2D (por exemplo, SGL).
[00131] O gerenciador de superfície é configurado para gerenciar um subsistema de exibição, converge camadas 2D e 3D de uma pluralidade de aplicativos.
[00132] A biblioteca de mídia suporta a reprodução e gravação de uma pluralidade de formatos comuns de áudio e vídeo, um arquivo de imagem estática, e semelhantes. A biblioteca de mídia pode suportar uma pluralidade de formatos de codificação de áudio e vídeo, por exemplo, MPEG 4, H.264, MP3, AAC, AMR, JPG e PNG.
[00133] A biblioteca de processamento gráfico tridimensional é configurada para implementar desenho gráfico tridimensional, renderização de imagem, composição, processamento de camada, e semelhantes.
[00134] O motor gráfico 2D é um motor de desenho 2D.
[00135] A camada de núcleo central é uma camada entre hardware e software. A camada de núcleo central inclui pelo menos uma unidade de exibição, uma unidade de lente de câmera, uma unidade de áudio e uma unidade de sensor.
[00136] Nesta modalidade deste pedido, com referência à FIG. 3, a biblioteca do sistema pode incluir ainda uma biblioteca de processamento de imagem. Após um aplicativo de câmera ser iniciado, ele pode obter uma imagem capturada pelo dispositivo eletrônico. Após obter uma região na qual cada corpo está localizado, a biblioteca de processamento de imagem pode reter valores de pixel de píxeis de regiões nas quais um ou mais corpos particulares estão localizados, e converter valores de pixel de píxeis em uma região diferente das regiões nas quais o um ou mais corpos particulares estão localizados em valores de tons de cinza, para reter uma cor de uma região inteira na qual um corpo particular está localizado.
[00137] Para facilitar a compreensão, nas seguintes modalidades deste pedido, o método para exibir uma imagem em um cenário de fotografia nas modalidades deste pedido é especificamente descrito com referência aos desenhos anexos usando um telefone celular com as estruturas mostradas nas FIG. 2 e FIG. 3 como exemplo.
[00138] (a) Nas FIG. 4A e FIG. 4B mostra uma interface gráfica de usuário (graphical user interface, GUI) do telefone celular, e a GUI é uma área de trabalho 401 do telefone celular. Ao detectar uma operação em que um usuário toca em um ícone 402 de um aplicativo de câmera (application, APP) na área de trabalho 401, o telefone celular pode iniciar o aplicativo de câmera, e exibir outra GUI mostrada em (b) nas FIG. 4, FIG. 4A e FIG. 4B. A GUI pode ser referida como uma tela de captura 403. A tela de captura 403 pode incluir um quadro de visor 404. Em um estado de pré-visualização, o quadro de visor 404 pode exibir uma imagem de pré-visualização em tempo real. Pode ser entendido que em um modo de captura de fotos e em um modo de gravação de vídeo (a saber, um modo de filmagem de vídeo), o quadro de visor 404 pode ter tamanhos diferentes. Por exemplo, o quadro de visor mostrado em (b) nas FIG. 4A e FIG. 4B pode ser um quadro de visor no modo de captura de fotos. No modo de gravação de vídeo, o quadro de visor 404 pode ser uma tela sensível ao toque inteira.
[00139] Por exemplo, referindo-se a (b) nas FIG. 4, FIG. 4A e FIG. 4B, após o telefone celular iniciar a câmera, o quadro de visor 404 pode exibir uma imagem 1, e a imagem 1 é uma imagem colorida. A tela de captura pode incluir ainda um controle 405 usado para indicar um modo de captura de foto, um controle 406 usado para indicar um modo de gravação de vídeo e um controle de fotografia 407. No modo de captura de fotos, após o celular detectar uma operação em que o usuário toca no controle de fotografar 407, o celular realiza uma operação de captura de fotos. No modo de gravação de vídeo, após o telefone celular detectar uma operação em que o usuário toca no controle de fotografia 407, o telefone celular realiza uma operação de filmagem de vídeo.
[00140] Deve-se notar que nesta modalidade deste pedido, uma parte da imagem colorida é diferenciada de uma parte da imagem em tons de cinza preenchendo a parte da imagem colorida com riscos.
[00141] Após o celular detectar uma operação realizada pelo usuário para indicar um modo de retenção de cor, o celular entra no modo de retenção de cor. No modo de retenção de cor, o telefone celular pode realizar o processamento de retenção de cor em uma imagem original colorida capturada por uma lente de câmera, de modo que uma parte de uma região em uma imagem obtida após o processamento de retenção de cor seja uma imagem colorida, e a outra parte da região é uma imagem em tons de cinza.
[00142] O usuário pode indicar o modo de retenção de cor de várias maneiras.
[00143] Em uma modalidade, a tela de captura inclui um primeiro controle usado para indicar um modo de retenção de cor. Quando o celular detecta uma operação em que o usuário toca no primeiro controle, o celular entra no modo de retenção de cor. Por exemplo, o primeiro controle pode ser um controle 501 mostrado em (a) na FIG. 5, ou um controle 502 mostrado em (b) na FIG. 5, ou um controle 503 mostrado em (c) na FIG. 5.
[00144] Em outra modalidade, referindo-se a (a) nas FIG. 6A e FIG. 6B, a tela de captura inclui um controle de varinha mágica 601. Após o telefone celular detectar que o usuário toca no controle 601, referindo-se a (b) nas FIG. 6A e FIG. 6B, o telefone celular exibe uma lista de funções 602. A lista de funções 602 inclui um controle 603 usado para indicar um modo de retenção de cor, um controle usado para indicar desfoque de retrato, um controle usado para indicar um filtro, e semelhantes. Após o celular detectar que o usuário toca no controle 603, o celular entra no modo de retenção de cor.
[00145] Em outra modalidade, referindo-se a (a) nas FIG. 7A e FIG. 7B, a tela de captura inclui uma opção de fotografia
701. Após o telefone celular detectar que o usuário toca na opção de fotografia 701, referindo-se a (b) nas FIG. 7A e FIG. 7B, o telefone celular exibe uma tela de modo de fotografia. Após o telefone celular detectar que o usuário toca em um controle 702 usado para indicar um modo de retenção de cor na tela do modo de fotografia, o telefone celular entra no modo de retenção de cor.
[00146] Em outra modalidade, após detectar um gesto predefinido do usuário na tela de captura, o telefone celular entra no modo de retenção de cor. Por exemplo, referindo-se a (a) nas FIG. 8A, FIG. 8B e FIG. 8C, após detectar uma operação de gesto em que o usuário desenha uma trilha circular na tela de captura, o celular entra no modo de retenção de cor. Para outro exemplo, após detectar uma operação de tocar e segurar do usuário no quadro de visor na tela de captura, o telefone celular entra no modo de retenção de cor. Por outro exemplo, após detectar uma operação de pressionamento no quadro de visor na tela de captura (a força do pressionamento é maior ou igual a um valor predefinido), o telefone celular entra no modo de retenção de cor.
[00147] Em outra modalidade, após o telefone celular exibir a tela de captura, referindo-se a (b) nas FIG. 8A, FIG. 8B e FIG. 8C, se o telefone celular detectar uma operação que o usuário instrui, por voz, para entrar no modo de retenção de cor ou usar uma função de retenção de cor, o telefone celular entra no modo de retenção de cor.
[00148] Após o telefone celular entrar no modo de retenção de cor pela primeira vez, ou cada vez que o telefone celular entrar no modo de retenção de cor, o telefone celular pode fornecer uma descrição por aviso para o usuário exibindo a descrição por aviso na tela sensível ao toque ou fornecendo a descrição por aviso por voz, para notificar o usuário sobre uma função e uma atribuição do modo de retenção de cor. Por exemplo, o telefone celular pode exibir informação de texto para avisar ao usuário que "neste modo, você pode reter uma cor de uma região na qual um corpo particular está localizado e converter a outra região em uma imagem em tons de cinza". Para outro exemplo, referindo-se a (c) nas FIG. 8A, FIG. 8B e FIG. 8C, o telefone celular pode usar uma janela 801 para avisar ao usuário que, no modo de retenção de cor, o usuário pode reter uma cor de uma região na qual um corpo particular está localizado, e a outra região é convertida em uma imagem em tons de cinza. O telefone celular fornece um diagrama esquemático 802 de um efeito de retenção de cor para o usuário, de modo que o usuário entenda uma função do processamento de retenção de cor.
[00149] Após entrar no modo de retenção de cor, o telefone celular pode fornecer outro aviso para o usuário, para que o usuário saiba que o telefone está no modo de retenção de cor.
Além disso, após entrar no modo de retenção de cor, o telefone celular pode realizar o processamento de retenção de cor em uma imagem original atualmente capturada pela lente da câmera, para exibir, no quadro de visor, uma imagem 2 obtida após o processamento de retenção de cor. A imagem original é uma imagem colorida. Uma parte de uma região na imagem 2 é uma imagem colorida e a outra parte da região é uma imagem em tons de cinza. Por exemplo, a imagem original pode ser uma imagem 3 mostrada em (a) nas FIG. 9A e FIG. 9B. Pode ser aprendido, comparando (a) nas FIG. 9A e FIG. 9B com (b) nas FIG. 4A e FIG. 4B, que uma imagem original capturada pela lente da câmera muda em tempo real, a imagem 3 e a imagem 1 que são capturadas pela lente da câmera em diferentes momentos podem ser diferentes, e as posições da menina na imagem 3 e na imagem 1 são diferentes.
[00150] Especificamente, após entrar no modo de retenção de cor, o telefone celular pode reter uma cor de uma imagem em uma região na qual um objeto alvo 1 está localizado em uma imagem original e processar uma região diferente da região na qual o objeto alvo 1 está localizado como uma imagem em tons de cinza, para obter a imagem 2 obtida após o processamento de retenção de cor. Em outras palavras, uma imagem e uma cor em uma região na qual o objeto alvo 1 está localizado na imagem 2 são iguais a uma imagem e uma cor na região na qual o objeto alvo 1 está localizado na imagem original, e uma imagem em uma região diferente da região na qual o objeto alvo 1 está localizado na imagem 2 é uma imagem em tons de cinza em uma imagem em uma região diferente da região na qual o objeto alvo 1 está localizado na imagem original.
[00151] Um objeto pode ser um ou mais tipos de corpo, ou o objeto pode ser um ou mais corpos. Em uma imagem, um tipo de corpo pode corresponder a um ou mais corpos do tipo. Quando o objeto alvo 1 é um tipo de corpo, o objeto alvo 1 inclui todos os corpos do tipo de corpo e uma região correspondente ao tipo de corpo são regiões nas quais todos os corpos do tipo de corpo estão localizados em uma imagem. Por exemplo, uma imagem inclui uma pessoa 1 e uma pessoa 2, e um tipo de corpo: "pessoas" podem incluir os dois corpos: a pessoa 1 e a pessoa 2. Se o objeto alvo 1 é o tipo de corpo "pessoas", o objeto alvo 1 também inclui a pessoa 1 e a pessoa 2, e a região na qual o objeto alvo 1 está localizado são regiões nas quais a pessoa 1 e a pessoa 2 estão localizadas.
[00152] Em outras palavras, uma região que é uma imagem colorida na imagem 2 são regiões alvo 1 em que um ou mais corpos correspondentes ao objeto alvo 1 estão localizados, uma região que é uma imagem colorida na imagem 2 são regiões em contornos de um ou mais corpos correspondendo ao objeto alvo 1, ou uma região que é uma imagem colorida na imagem 2 é uma região inteira na qual um corpo está localizado em vez de uma parte de uma região de um corpo. Uma região que é uma imagem em tons de cinza na imagem 2 é uma região diferente da região alvo 1. Em outras palavras, as cores das regiões nas quais um ou mais corpos correspondentes ao objeto alvo 1 estão localizados na imagem original podem ser retidas na imagem 2, para reter as cores de todas as regiões nas quais o um ou mais corpos estão localizado na imagem original.
[00153] Especificamente, nesta modalidade deste pedido, após entrar no modo de retenção de cor, o telefone celular obtém uma região na qual cada corpo está localizado ou uma região correspondente a cada tipo de corpo em uma imagem original por meio de segmentação de imagem, para reter cores de regiões nas quais um ou mais corpos correspondentes ao objeto alvo 1 estão localizados na imagem original e convertem a outra região da imagem original em uma imagem em tons de cinza.
[00154] Pode ser aprendido que na solução de processamento de retenção de cor fornecida nesta modalidade deste pedido, a retenção de cor é realizada com base em um corpo em vez de uma cor como na técnica anterior. Portanto, uma cor de uma região inteira na qual um corpo está localizado em uma imagem pode ser retida, de modo que uma cor de uma imagem obtida após o processamento de retenção de cor seja mais natural e um efeito visual do usuário seja melhor.
[00155] Em uma modalidade, o objeto alvo 1 pode ser um objeto alvo predefinido pelo telefone celular. Por exemplo, o objeto alvo 1 é um tipo de corpo "pessoa" predefinido pelo telefone celular. Para outro exemplo, o objeto alvo 1 é um tipo de corpo "balão" predefinido pelo telefone celular. Nesta modalidade, após entrar no modo de retenção de cor, o telefone celular pode exibir automaticamente a imagem 2 com base no objeto alvo predefinido 1.
[00156] Por exemplo, após o telefone celular entrar no modo de retenção de cor, se uma imagem original capturada pelo telefone celular for a imagem 3 mostrada em (a) nas FIG. 9A e FIG. 9B, o objeto alvo 1 é o objeto alvo predefinido, e o objeto alvo predefinido é o tipo de corpo "pessoas", referindo-se a (b) nas FIG. 9A e FIG. 9B, o telefone celular pode avisar, usando informação de texto 901, ao usuário que "o telefone celular está atualmente no modo de retenção de cor, e as cores das pessoas são retidas por padrão" e exibir a imagem 2 mostrada em (b) nas FIG. 9A e FIG. 9B. Na imagem 2, como a menina pertence ao tipo "pessoas", uma cor de uma região 902 (preenchida com riscos na figura) em que a menina está localizada fica retida, e a região na qual a menina está localizada é uma imagem colorida e uma região diferente da região na qual a menina está localizada é uma imagem em tons de cinza.
[00157] Deve-se notar que nesta modalidade deste pedido, se as roupas da menina na imagem original são amarelas, e os acessórios de cabelo são rosa, na imagem 2 mostrada em (b) nas FIG. 9A e FIG. 9B, as roupas da menina ainda são amarelas, e os acessórios de cabelo ainda são rosa. Em outras palavras, o celular pode reter completamente a cor de uma região inteira em que a menina está localizada. Na técnica anterior, quando o usuário instrui para reter uma cor: amarelo, após o processamento de retenção de cor ser realizado, uma cor das roupas da menina pode ser retida, mas uma cor: rosa dos acessórios de cabelo da menina não é retida. Em outras palavras, apenas uma parte das roupas da menina é uma imagem amarela, e a outra parte da menina é uma imagem em tons de cinza.
[00158] Para outro exemplo, referindo-se a (c) nas FIG. 9A e FIG. 9B, o objeto alvo 1 é um objeto alvo predefinido, e o objeto alvo predefinido é o tipo de corpo "balão". O telefone celular exibe um identificador 903 na tela de captura, para indicar que o telefone celular está atualmente no modo de retenção de cor, e o telefone celular pode avisar, usando informação de texto 904, ao usuário que "as cores dos balões são retidas por padrão" e exibir a imagem 2. As regiões (preenchidas com riscos na figura) de dois balões na imagem 2 são imagens coloridas, e a outra região é uma imagem em tons de cinza.
[00159] Para outro exemplo, referindo-se a (d) nas FIG. 9A e FIG. 9B, o objeto alvo 1 é um objeto alvo predefinido e o objeto alvo predefinido é o tipo de corpo "pessoas". O telefone celular exibe um identificador 905 na tela de captura, para indicar que o telefone celular está atualmente no modo de retenção de cor, e o telefone celular pode avisar, usando informação de texto 906, ao usuário que "as cores das pessoas são retidas por padrão", e exibir a imagem 2. Uma região (preenchida com riscos na figura) da menina na imagem 2 é uma imagem colorida, e a outra região é uma imagem em tons de cinza.
[00160] Em outra modalidade, o objeto alvo 1 pode ser um objeto alvo que é automaticamente determinado pelo telefone celular com base em um corpo em uma imagem original capturada pela lente da câmera, uma posição do corpo, um tamanho do corpo, e semelhantes. Nesta modalidade, após entrar no modo de retenção de cor, o telefone celular pode exibir a imagem 2 com base no objeto alvo 1 determinado automaticamente.
[00161] Por exemplo, uma sequência de prioridades de uma pluralidade de tipos de corpos é definida no telefone celular: as prioridades das pessoas são maiores do que as dos animais e as prioridades dos animais são maiores do que as dos edifícios. Por exemplo, se uma imagem original inclui pessoas, animais e edifícios, um tipo de corpo "pessoa" com prioridade mais alta é o objeto alvo 1, ou dois tipos de corpo "pessoa" e "animal" com prioridade mais alta são o objeto alvo 1. Para outro exemplo, se a imagem original não inclui pessoas, mas inclui animais e outros corpos, "animal" com a prioridade mais alta na imagem original é o objeto alvo 1.
[00162] Para outro exemplo, o telefone celular pode determinar automaticamente um assunto a ser fotografado em uma imagem original, e o assunto a ser fotografado é o objeto alvo 1, ou um tipo de corpo do assunto a ser fotografado é o objeto alvo 1. Por exemplo, o telefone celular determina que um corpo em uma posição intermediária da imagem original é o assunto a ser fotografado e o objeto alvo 1. Para outro exemplo, o telefone celular determina que um corpo com o maior tamanho na imagem original é o assunto a ser fotografado e o objeto alvo 1. Para outro exemplo, o telefone celular determina que um corpo que está próximo a uma posição intermediária e que tem um tamanho maior é o assunto a ser fotografado, e um tipo de corpo do corpo que está próximo à posição intermediária e que tem o maior tamanho é o objeto alvo 1.
[00163] Por exemplo, após o telefone celular entrar no modo de retenção de cor, se uma imagem original capturada pelo telefone celular for a imagem 3 mostrada em (a) nas FIG. 9A e FIG. 9B, com referência à FIG. 10, o telefone celular pode avisar, usando informação de texto 1001, ao usuário de que o telefone celular determina que "o assunto a ser fotografado são pessoas e balões, e as cores das pessoas e dos balões podem ser retidas", e exibir a imagem 2. Na imagem 2, as cores de uma região 1002 na qual a menina está localizada e uma região 1003 e uma região 1004 (preenchida com riscos na figura) na qual os dois balões estão localizados são todas retidas, e a outra região é uma imagem em tons de cinza.
[00164] Em outra modalidade, o objeto alvo 1 pode ser um objeto alvo especificado pelo usuário. Nesta modalidade, após entrar no modo de retenção de cor, o telefone celular pode avisar, por voz ou por meio de tela sensível ao toque, que o usuário especifique o objeto alvo 1. Por exemplo, após entrar no modo de retenção de cor, referindo-se a (a) nas FIG. 11A e FIG. 11B, o telefone celular pode avisar, usando informação de texto 1101, ao usuário a especificar o objeto alvo 1. O usuário pode especificar o objeto alvo 1 por voz ou usando uma operação de gesto. O telefone celular exibe a imagem 2 após determinar que o usuário especifica o objeto alvo 1, e o telefone celular exibe uma imagem em cores puras ou uma imagem em tons de cinza puros quando o telefone celular não detecta que o usuário especifica o objeto alvo 1.
[00165] Após o telefone celular avisar ao usuário para especificar o objeto alvo 1, ao usuário pode especificar o objeto alvo 1 em uma pluralidade de maneiras.
[00166] Por exemplo, referindo-se a (b) nas FIG. 11A e FIG. 11B, depois que o telefone celular detecta uma operação em que o usuário toca em um corpo (por exemplo, um balão) no quadro de visor, o corpo é o objeto alvo 1 especificado pelo usuário.
[00167] Por outro exemplo, depois que o telefone celular detecta uma operação em que o usuário toca em um corpo (por exemplo, um balão) em uma imagem exibida no quadro de visor, um tipo de corpo do corpo é o objeto alvo 1 especificado pelo usuário.
[00168] Para outro exemplo, referindo-se a (c) nas FIG. 11A e FIG. 11B, após o telefone celular detectar uma operação em que o usuário toca em uma pluralidade de corpos (por exemplo, a menina e um balão na parte superior) em uma imagem exibida no quadro de visor e toca em um controle determinante 1102, a pluralidade de corpos (a menina e o balão na parte superior) são o objeto alvo 1 especificado pelo usuário. A pluralidade de corpos pode pertencer a um mesmo tipo de corpo ou pode pertencer a diferentes tipos de corpo. Após o usuário tocar em um controle de cancelamento 1103, o usuário pode especificar novamente o objeto alvo 1.
[00169] Para outro exemplo, referindo-se a (d) nas FIG. 11A e FIG. 11B, após o telefone celular detectar uma operação que o usuário seleciona, ao desenhar uma trilha, uma região em uma imagem exibida no quadro de visor, um corpo principal (por exemplo, dois balões) na região é o objeto alvo 1 especificado pelo usuário.
[00170] Para outro exemplo, referindo-se a (a) nas FIG. 12A, FIG. 12B e FIG. 12C, o telefone celular exibe uma lista de tipos de corpo na tela de captura. A lista de tipos de corpo pode incluir uma pluralidade de tipos de corpo (por exemplo, tipos de corpo incluídos em uma imagem atualmente exibida no quadro de visor). Quando o telefone celular detecta uma operação em que o usuário toca em um tipo de corpo (por exemplo, pessoas), o tipo de corpo é o objeto alvo 1.
[00171] Para outro exemplo, referindo-se a (b) nas FIG. 12A, FIG. 12B e FIG. 12C, o telefone celular exibe uma lista de corpos na tela de captura. Quando o celular detecta uma operação em que o usuário seleciona um corpo (ou vários corpos), o corpo selecionado pelo usuário é o objeto alvo 1.
[00172] Para outro exemplo, o telefone celular exibe uma lista de tipos de corpos e uma lista de corpos na tela de captura. Quando o telefone celular detecta uma operação em que o usuário seleciona um tipo de corpo ou um corpo, o tipo de corpo ou o corpo selecionado pelo usuário é o objeto alvo 1.
[00173] Em outro exemplo, todos os corpos em uma imagem exibida no quadro de visor do telefone celular têm números. Quando o telefone celular detecta uma operação em que o usuário toca em um número de um corpo, o corpo é o objeto alvo 1.
[00174] Para outro exemplo, o telefone celular exibe um controle de seleção 1201 na tela de captura. Quando o usuário arrasta o controle de seleção 1201 para uma posição de um corpo e, em seguida, libera o controle de seleção 1201, o corpo é marcado (por exemplo, é assinalado). Desta forma, o usuário pode selecionar uma pluralidade de corpos (que podem pertencer a um mesmo tipo de corpo, ou podem pertencer a diferentes tipos de corpo). Quando o usuário toca em um controle de determinação 1202, o telefone celular determina que todos os corpos marcados são o objeto alvo 1.
[00175] A lente da câmera captura imagens constantemente em tempo real no cenário de fotografia. Portanto, após determinar o objeto alvo 1, o telefone celular pode realizar, em tempo real com base no objeto alvo 1, processamento de retenção de cor em uma imagem original capturada pela lente da câmera, para reter uma cor de uma região na qual o objeto alvo 1 está localizado. Por exemplo, o objeto alvo 1 são pessoas e, após um objeto a ser fotografado, muda da menina e dos balões mostrados em (b) nas FIG. 9A e FIG. 9B para uma equipe que está fazendo treinamento de basquete em uma quadra de basquete próxima, os corpos correspondentes ao objeto alvo 1 são uma pluralidade de jogadores de basquete. Com referência à FIG. 13, em uma imagem obtida após o telefone celular realizar o processamento de retenção de cor com base no objeto alvo 1, as regiões (regiões marcadas com "1") nas quais os jogadores de basquete estão localizados são imagens coloridas, e outras regiões (por exemplo, regiões nas quais bolas de basquete estão localizadas, ou seja, regiões marcadas com "2") são imagens em tons de cinza.
[00176] Deve-se notar que após o telefone celular determinar o objeto alvo 1, se a imagem original capturada pela lente da câmera não incluir um corpo correspondente ao objeto alvo 1, o telefone celular processa uma região inteira da imagem original como uma imagem em tons de cinza. Por exemplo, se o objeto alvo 1 for uma pessoa, e depois que o celular se mover ou uma posição da garota mudar, a imagem original capturada pela lente da câmera inclui apenas o cenário, mas não inclui as pessoas, uma imagem inteira que é exibida no quadro de visor e que é obtido após o processamento de retenção de cor é uma imagem em tons de cinza.
[00177] Após o telefone celular exibir a imagem 2 com base no objeto alvo 1, se o usuário precisar alterar o objeto alvo, o usuário pode ainda especificar um novo objeto alvo 2 por voz ou usando uma operação de gesto, de modo que quando subsequentemente realizando o processamento de retenção de cor, o telefone celular pode reter uma cor de uma região na qual o objeto alvo 2 está localizado, e realizar o processamento em tons de cinza em uma região diferente da região na qual o objeto alvo 2 está localizado.
[00178] Por exemplo, a tela de captura exibe um segundo controle usado para especificar um objeto alvo. Após detectar uma operação em que o usuário toca no segundo controle, o telefone celular pode especificar o objeto alvo 2 de uma maneira que é a mesma que uma maneira de especificar o objeto alvo 1 em (b) a (d) nas FIG. 11A e FIG. 11B e (a) até (d) nas FIG. 12A, FIG. 12B e FIG. 12C. Os detalhes não são descritos neste documento novamente. Por exemplo, o segundo controle pode ser o controle 1201 mostrado em (d) nas FIG. 12A, FIG. 12B e FIG. 12C. Para outro exemplo, o segundo controle pode ser um controle 1401 mostrado na FIG. 14.
[00179] Por exemplo, um objeto a ser fotografado é a menina e os balões mostrados em (a) nas FIG. 9A e FIG. 9B, e o objeto alvo 1 são pessoas. Para uma imagem obtida após o telefone celular realizar o processamento de retenção de cor com base no objeto alvo 1, consulte (b) nas FIG. 9A e FIG. 9B. Após o usuário especificar o objeto alvo 2, e o objeto alvo 2 são os balões, o objeto alvo 1 muda para o objeto alvo 2. Para uma imagem obtida após o telefone celular realizar o processamento de retenção de cor com base no objeto alvo 2, consulte (c) nas FIG. 9A e FIG. 9B.
[00180] Em uma modalidade, após entrar no modo de retenção de cor, o telefone celular pode realizar, por padrão, o processamento de retenção de cor usando o objeto alvo 1 predefinido (por exemplo, pessoas) e exibir uma imagem obtida após o processamento de retenção de cor. Após o usuário tocar em um corpo (por exemplo, um balão) na imagem exibida no quadro de visor, um tipo de corpo do corpo é o objeto alvo 2.
[00181] Após o telefone celular detectar uma operação realizada pelo usuário para instruir a capturar uma foto (por exemplo, uma operação em que o usuário toca em um controle de fotografia na tela de captura), o telefone celular pode armazenar uma imagem obtida após o processamento de retenção de cor ser realizado em uma imagem original atualmente capturada pela lente da câmera, em outras palavras, uma imagem fotografada é uma imagem obtida após o processamento de retenção de cor. Especificamente, o telefone celular pode realizar o processamento de retenção de cor com base em um objeto alvo atual (por exemplo, o objeto alvo 1 antes da mudança ou o objeto alvo 2 após a mudança).
[00182] Por exemplo, no modo de captura de foto única, após detectar uma operação realizada pelo usuário para instruir a capturar uma foto, o celular pode armazenar uma imagem obtida após o processamento de retenção de cor.
[00183] Por outro exemplo, em um modo de captura contínua, após detectar uma operação realizada pelo usuário para instruir a capturar uma foto, o telefone celular pode realizar o processamento de retenção de cor em uma imagem original capturada pela lente da câmera em tempo real e armazenar n imagens obtidas após o processamento de retenção de cor, onde n é uma quantidade predefinida de imagens que podem ser continuamente fotografadas no modo de captura contínua.
[00184] Para outro exemplo, após o telefone celular abrir o aplicativo de câmera, se o telefone celular detectar uma operação em que o usuário toca no controle 406 que é usado para indicar um modo de gravação de vídeo e que é mostrado em (b) nas FIG. 4A e FIG. 4B, o telefone celular pode exibir uma tela de filmagem de vídeo mostrada em (a) na FIG. 15A. Após entrar no modo de retenção de cor, após detectar uma operação realizada pelo usuário para instruir a capturar uma foto (por exemplo, uma operação que o usuário toca em um controle de fotografia na tela de filmagem de vídeo), o telefone celular pode realizar, em tempo real, processamento de retenção de cor em uma imagem original capturada pela lente da câmera, e armazenar uma imagem obtida após o processamento de retenção de cor, até que o processo de gravação de vídeo termine. Por exemplo, neste processo, para uma pluralidade de imagens exibidas pelo telefone celular no quadro de visor, consulte (a) a (d) nas FIG. 15A-1 e FIG. A-2. As partes preenchidas com riscos são imagens coloridas. Deve-se notar que, no processo de filmagem de vídeo, se uma imagem original não incluir um corpo correspondente a um objeto alvo atual, uma imagem inteira obtida após o processamento de retenção de cor é uma imagem em tons de cinza.
[00185] Em outra modalidade, após detectar a operação realizada pelo usuário para instruir a capturar uma foto, o telefone celular armazena uma imagem obtida após o processamento de retenção de cor ser realizado na imagem original atualmente capturada pela lente da câmera e na imagem original.
[00186] Em outra modalidade, o telefone celular pode ainda comutar de um modo normal para o modo de retenção de cor no processo de gravação de vídeo. Por exemplo, após detectar que o usuário toca no ícone 402 mostrado em (a) nas FIG. 4A e FIG. 4B, o telefone celular pode exibir a tela de filmagem de vídeo. Após o celular detectar que o usuário toca no controle de fotografia, o celular pode começar a gravar um vídeo e exibir e armazenar, em tempo real, imagens originais coloridas capturadas pela lente da câmera. Após detectar uma operação realizada pelo usuário para indicar o modo de retenção de cor, o telefone celular entra no modo de retenção de cor. No modo de retenção de cor, o telefone celular continua a gravar um vídeo, exibe e armazena, em tempo real, as imagens obtidas após o processamento da retenção de cor nas imagens originais capturadas pela lente da câmera. Em outras palavras, o vídeo gravado pelo telefone celular inclui um segmento de vídeo gravado em um modo de gravação de vídeo normal e um segmento de vídeo gravado no modo de retenção de cor, as imagens no segmento de vídeo gravadas no modo de gravação de vídeo normal são imagens coloridas, e as imagens no segmento de vídeo gravadas no modo de retenção de cor são imagens em tons de cinza. Por exemplo, neste processo, para uma pluralidade de imagens exibidas pelo telefone celular no quadro de visor, consulte (a) a (d) nas FIG. 15B-1 e FIG. 15B-2. As partes preenchidas com riscos são imagens coloridas.
[00187] Em uma modalidade, o telefone celular pode ainda marcar uma foto e um vídeo que são obtidos no modo de retenção de cor. Por exemplo, referindo-se à FIG. 16, o telefone celular pode marcar a foto e o vídeo, para indicar que a foto e o vídeo são obtidos após o processamento de retenção de cor. Para outro exemplo, o telefone celular pode classificar as fotos fotografadas no modo de retenção de cor em um arquivo e classificar os vídeos filmados no modo de retenção de cor em um arquivo.
[00188] Em outra modalidade, em um estado de tela de bloqueio ou na área de trabalho, após detectar outro gesto predefinido do usuário (por exemplo, o usuário desenha uma trilha "R" usando um dedo), o telefone celular pode abrir diretamente o aplicativo de câmera e entrar no modo de retenção de cor.
[00189] Em uma modalidade, no modo de retenção de cor, após completar uma operação de fotografia atual (por exemplo, fotografar uma foto ou filmar um vídeo), o telefone celular pode sair automaticamente do modo de fotografia colorida.
[00190] Em outra modalidade, no modo de retenção de cor, o telefone celular ainda está no modo de retenção de cor após completar a operação de fotografia atual. Após sair do aplicativo de câmera, o telefone celular pode sair automaticamente do modo de retenção de cor.
[00191] Em outra modalidade, no modo de retenção de cor, após detectar que o usuário instrui, por voz ou usando uma operação de gesto, para sair do modo de retenção de cor, o telefone celular pode sair do modo de retenção de cor. Por exemplo, no modo de retenção de cor, se detectar uma operação em que o usuário toca em um controle de retorno (back), o telefone celular sai do modo de retenção de cor.
[00192] Para outro exemplo, no modo de retenção de cor, quando a tela de captura exibe um controle usado para identificar o modo de retenção de cor, se o celular detectar uma operação em que o usuário tenta arrastar o controle para fora da tela sensível ao toque do celular, o celular o telefone sai do modo de retenção de cor. Se o celular não sair do modo de retenção de cor antes de sair da câmera, depois que o celular abrir o aplicativo de câmera, o celular pode entrar diretamente no modo de retenção de cor.
[00193] Para outro exemplo, no modo de retenção de cor, a tela de captura exibe um controle usado para identificar o modo de retenção de cor. O controle pode ser o identificador 905 mostrado em (d) nas FIG. 9A e FIG. 9B, e o identificador 905 é anexado com uma marca "×". Ao detectar uma operação em que o usuário toca na marca “×”, o celular sai do modo de retenção de cor.
[00194] O método para exibir uma imagem nesta modalidade deste pedido é descrito acima usando o cenário de fotografia (foto ou vídeo) como exemplo. O método para exibir uma imagem nesta modalidade deste pedido pode ser posteriormente aplicado a outro cenário.
[00195] Por exemplo, o método para exibir uma imagem nesta modalidade deste pedido pode ser ainda aplicado a um caso em que o processamento de retenção de cor é realizado em uma imagem fotografada anteriormente ou em uma imagem obtida de outro dispositivo.
[00196] Por exemplo, referindo-se a (a) nas FIG. 17A, FIG. 17B e FIG. 17C, quando o telefone celular detecta uma operação que o usuário toca e segura uma miniatura 1701 de uma imagem fotografada 1 em fotos (preenchimento com riscos é usado para indicar que a imagem 1 é uma imagem colorida), referindo-se a (b) nas FIG. 17A, FIG. 17B e FIG. 17C, o telefone celular pode exibir uma lista de menu 1702. A lista de menu 1702 inclui uma opção de retenção de cor 1703, uma opção de desfoque de retrato, uma opção de exclusão, e semelhantes. Após detectar uma operação em que o usuário toca na opção de retenção de cor, o celular pode abrir a imagem 1 (em outras palavras, amplificar a imagem 1 para exibição, onde o preenchimento com os riscos é usado para indicar que a imagem 1 é a imagem colorida), e entrar no modo de retenção de cor. Conforme mostrado em (c) nas FIG. 17A, FIG. 17B e FIG. 17C, o telefone celular pode avisar ao usuário que o telefone celular entrou no modo de retenção de cor e exibir um identificador 1704 do modo de retenção de cor.
[00197] Para outro exemplo, após detectar uma operação em que o usuário toca em uma miniatura 1701 de uma imagem fotografada 1 em fotos, o telefone celular abre a imagem 1. Após o celular detectar uma operação realizada pelo usuário para indicar o modo de retenção de cor por voz ou por meio de uma operação de gesto, o celular entra no modo de retenção de cor.
[00198] Para outro exemplo, após a imagem 1 ser aberta, uma interface de exibição da imagem 1 inclui um terceiro controle usado para indicar o modo de retenção de cor. Quando o usuário toca no terceiro controle, o telefone celular entra no modo de retenção de cor.
[00199] Para outro exemplo, referindo-se a (a) nas FIG. 18A, FIG. 18B e FIG. 18C, após a imagem 1 ser aberta, uma interface de exibição da imagem 1 (preenchimento com riscos é usado para indicar que a imagem 1 é uma imagem colorida) inclui um controle de varinha mágica 1801. Após o telefone celular detectar que o usuário toca no controle 1801, o telefone celular exibe uma lista de funções 1802. A lista de funções 1802 inclui um controle 1803 usado para indicar o modo de retenção de cor. Após o celular detectar que o usuário toca no controle 1803, o celular entra no modo de retenção de cor.
[00200] Para outro exemplo, referindo-se a (b) nas FIG. 18A, FIG. 18B e FIG. 18C, após a imagem 1 ser aberta, uma interface de exibição da imagem 1 (preenchimento com riscos é usado para indicar que a imagem 1 é uma imagem colorida) inclui uma opção de ajuste 1804. Após o telefone celular detectar uma operação em que o usuário toca na opção de ajuste 1804, referindo-se a (b) nas FIG. 18A, FIG. 18B e FIG. 18C, o telefone celular exibe uma interface de opção de ajuste. Após o telefone celular detectar que o usuário toca em um controle 1805 usado para indicar um modo de retenção de cor na interface de opção de ajuste, o telefone celular entra no modo de retenção de cor.
[00201] Semelhante ao cenário de fotografia, após entrar no modo de retenção de cor, o telefone celular pode ainda determinar um objeto alvo (o objeto alvo pode ser predefinido, pode ser determinado automaticamente pelo telefone celular, ou pode ser especificado pelo usuário). O usuário pode alterar ainda mais o objeto alvo e o telefone celular pode realizar o processamento de retenção de cor na imagem 1 com base em um objeto alvo atual.
[00202] Por exemplo, se o objeto alvo é uma flor, para uma imagem obtida após o processamento de retenção de cor ser realizado na imagem 1, consulte (c) nas FIG. 17A, FIG. 17B e FIG. 17C ou (c) nas FIG. 18A, FIG. 18B e FIG. 18C. Uma região (uma região preenchida com riscos na figura) em que a flor está localizada é uma imagem colorida, e a outra região é uma imagem em tons de cinza.
[00203] Além disso, após o telefone celular entrar no modo de retenção de cor, a interface de exibição da imagem 1 pode ainda exibir um controle usado para instruir a determinar o processamento de retenção de cor ou um controle usado para instruir o armazenamento de uma imagem. Em uma modalidade, após detectar que o usuário toca no controle, o telefone celular pode armazenar uma imagem obtida após o processamento de cor ser realizado na imagem 1 e na imagem 1. Em outra modalidade, após detectar que o usuário toca no controle, o telefone celular pode armazenar uma imagem obtida após o processamento de cor ser realizado na imagem 1, e excluir a imagem 1. Por exemplo, o controle usado para instruir o armazenamento de uma imagem pode ser um controle 1805 mostrado em (c) nas FIG. 18A, FIG. 18B e FIG. 18C.
[00204] Semelhante a um processo no qual o telefone celular realiza o processamento de retenção de cor na imagem fotografada anteriormente ou na imagem obtida a partir de outro dispositivo, o método para exibir uma imagem nesta modalidade deste pedido pode ser posteriormente aplicado a um caso em que a retenção de cor o processamento é realizado em um vídeo filmado anteriormente ou em um vídeo obtido de outro dispositivo. Os detalhes não são descritos neste documento novamente. Em um exemplo simples, após detectar uma operação realizada pelo usuário para abrir um vídeo 1, o telefone celular pode exibir uma interface correspondente ao vídeo 1 (o vídeo 1 não é reproduzido). Após detectar uma operação realizada pelo usuário para indicar o modo de retenção de cor, o telefone celular entra no modo de retenção de cor. Após detectar uma operação realizada pelo usuário para instruir a reproduzir o vídeo 1, o telefone celular reproduz o vídeo 1, e as imagens no vídeo 1 exibidas pelo telefone celular são imagens obtidas após o processamento de retenção de cor ser realizado em imagens originais coloridas no vídeo 1. Em outro exemplo simples, após o telefone celular detectar uma operação realizada pelo usuário para abrir um vídeo 1, o telefone celular pode exibir uma interface correspondente ao vídeo 1. Após detectar uma operação realizada pelo usuário para instruir a reproduzir o vídeo 1, o telefone celular reproduz o vídeo 1, e as imagens no vídeo 1 exibidas pelo telefone celular são imagens coloridas. Após detectar uma operação realizada pelo usuário para indicar o modo de retenção de cor, o telefone celular entra no modo de retenção de cor, e as imagens no vídeo 1 subsequentemente exibidas pelo telefone celular são imagens obtidas após o processamento de retenção de cor ser realizado em imagens originais coloridas no vídeo 1.
[00205] Na modalidade anterior, após entrar no modo de retenção de cor, o telefone celular pode realizar a segmentação da imagem na imagem original capturada pela lente da câmera, para obter a região na qual cada corpo está localizado ou a região correspondente a cada tipo de corpo na imagem original. Após o celular determina o objeto alvo, o celular mantém os valores de pixel de píxeis em uma região na qual o objeto alvo está localizado inalterado, em outras palavras, uma região alvo correspondente ao objeto alvo é uma imagem colorida, e converte valores de pixel de píxeis em uma região diferente da região na qual o objeto alvo está localizado em valores de tons de cinza, em outras palavras, uma região diferente da região alvo correspondente ao objeto alvo é uma imagem em tons de cinza. Desta forma, uma cor de imagem de uma região na qual o objeto alvo está localizado em uma imagem obtida após o processamento de retenção de cor é a mesma que uma cor de imagem de uma região na qual o objeto alvo está localizado na imagem original.
[00206] Como mencionado acima, o telefone celular pode realizar segmentação de imagem usando uma pluralidade de algoritmos e um exemplo em que a segmentação de imagem é realizada usando um algoritmo de aprendizagem profunda baseado em CNN é usado neste documento para descrição.
[00207] Com base neste algoritmo, após obter a imagem original capturada pela lente da câmera, o telefone celular pode realizar a redução de taxa de amostragem da imagem original e converter a imagem original em uma imagem com resolução relativamente baixa para cálculos complexos baseados em CNN, de modo a reduzir um valor de cálculo. Por exemplo, referindo-se à FIG. 19, a imagem original é uma imagem 1901, uma unidade para segmentação de imagem é um tipo de corpo e o tipo de corpo inclui céu, pessoas, plantas verdes e o plano de fundo. O telefone celular processa um tamanho de M x N (a saber, resolução de M x N) da imagem original como um tamanho de m x n, onde m é menor que M, e n é menor que N. O telefone celular extrai características semânticas da imagem, camada por camada, por meio de operações de convolução e redução de taxa de amostragem (downsampling) (incluindo, mas não se limitando a convolução de passada (stride), agrupamento (pooling), e semelhantes), para obter imagens de características em múltiplas escalas 1902 cujos tamanhos são, respectivamente, m1 x n1, m2 x n2 e m3 x n3, onde existe uma relação múltipla entre m1, m2 e m3, m1, m2 e m3 são menores que m, existe uma relação múltipla entre n1, n2 e n3 e n1, n2 e n3 são menores que n. Em seguida, o telefone celular converge as imagens características de múltiplas escalas obtidas 1902 por meio de convolução e operações de aumento de taxa de amostragem (upsampling), para obter uma imagem característica convergente 1903 com um tamanho de m1 x n1. Em seguida, o telefone celular realiza o cálculo de convolução na imagem de característica convergente 1903 e calcula um valor de segmentação de cada objeto em cada pixel, para obter quatro imagens fracionárias 1904 que são respectivamente correspondentes ao céu, pessoas, plantas verdes, e o plano de fundo. O tamanho da imagem fracionária é m1 x n1. Uma operação de aumento de taxa de amostragem é realizada em cada uma das quatro imagens fracionárias obtidas, para obter quatro imagens fracionárias de 1905 com um tamanho de m x n. Os valores de segmentação de píxeis correspondentes nas quatro imagens fracionárias são comparados uns com os outros pixel a pixel, e um tipo de corpo correspondente a uma imagem de fração de um valor de segmentação maior é um tipo de corpo correspondente a um pixel atual, para obter um tipo de corpo correspondente a cada pixel, ou seja, obter uma imagem de máscara 1906 (com tamanho m x n). Na imagem de máscara 1906, as regiões correspondentes a diferentes tipos de corpos têm marcas diferentes. Por exemplo, as cores das regiões correspondentes aos diferentes tipos de corpos são diferentes.
[00208] Após a imagem de máscara ser obtida, o aumento de taxa de amostragem é realizado na imagem de máscara para obter um tamanho de M x N que é o mesmo da imagem original. Desta forma, as regiões de pixel correspondentes a diferentes tipos de corpo na imagem original podem ser obtidas fazendo uma comparação com a imagem de máscara. O telefone celular determina, um por um, se os píxeis da imagem original estão em uma região na qual o objeto alvo está localizado. Se os píxeis estão na região na qual o objeto alvo está localizado, o telefone celular retém os valores de pixel dos píxeis. Se os píxeis não estiverem na região na qual o objeto alvo está localizado, o telefone celular converterá os valores dos píxeis dos píxeis em valores de tons de cinza. Desta forma, a região na qual o objeto alvo está localizado é uma imagem colorida, e uma região diferente da região na qual o objeto alvo está localizado é uma imagem em tons de cinza. Posteriormente, o telefone celular pode realizar processamento, como codificação na imagem obtida após o processamento de retenção de cor, e exibir a imagem na tela de captura.
[00209] Deve-se notar que os exemplos anteriores são descritos usando um exemplo em que a unidade para segmentação de imagem é o tipo de corpo e a unidade para segmentação de imagem pode ser, alternativamente, um corpo. Desta forma, uma região na qual cada corpo está localizado na imagem original pode ser obtida através da segmentação da imagem, de modo que a região na qual o objeto alvo está localizado (que pode estar correspondendo a um ou mais corpos) pode ser retida como uma imagem colorida com base na região na qual cada corpo está localizado, e uma região diferente da região na qual o objeto alvo está localizado é definida como uma imagem em tons de cinza.
[00210] Por exemplo, para uma imagem original colorida, quando a unidade para segmentação da imagem é um tipo de corpo, a imagem de máscara pode ser uma imagem mostrada em (a) na FIG.
20. As regiões nas quais uma pessoa 1 e uma pessoa 2 estão localizadas são ambas da cor 1, o que indica que a pessoa 1 e a pessoa 2 correspondem ao mesmo tipo de corpo. Uma região na qual um cavalo está localizado é a cor 2, e uma região na qual um fundo está localizado é uma cor 3. Quando a unidade para segmentação de imagem é um corpo, a imagem de máscara pode ser uma imagem mostrada em (b) na FIG. 20. Uma região na qual uma pessoa 1 está localizada é uma cor 1, uma região na qual uma pessoa 2 está localizada é uma cor 2, e a pessoa 1 e a pessoa 2 são corpos diferentes. Uma região na qual um cavalo está localizado é uma cor 3, e uma região na qual um fundo está localizado é uma cor 4.
[00211] Com referência às modalidades anteriores e aos desenhos anexos relacionados, uma modalidade deste pedido fornece um método para exibir uma imagem em um cenário de fotografia. O método pode ser implementado por um dispositivo eletrônico (por exemplo, um telefone celular ou um tablet) tendo uma tela sensível ao toque e uma lente de câmera nas FIG. 2 e FIG. 3. Como mostrado na FIG. 21, o método pode incluir as seguintes etapas.
[00212] 2101. O dispositivo eletrônico detecta uma primeira operação realizada por um usuário para abrir uma câmera.
[00213] Por exemplo, a primeira operação pode ser uma operação em que o usuário toca em um ícone 402 da câmera mostrada em (a) nas FIG. 4A e FIG. 4B.
[00214] 2102. O dispositivo eletrônico exibe uma tela de captura na tela sensível ao toque em resposta à primeira operação, onde a tela de captura inclui um quadro de visor, o quadro de visor inclui uma primeira imagem e a primeira imagem é uma imagem colorida.
[00215] Em resposta à primeira operação, o dispositivo eletrônico entra em modo de fotografia e exibe a tela de captura. A tela de captura inclui o quadro de visor. O modo de fotografia pode ser um modo de captura de foto, ou pode ser um modo de gravação de vídeo (a saber, um modo de filmagem de vídeo). Por exemplo, a tela de captura pode ser a tela de captura 403 mostrada em (b) nas FIG. 4, FIG. 4A e FIG. 4B.
[00216] 2103. O dispositivo eletrônico detecta uma segunda operação realizada pelo usuário para indicar um primeiro modo de processamento.
[00217] O primeiro modo de processamento pode ser o modo de retenção de cor anterior. Por exemplo, a tela de captura pode incluir um controle usado para indicar o primeiro modo de processamento, e a segunda operação é uma operação em que o usuário toca no controle. Por exemplo, a segunda operação pode ser uma operação em que o usuário toca em um controle 501 mostrado em (a) na FIG. 5, ou uma operação em que o usuário pressiona um controle 502 mostrado em (b) na FIG. 5.
[00218] Em outro exemplo, a segunda operação pode ser uma operação em que o usuário pressiona um controle 601 mostrado em (a) nas FIG. 6A e FIG. 6B e toca um controle 603 mostrado em (b) nas FIG. 6A e FIG. 6B.
[00219] 2104. O dispositivo eletrônico exibe uma segunda imagem no quadro de visor em resposta à segunda operação, onde a segunda imagem é uma imagem obtida após o primeiro processamento ser realizado em uma primeira imagem original capturada pela lente da câmera.
[00220] O primeiro processamento pode ser o processamento de retenção de cor anterior. A segunda imagem inclui uma primeira região e uma segunda região, a primeira região é uma região na qual um primeiro objeto alvo está localizado na segunda imagem e a segunda região é uma região diferente da primeira região na segunda imagem. A primeira região é uma imagem colorida e a segunda região é uma imagem em tons de cinza. O primeiro objeto alvo é um ou mais tipos de corpo, ou o primeiro objeto alvo é um ou mais corpos. Quando o primeiro objeto alvo é um tipo de corpo, a região na qual o primeiro objeto alvo está localizado é uma região na qual um corpo pertencente a um primeiro tipo alvo está localizado.
[00221] Por exemplo, a primeira imagem original pode ser uma imagem 3 mostrada em (a) nas FIG. 9A e FIG. 9B, o primeiro objeto alvo pode ser pessoas, a segunda imagem pode ser uma imagem 2 mostrada em (b) nas FIG. 9A e FIG. 9B, a primeira região pode ser uma região na qual a menina está localizada, e a segunda região pode ser uma região diferente da região na qual a menina está localizada.
[00222] Uma imagem na primeira região é igual a uma imagem em uma região na qual o primeiro objeto alvo está localizado na primeira imagem original, e uma cor da imagem na primeira região é a mesma que uma cor da imagem na região na qual o primeiro objeto alvo está localizado na primeira imagem original. Em outras palavras, a cor da imagem na região na qual o primeiro objeto alvo está localizado na primeira imagem original é retida na segunda imagem. Além disso, uma imagem na segunda região da segunda imagem é uma imagem obtida após o processamento em tons de cinza ser realizado em uma imagem em uma região diferente da região na qual o primeiro objeto alvo está localizado na primeira imagem original.
[00223] Na solução descrita na etapa 2101 a etapa 2104, em um cenário de fotografia, o dispositivo eletrônico pode reter uma cor com base em um corpo ou tipo de corpo, para reter completamente uma cor de uma região inteira na qual um corpo está localizado em uma imagem. Portanto, um caso da técnica anterior em que uma parte de um corpo é uma imagem colorida e a outra parte do corpo é uma imagem em tons de cinza não ocorre, de modo a melhorar um efeito de processamento de imagem e um efeito de exibição de imagem.
[00224] Em uma modalidade, o dispositivo eletrônico exibir uma segunda imagem no quadro de visor na etapa 2104 pode incluir especificamente: a obtenção, pelo dispositivo eletrônico, da primeira imagem original capturada pela lente da câmera; realizar, pelo dispositivo eletrônico, segmentação de imagem na primeira imagem original, para obter regiões nas quais uma pluralidade de objetos incluídos na primeira imagem original estão respectivamente localizados, onde o objeto é um tipo de corpo ou um corpo; reter, pelo dispositivo eletrônico, valores de pixel de píxeis na primeira região na qual o primeiro objeto alvo está localizado na primeira imagem original e converter valores de pixel de píxeis em uma região diferente da primeira região na primeira imagem original em valores de tons de cinza; e gerar e exibir, pelo dispositivo eletrônico, a segunda imagem.
[00225] Em outras palavras, o dispositivo eletrônico pode realizar segmentação de imagem, para obter regiões correspondentes, respectivamente, a uma pluralidade de tipos de corpos incluídos na primeira imagem original colorida, ou para obter regiões nas quais uma pluralidade de corpos incluídos na primeira imagem original colorida são, respectivamente, localizados. Em seguida, o dispositivo eletrônico pode reter a cor da região na qual o primeiro objeto alvo está localizado e realizar o processamento de tons de cinza na outra região com base nas regiões obtidas através da segmentação, para reter uma cor de uma região inteira em que cada corpo no primeiro objeto alvo é localizado.
[00226] Em uma modalidade, o primeiro objeto alvo é um objeto alvo predefinido.
[00227] Em outra modalidade, o primeiro objeto alvo é um objeto alvo que é automaticamente determinado com base em um assunto a ser fotografado na primeira imagem original.
[00228] Em outra modalidade, o primeiro objeto alvo é um objeto alvo especificado pelo usuário. Nesta solução, a etapa 2104 pode incluir especificamente: avisar, pelo dispositivo eletrônico, ao usuário para especificar o primeiro objeto alvo. Por exemplo, referindo-se a (a) nas FIG. 11A e FIG. 11B, o dispositivo eletrônico pode avisar, usando informação de texto 1101, que o usuário especifique o objeto alvo.
[00229] Se uma terceira operação realizada pelo usuário para especificar o primeiro objeto alvo for detectada, a segunda imagem será exibida no quadro de visor em resposta à terceira operação.
[00230] Por exemplo, a terceira operação pode ser uma operação em que o usuário toca um primeiro corpo em uma imagem exibida no quadro de visor. O primeiro objeto alvo é o primeiro corpo, ou o primeiro objeto alvo é um tipo de corpo do primeiro corpo. Por exemplo, referindo-se a (b) nas FIG. 11A e FIG. 11B, quando o usuário toca em um balão, o primeiro objeto alvo é o balão.
[00231] Para outro exemplo, a terceira operação pode ser que o dispositivo eletrônico detecta uma operação que o usuário seleciona, ao desenhar uma trilha, uma quinta região em uma imagem exibida no quadro de visor. O primeiro objeto alvo é um corpo incluído na quinta região, ou o primeiro objeto alvo é um tipo de corpo de um corpo incluído na quinta região. Por exemplo, referindo-se a (d) nas FIG. 11A e FIG. 11B, quando a região selecionada pelo usuário desenhando a trilha inclui dois balões, os dois balões são o primeiro objeto alvo.
[00232] Em outra modalidade, referindo-se à FIG. 22, após a etapa 2104, o método pode incluir ainda a seguinte etapa:
2105. O dispositivo eletrônico exibe uma terceira imagem no quadro de visor após a lente da câmera capturar uma segunda imagem original, onde a terceira imagem é uma imagem obtida após o primeiro processamento ser realizado na segunda imagem original.
[00233] A terceira imagem inclui uma terceira região e uma quarta região, a terceira região é uma região na qual o primeiro objeto alvo está localizado na terceira imagem e a quarta região é uma região diferente da terceira região na terceira imagem. A terceira região é uma imagem colorida, a quarta região é uma imagem em tons de cinza, uma imagem na terceira região é o mesmo que uma imagem em uma região na qual o primeiro objeto alvo está localizado na segunda imagem original e uma imagem no a quarta região é uma imagem obtida após o processamento em tons de cinza ser realizado em uma imagem em uma região diferente da região na qual o primeiro objeto alvo está localizado na segunda imagem original.
[00234] Por exemplo, a segunda imagem pode ser uma imagem mostrada em (b) nas FIG. 9A e FIG. 9B, e a terceira imagem pode ser uma imagem mostrada na FIG. 13. Na imagem mostrada na FIG. 13, a terceira região são as regiões nas quais os jogadores de basquete estão localizados e a quarta região é uma região diferente das regiões nas quais os jogadores de basquete estão localizados.
[00235] Em outras palavras, o dispositivo eletrônico pode realizar o processamento de retenção de cor com base em uma imagem original capturada pela lente da câmera em tempo real e exibir, no quadro de visor em tempo real, uma imagem obtida após o processamento de retenção de cor. Os detalhes não são descritos neste documento novamente.
[00236] Em outra modalidade, o método pode incluir ainda as seguintes etapas.
[00237] 2106. O dispositivo eletrônico detecta uma quarta operação realizada pelo usuário para especificar um segundo objeto alvo, onde o segundo objeto alvo é um ou mais tipos de corpo, ou o segundo objeto alvo é um ou mais corpos.
[00238] Por exemplo, a quarta operação pode ser uma operação em que o usuário toca em um controle 1401 mostrado na FIG. 14, e uma operação realizada pelo usuário para especificar um objeto alvo nas FIG. 12A, FIG. 12B e FIG. 12C.
[00239] 2107. O dispositivo eletrônico exibe uma quarta imagem no quadro de visor em resposta à quarta operação, onde a quarta imagem é uma imagem obtida após o primeiro processamento ser realizado em uma terceira imagem original capturada pela lente da câmera.
[00240] A quarta imagem inclui uma quinta região e uma sexta região, a quinta região é uma região na qual o segundo objeto alvo está localizado e a sexta região é uma região diferente da quinta região. A quinta região é uma imagem colorida e a sexta região é uma imagem em tons de cinza. Uma imagem na quinta região é a mesma que uma imagem em uma região na qual o segundo objeto alvo está localizado na terceira imagem original, e uma imagem na sexta região é uma imagem obtida após o processamento em tons de cinza ser realizado em uma imagem em um região diferente da região na qual o segundo objeto alvo está localizado na terceira imagem original.
[00241] Por exemplo, o primeiro objeto alvo são pessoas, e a segunda imagem pode ser uma imagem mostrada em (b) nas FIG. 9A e FIG. 9B. O segundo objeto alvo são pessoas e balões, a quarta imagem pode ser uma imagem (excluindo informação de texto 1001) mostrada na FIG. 10, a quinta região são regiões nas quais a menina e os balões estão localizados, e a sexta região é uma região diferente das regiões na qual a menina e os balões estão localizados.
[00242] Em outra modalidade, o método pode incluir ainda as seguintes etapas.
[00243] 2108. O dispositivo eletrônico detecta uma quinta operação realizada pelo usuário para instruir a capturar uma foto.
[00244] Por exemplo, a quinta operação pode ser uma operação em que o usuário toca em um controle de fotografia 407.
[00245] 2109. Em resposta à quinta operação, o dispositivo eletrônico armazena uma imagem exibida no quadro de visor.
[00246] A etapa 2108 pode incluir: detectar, pelo dispositivo eletrônico, a quinta operação realizada pelo usuário para instruir a capturar uma foto em um modo de filmagem de vídeo ou um modo de captura contínua. A etapa 2109 pode incluir: em resposta à quinta operação, armazenar, pelo dispositivo eletrônico, uma pluralidade de quadros de imagens exibidas no quadro de visor em um processo de fotografia, em que a pluralidade de quadros de imagens são imagens obtidas após uma pluralidade de imagens originais capturadas pela lente da câmera serem processadas.
[00247] Por exemplo, referindo-se à FIG. 15A-1 e FIG. A-2, no processo de filmagem de vídeo, o dispositivo eletrônico armazena uma imagem obtida após o processamento de retenção de cor após entrar no modo de retenção de cor.
[00248] Em outra modalidade, antes da etapa 2103, o método pode incluir ainda a seguinte etapa: 2110. O dispositivo eletrônico detecta uma sexta operação realizada pelo usuário para instruir a filmar um vídeo; e em resposta à sexta operação, o dispositivo eletrônico exibe, no quadro de visor, imagens coloridas capturadas pela lente da câmera em um processo de filmagem de vídeo, e armazena as imagens coloridas. A etapa 2103 pode incluir especificamente: em resposta à segunda operação, exibir, no quadro de visor em um processo de filmagem de vídeo subsequente, a segunda imagem obtida após cada quadro da imagem original capturado pela lente da câmera ser processado. Subsequentemente, o método pode incluir ainda: armazenar, pelo dispositivo eletrônico, uma pluralidade de quadros de imagens exibidas no quadro de visor no processo de gravação de vídeo.
[00249] Por exemplo, referindo-se à FIG. 15B-1 e FIG. 15B-2, ao iniciar a gravação de um vídeo, o dispositivo eletrônico armazena as imagens coloridas. Após entrar no modo de retenção de cor, o dispositivo eletrônico armazena as imagens obtidas após o processamento de retenção de cor. O vídeo filmado pelo aparelho eletrônico inclui dois tipos de imagens.
[00250] Em outra modalidade deste pedido, após o telefone celular detectar que o usuário toca no ícone 402 mostrado em (a) na FIG. 4, o telefone celular pode exibir uma tela de captura mostrada na FIG. 24, e exibir uma imagem de pré-visualização com base na resolução de imagem especificada atualmente. Por exemplo, a resolução da imagem atualmente especificada pode ser 4:3 ou 18:9, onde 4:3 e 18:9 indicam, cada uma, uma proporção de pixel de um comprimento para uma largura de uma imagem. Após o telefone celular detectar uma operação em que o usuário toca no controle 2401 usado para indicar um modo de gravação de vídeo, o telefone celular entra no modo de gravação de vídeo.
[00251] No modo de gravação de vídeo, o usuário pode comutar a resolução de imagem atualmente especificada para 21:9, para gravar um vídeo com resolução de imagem de 21:9.
[00252] Por exemplo, após o telefone celular detectar uma operação em que o usuário toca em um controle de configuração 2402 mostrado na FIG. 24, o telefone celular pode exibir uma interface de ajuste 2501 mostrada em (a) nas FIG. 25A e FIG. 25B. Após o telefone celular detectar que o usuário toca em um controle 2502 usado para definir a resolução de vídeo, o telefone celular pode exibir uma interface de resolução de vídeo mostrada em (b) nas FIG. 25A e FIG. 25B. Após o telefone celular detectar que o usuário toca em um controle (por exemplo, um controle 2503 ou um controle 2504) usado para indicar a resolução 21:9, como mostrado na FIG. 26, o telefone celular pode exibir uma imagem de pré-visualização com a resolução de 21:9 em um estado de pré-visualização. Pode ser aprendido, fazendo uma comparação com uma imagem de pré-visualização exibida pelo telefone celular na FIG. 24, que uma largura da imagem de pré-visualização exibida pelo telefone celular na FIG. 26 é reduzida, um comprimento da imagem de pré-visualização exibido pelo telefone celular na FIG. 26 é aumentado, e a proporção entre o comprimento e a largura da imagem é 21:9.
[00253] Após o telefone celular detectar uma operação em que o usuário toca em um controle de fotografia 2601 na FIG. 26, o celular começa a gravar um vídeo. Com referência à FIG. 27, em um processo de gravação de vídeo, a resolução de cada quadro de imagem em um vídeo gravado pelo telefone celular é de 21:9.
[00254] Pode ser entendido que, para implementar as funções anteriores, o dispositivo eletrônico inclui módulos de hardware e / ou software correspondentes para realizar as funções. As etapas de algoritmo nos exemplos descritos com referência às modalidades divulgadas nesta especificação podem ser implementadas por hardware ou uma combinação de hardware e software de computador neste pedido. Se uma função é implementada por hardware ou como uma forma de conduzir o hardware por um software de computador, depende de um aplicativo específico e de uma restrição de design da solução técnica. Uma pessoa versada na técnica pode usar um método diferente para implementar as funções descritas para cada aplicativo particular, mas não deve ser considerado que a implementação vai além do escopo deste pedido.
[00255] Nas modalidades, os módulos de função do dispositivo eletrônico podem ser divididos com base no exemplo de método anterior. Por exemplo, cada módulo de função pode ser dividido de acordo com cada função, ou duas ou mais funções podem ser integradas em um módulo de processamento. O módulo integrado pode ser implementado em uma forma de hardware. Deve-se notar que a divisão do módulo nas modalidades é um exemplo e é apenas uma divisão de função lógica. Pode haver outra forma de divisão na implementação real.
[00256] Quando os módulos de função são obtidos por divisão usando funções correspondentes, a FIG. 23 é um diagrama esquemático da possível composição de um dispositivo eletrônico 2300 de acordo com uma modalidade. Como mostrado na FIG. 23, o dispositivo eletrônico 2300 pode incluir uma unidade de detecção 2301, uma unidade de exibição 2302 e uma unidade de armazenamento 2303.
[00257] A unidade de detecção 2301 pode ser configurada para suportar o dispositivo eletrônico 2300 na realização da etapa 2101, etapa 2103, etapa 2106, etapa 2108 e / ou outro processo usado para uma tecnologia descrita nesta especificação.
[00258] A unidade de exibição 2302 pode ser configurada para suportar o dispositivo eletrônico 2300 na realização da etapa 2102, etapa 2104, etapa 2105, etapa 2107 e / ou outro processo usado para uma tecnologia descrita nesta especificação.
[00259] A unidade de armazenamento 2303 pode ser configurada para suportar o dispositivo eletrônico 2300 na realização da etapa 2109 e / ou outro processo usado para uma tecnologia descrita nesta especificação.
[00260] Deve-se notar que todo o conteúdo relacionado das etapas na modalidade do método pode ser incorporado nas descrições das funções dos módulos de função correspondentes por referência. Os detalhes não são descritos neste documento novamente.
[00261] O dispositivo eletrônico fornecido nesta modalidade é configurado para realizar o método para exibir uma imagem. Efeitos que são iguais aos do método de implementação anterior podem ser alcançados.
[00262] Quando uma unidade integrada é usada, o dispositivo eletrônico pode incluir um módulo de processamento, um módulo de armazenamento e um módulo de comunicações. O módulo de processamento pode ser configurado para controlar e gerenciar ações do dispositivo eletrônico, por exemplo, pode ser configurado para suportar o dispositivo eletrônico na realização das etapas realizadas pela unidade de detecção 2301 e a unidade de exibição 2302. O módulo de armazenamento pode ser configurado para: apoiar o dispositivo eletrônico na realização das etapas realizadas pela unidade de armazenamento 2303 e armazenar o código do programa, dados, e semelhantes. O módulo de comunicações pode ser configurado para suportar a comunicação entre o dispositivo eletrônico e outro dispositivo.
[00263] O módulo de processamento pode ser um processador ou um controlador. O módulo de processamento pode implementar ou executar vários blocos lógicos, módulos e circuitos de exemplo descritos com referência ao conteúdo divulgado neste pedido. Alternativamente, o processador pode ser uma combinação de processadores que implementam uma função de cálculo, por exemplo, uma combinação de um ou mais microprocessadores, ou uma combinação de um processador de sinal digital (DSP) e um microprocessador. O módulo de armazenamento pode ser uma memória. O módulo de comunicações pode ser especificamente um dispositivo que interage com outro dispositivo eletrônico, por exemplo, um circuito de radiofrequência, um chip Bluetooth ou um chip Wi-Fi.
[00264] Em uma modalidade, quando o módulo de processamento é um processador e o módulo de armazenamento é uma memória, o dispositivo eletrônico nesta modalidade pode ser um dispositivo na estrutura mostrada na FIG. 2.
[00265] Uma modalidade fornece ainda um meio de armazenamento de computador. O meio de armazenamento de computador armazena uma instrução de computador e quando a instrução de computador é executada em um dispositivo eletrônico, o dispositivo eletrônico é habilitado para realizar as etapas do método relacionado, para implementar o método para exibir uma imagem na modalidade anterior.
[00266] Uma modalidade fornece ainda um produto de programa de computador. Quando o produto de programa de computador é executado em um computador, o computador realiza as etapas relacionadas, para implementar o método para exibir uma imagem na modalidade anterior.
[00267] Além disso, uma modalidade deste pedido fornece ainda um aparelho. O aparelho pode ser especificamente um chip, um componente ou um módulo. O aparelho pode incluir um processador e uma memória que estão conectados. A memória é configurada para armazenar uma instrução executável de computador e, quando o aparelho é acionado, o processador pode realizar a instrução executável de computador armazenada na memória, de modo que o chip realize o método para exibir uma imagem na modalidade do método.
[00268] O dispositivo eletrônico, o meio de armazenamento de computador, o produto de programa de computador ou o chip fornecido nas modalidades podem ser configurados para realizar o método correspondente fornecido acima. Portanto, para efeitos benéficos que podem ser alcançados, consulte os efeitos benéficos do método correspondente fornecido acima. Os detalhes não são descritos neste documento novamente.
[00269] As descrições anteriores de implementações permitem que uma pessoa versada na técnica entenda que, para o propósito de uma descrição breve e conveniente, a divisão dos módulos de função anteriores é apenas usada como um exemplo para ilustração. Na aplicação real, as funções anteriores podem ser alocadas a diferentes módulos para implementação de acordo com um requisito, isto é, uma estrutura interna de um aparelho é dividida em diferentes módulos de função para implementar todas ou algumas das funções descritas acima.
[00270] Nas várias modalidades fornecidas neste pedido, deve ser entendido que o aparelho e método divulgados podem ser implementados de outras maneiras. Por exemplo, a modalidade de aparelho descrita é apenas um exemplo. Por exemplo, a divisão de módulo ou unidade é meramente divisão lógica de função e pode ser outra divisão na implementação real. Por exemplo, uma pluralidade de unidades ou componentes pode ser combinada ou integrada em outro aparelho, ou algumas característica podem ser ignoradas ou não realizadas. Além disso, os acoplamentos mútuos ou acoplamentos diretos ou conexões de comunicação exibidos ou discutidos podem ser implementados usando algumas interfaces. Os acoplamentos indiretos ou conexões de comunicação entre os aparelhos ou unidades podem ser implementados em formas eletrônicas, mecânicas ou outras.
[00271] As unidades descritas como peças separadas podem ou não ser fisicamente separadas, e as peças exibidas como unidades podem ser uma ou mais unidades físicas, podem estar localizadas em um lugar ou podem ser distribuídas em lugares diferentes. Algumas ou todas as unidades podem ser selecionadas com base nos requisitos reais para atingir os objetivos das soluções das modalidades.
[00272] Além disso, as unidades funcionais nas modalidades deste pedido podem ser integradas em uma unidade de processamento, ou cada uma das unidades pode existir sozinha fisicamente, ou duas ou mais unidades são integradas em uma unidade. A unidade integrada pode ser implementada na forma de hardware ou pode ser implementada na forma de uma unidade funcional de software.
[00273] Quando a unidade integrada é implementada na forma de uma unidade funcional de software e vendida ou usada como um produto independente, a unidade integrada pode ser armazenada em um meio de armazenamento legível. Com base em tal entendimento, as soluções técnicas nas modalidades deste pedido essencialmente, ou a parte que contribui para a técnica anterior, ou todas ou algumas das soluções técnicas podem ser implementadas na forma de um produto de software. O produto de software é armazenado em um meio de armazenamento e inclui várias instruções para instruir um dispositivo (o qual pode ser um microcomputador de chip único, um chip, ou semelhante) ou um processador (processor) para realizar todas ou algumas das etapas do métodos nas modalidades deste pedido. O meio de armazenamento anterior inclui qualquer meio que pode armazenar o código do programa, por exemplo, uma unidade flash USB, um disco rígido removível, uma memória somente leitura (read only Memory, ROM), uma memória de acesso aleatório (random access memory, RAM), um disco magnético, ou um disco óptico.
[00274] O conteúdo anterior é meramente uma implementação específica deste pedido, mas o escopo de proteção deste pedido não está limitado a ele. Qualquer variação ou substituição prontamente percebida por uma pessoa versada na técnica dentro do escopo técnico divulgado neste pedido deve cair dentro do escopo de proteção deste pedido. Portanto, o escopo de proteção deste pedido estará sujeito ao escopo de proteção das reivindicações.

Claims (20)

REIVINDICAÇÕES EMENDADAS
1. Método para gerar uma imagem usando um dispositivo eletrônico com uma câmera colorida, caracterizado pelo fato de que compreende: ativar a câmera colorida e um aplicativo de câmera no dispositivo eletrônico; exibir, por meio do aplicativo de câmera, uma imagem de pré-visualização gerada pela câmera colorida; determinar, automaticamente, se a imagem de pré-visualização inclui uma imagem de um primeiro objeto; exibir, por meio do aplicativo de câmera em resposta a uma determinação de que a imagem de pré-visualização inclui a imagem do primeiro objeto, uma primeira imagem gerada pela câmera colorida, a primeira imagem incluindo uma região colorida correspondente ao primeiro objeto e uma região em tons de cinza correspondente a objetos que não são o primeiro objeto; e exibir, por meio do aplicativo de câmera em resposta a uma determinação de que a imagem de pré-visualização não inclui qualquer imagem do primeiro objeto, uma segunda imagem gerada pela câmera colorida, a segunda imagem é uma imagem em tons de cinza.
2. Método, de acordo com a reivindicação 1, caracterizado pelo fato de que o primeiro objeto é um humano.
3. Método, de acordo com a reivindicação 1, caracterizado pelo fato de que compreende ainda: receber uma entrada de usuário através do dispositivo eletrônico para ativar uma função de gravação de vídeo; e gerar, em resposta à entrada de usuário, um vídeo incluindo pelo menos um da primeira imagem ou da segunda imagem.
4. Método, de acordo com a reivindicação 1, caracterizado pelo fato de que compreende ainda ativar um modo de retenção de cor do aplicativo de câmera.
5. Método, de acordo com a reivindicação 4, caracterizado pelo fato de que compreende ainda: receber uma entrada de usuário para capturar uma terceira imagem gerada pela câmera colorida; armazenar, em resposta à entrada de usuário, a terceira imagem como uma imagem alvo; e exibir a imagem alvo no modo de retenção de cor do aplicativo de câmera, a imagem alvo incluindo uma região colorida correspondente ao primeiro objeto e uma região em tons de cinza correspondente a objetos que não são o primeiro objeto.
6. Método, de acordo com a reivindicação 1, caracterizado pelo fato de que compreende ainda: ativar um primeiro modo do aplicativo de câmera; gravar um vídeo no primeiro modo com base em imagens coloridas geradas pela câmera colorida; comutar o aplicativo de câmera do primeiro modo para um segundo modo enquanto o vídeo está sendo gravado; e continuar a gravação do vídeo no segundo modo, uma parte do vídeo gravado no segundo modo incluindo pelo menos um da primeira imagem ou da segunda imagem.
7. Método, de acordo com a reivindicação 1, caracterizado pelo fato de que compreende ainda: determinar, na imagem de pré-visualização, um objeto selecionado com base em uma entrada de usuário; e exibir, por meio do aplicativo de câmera, uma quarta imagem gerada pela câmera colorida, a quarta imagem incluindo uma região colorida correspondente ao objeto selecionado e uma região em tons de cinza correspondente a objetos que não são o objeto selecionado.
8. Método, de acordo com a reivindicação 1, caracterizado pelo fato de que compreende ainda: receber uma imagem colorida original da câmera colorida, a imagem colorida original incluindo a imagem do primeiro objeto; dividir a imagem colorida original com base na imagem do primeiro objeto em uma primeira região correspondente ao primeiro objeto e uma segunda região correspondente a objetos que não são o primeiro objeto; e gerar a primeira imagem com base na imagem colorida original, mantendo píxeis coloridos da primeira região e convertendo píxeis coloridos da segunda região em píxeis em tons de cinza.
9. Método, de acordo com a reivindicação 1, caracterizado pelo fato de que compreende ainda: determinar a imagem de pré-visualização inclui imagens do primeiro objeto e um segundo objeto; determinar que uma prioridade predefinida do primeiro objeto é maior do que uma prioridade predefinida do segundo objeto; e exibir uma quinta imagem gerada pela câmera colorida, a quinta imagem incluindo uma região colorida correspondente ao primeiro objeto e uma região em tons de cinza correspondente ao segundo objeto.
10. Método, de acordo com a reivindicação 1, caracterizado pelo fato de que compreende ainda: determinar que a imagem do primeiro objeto está no centro da imagem de pré-visualização; e exibir, por meio do aplicativo de câmera, uma sexta imagem gerada pela câmera colorida, a sexta imagem incluindo uma primeira região no centro da imagem de pré-visualização correspondente ao primeiro objeto e uma segunda região correspondente a objetos que não são o primeiro objeto, a primeira região sendo colorida, e a segunda região sendo tons de cinza.
11. Método, de acordo com a reivindicação 1, caracterizado pelo fato de que compreende ainda: receber uma imagem alvo da câmera colorida; exibir, por meio do aplicativo de câmera, a imagem alvo e um primeiro controle para editar a imagem alvo; e ativar um modo de retenção de cor do aplicativo de câmera em resposta a uma ativação do primeiro controle, a imagem alvo no modo de retenção de cor incluindo pelo menos uma da primeira imagem ou a segunda imagem.
12. Meio legível por computador, incluindo instruções executáveis por computador, caracterizado pelo fato de que quando executadas por um processador, fazem com que o processador realize: ativar uma câmera colorida e um aplicativo de câmera em um dispositivo eletrônico; exibir, por meio do aplicativo de câmera, uma imagem de pré-visualização gerada pela câmera colorida; determinar, automaticamente, se a imagem de pré-visualização inclui uma imagem de um primeiro objeto; exibir, por meio do aplicativo de câmera em resposta a uma determinação de que a imagem de pré-visualização inclui a imagem do primeiro objeto, uma primeira imagem gerada pela câmera colorida, a primeira imagem incluindo uma região colorida correspondente ao primeiro objeto e uma região em tons de cinza correspondente a objetos que não são o primeiro objeto; e exibir, por meio do aplicativo de câmera em resposta a uma determinação de que a imagem de pré-visualização não inclui qualquer imagem do primeiro objeto, uma segunda imagem gerada pela câmera colorida, a segunda imagem é uma imagem em tons de cinza.
13. Meio legível por computador, de acordo com a reivindicação 12, caracterizado pelo fato de que as instruções executáveis por computador ainda fazem com que o processador realize: receber uma entrada de usuário através do dispositivo eletrônico para ativar uma função de gravação de vídeo; e gerar, em resposta à entrada de usuário, um vídeo incluindo pelo menos um da primeira imagem ou da segunda imagem.
14. Meio legível por computador, de acordo com a reivindicação 12, caracterizado pelo fato de que as instruções executáveis por computador ainda fazem com que o processador realize a ativação de um modo de retenção de cor do aplicativo de câmera.
15. Meio legível por computador, de acordo com a reivindicação 14, caracterizado pelo fato de que as instruções executáveis por computador ainda fazem com que o processador realize: receber uma entrada de usuário para capturar uma terceira imagem gerada pela câmera colorida; armazenar, em resposta à entrada de usuário, a terceira imagem como uma imagem alvo; e exibir a imagem alvo no modelo de retenção de cor do aplicativo de câmera, a imagem alvo incluindo uma região colorida correspondente ao primeiro objeto e uma região em tons de cinza correspondente a objetos que não são o primeiro objeto.
16. Meio legível por computador, de acordo com a reivindicação 12, caracterizado pelo fato de que as instruções executáveis por computador ainda fazem com que o processador realize: ativar um primeiro modo do aplicativo de câmera; gravar um vídeo no primeiro modo com base em imagens coloridas geradas pela câmera colorida; comutar o aplicativo de câmera do primeiro modo para um segundo modo enquanto o vídeo está sendo gravado; e continuar a gravação do vídeo no segundo modo, uma parte do vídeo gravado no segundo modo incluindo pelo menos um da primeira imagem ou da segunda imagem.
17. Meio legível por computador, de acordo com a reivindicação 12, caracterizado pelo fato de que as instruções executáveis por computador ainda fazem com que o processador realize: determinar, na imagem de pré-visualização, um objeto selecionado com base em uma entrada de usuário; e exibir, por meio do aplicativo de câmera, uma quarta imagem gerada pela câmera colorida, a quarta imagem incluindo uma região colorida correspondente ao objeto selecionado e uma região em tons de cinza correspondente a objetos que não são o objeto selecionado.
18. Meio legível por computador, de acordo com a reivindicação 12, caracterizado pelo fato de que as instruções executáveis por computador ainda fazem com que o processador realize: receber uma imagem colorida original da câmera colorida, a imagem colorida original incluindo a imagem do primeiro objeto;
dividir a imagem colorida original com base na imagem do primeiro objeto em uma primeira região correspondente ao primeiro objeto e uma segunda região correspondente a objetos que não são o primeiro objeto; e gerar a primeira imagem com base na imagem colorida original, mantendo píxeis coloridos da primeira região e convertendo píxeis coloridos da segunda região em píxeis em tons de cinza.
19. Meio legível por computador, de acordo com a reivindicação 12, caracterizado pelo fato de que as instruções executáveis por computador ainda fazem com que o processador realize: determinar a imagem de pré-visualização inclui imagens do primeiro objeto e um segundo objeto; determinar que uma prioridade predefinida do primeiro objeto é maior do que uma prioridade predefinida do segundo objeto; e exibir uma quinta imagem gerada pela câmera colorida, a quinta imagem incluindo uma região colorida correspondente ao primeiro objeto e uma região em tons de cinza correspondente ao segundo objeto.
20. Meio legível por computador, de acordo com a reivindicação 12, caracterizado pelo fato de que as instruções executáveis por computador ainda fazem com que o processador realize: determinar que a imagem do primeiro objeto está no centro da imagem de pré-visualização; e exibir, por meio do aplicativo de câmera, uma sexta imagem gerada pela câmera colorida, a sexta imagem incluindo uma primeira região no centro da imagem de pré-visualização correspondente ao primeiro objeto e uma segunda região correspondente a objetos que não são o primeiro objeto, a primeira região sendo colorida, e a segunda região sendo tons de cinza.
BR112021007133-4A 2018-10-15 2018-10-15 método para exibição de imagem em cenário fotográfico e dispositivo eletrônico BR112021007133A2 (pt)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/CN2018/110306 WO2020077511A1 (zh) 2018-10-15 2018-10-15 一种拍摄场景下的图像显示方法及电子设备

Publications (1)

Publication Number Publication Date
BR112021007133A2 true BR112021007133A2 (pt) 2021-07-20

Family

ID=65713883

Family Applications (1)

Application Number Title Priority Date Filing Date
BR112021007133-4A BR112021007133A2 (pt) 2018-10-15 2018-10-15 método para exibição de imagem em cenário fotográfico e dispositivo eletrônico

Country Status (7)

Country Link
US (2) US11223772B2 (pt)
EP (2) EP3846438A4 (pt)
JP (1) JP7238115B2 (pt)
KR (1) KR102535607B1 (pt)
CN (2) CN109496423B (pt)
BR (1) BR112021007133A2 (pt)
WO (1) WO2020077511A1 (pt)

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9854156B1 (en) 2016-06-12 2017-12-26 Apple Inc. User interface for camera effects
US11112964B2 (en) 2018-02-09 2021-09-07 Apple Inc. Media capture lock affordance for graphical user interface
WO2020077511A1 (zh) * 2018-10-15 2020-04-23 华为技术有限公司 一种拍摄场景下的图像显示方法及电子设备
CN110383286B (zh) * 2019-05-22 2023-05-30 深圳市汇顶科技股份有限公司 用于生物识别的方法、指纹识别装置和电子设备
CN110377204B (zh) * 2019-06-30 2021-07-09 华为技术有限公司 一种生成用户头像的方法及电子设备
US11611714B2 (en) * 2019-08-01 2023-03-21 Meta Platforms, Inc. Generating customized, personalized reactions to social media content
CN112700525A (zh) * 2019-10-21 2021-04-23 华为技术有限公司 一种图像处理方法及电子设备
CN113138387B (zh) * 2020-01-17 2024-03-08 北京小米移动软件有限公司 图像采集方法、装置、移动终端及存储介质
CN113395441A (zh) * 2020-03-13 2021-09-14 华为技术有限公司 图像留色方法及设备
CN112669464A (zh) * 2020-03-20 2021-04-16 华为技术有限公司 一种分享数据的方法及设备
CN111768352B (zh) * 2020-06-30 2024-05-07 Oppo广东移动通信有限公司 图像处理方法及装置
CN113973173B (zh) * 2020-07-24 2023-04-21 华为技术有限公司 图像合成方法和电子设备
CN111966254B (zh) * 2020-08-06 2022-06-10 惠州Tcl移动通信有限公司 一种图像拍摄方法、装置、存储介质及终端
CN112035046B (zh) * 2020-09-10 2024-03-08 脸萌有限公司 榜单信息显示方法、装置、电子设备及存储介质
US11212449B1 (en) * 2020-09-25 2021-12-28 Apple Inc. User interfaces for media capture and management
CN114827442B (zh) * 2021-01-29 2023-07-11 华为技术有限公司 生成图像的方法和电子设备
CN116156314A (zh) * 2021-05-31 2023-05-23 荣耀终端有限公司 一种视频拍摄方法及电子设备
CN115484390B (zh) * 2021-06-16 2023-12-19 荣耀终端有限公司 一种拍摄视频的方法及电子设备
CN113766130B (zh) * 2021-09-13 2023-07-28 维沃移动通信有限公司 视频拍摄方法、电子设备及装置
CN114245011B (zh) * 2021-12-10 2022-11-08 荣耀终端有限公司 图像处理方法、用户界面及电子设备
CN114398016B (zh) * 2022-01-12 2024-06-11 金华鸿正科技有限公司 界面显示方法和装置
CN115580690B (zh) * 2022-01-24 2023-10-20 荣耀终端有限公司 图像处理的方法和电子设备
CN115272138B (zh) * 2022-09-28 2023-02-21 荣耀终端有限公司 图像处理方法及其相关设备
CN117130511A (zh) * 2023-02-24 2023-11-28 荣耀终端有限公司 亮度控制方法及其相关设备

Family Cites Families (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000232609A (ja) 1999-02-10 2000-08-22 Matsushita Electric Ind Co Ltd 特殊効果処理方法及び画像処理装置
JP3825740B2 (ja) * 2001-12-07 2006-09-27 株式会社リコー 画像処理装置、画像処理方法、およびコンピュータが実行するためのプログラム
WO2009050798A1 (ja) 2007-10-17 2009-04-23 Mitsubishi Electric Corporation 画像処理装置
JP5694097B2 (ja) 2011-09-08 2015-04-01 オリンパスイメージング株式会社 撮影機器
CN103137096A (zh) 2011-11-24 2013-06-05 林振慧 颜色转换器
KR101870902B1 (ko) * 2011-12-12 2018-06-26 삼성전자주식회사 영상 처리 장치 및 영상 처리 방법
EP2634772A1 (en) * 2012-02-28 2013-09-04 BlackBerry Limited Methods and devices for selecting objects in images
JP5867424B2 (ja) * 2013-02-28 2016-02-24 ソニー株式会社 画像処理装置、画像処理方法、プログラム
KR20140134844A (ko) * 2013-05-15 2014-11-25 오충록 객체 기반 사진 촬영 방법 및 장치
CN103618886B (zh) * 2013-12-13 2015-07-08 厦门美图网科技有限公司 一种根据主色调智能脱色的摄像方法
CN104967790B (zh) * 2014-08-06 2018-09-11 腾讯科技(北京)有限公司 照片拍摄方法、装置及移动终端
CN104660905B (zh) * 2015-03-04 2018-03-16 广东欧珀移动通信有限公司 拍照处理方法及装置
US10038836B2 (en) 2015-03-17 2018-07-31 Mediatek Inc. Automatic image capture during preview and image recommendation
CN105118026A (zh) 2015-07-28 2015-12-02 小米科技有限责任公司 色域模式切换方法及装置
US20170091905A1 (en) * 2015-09-24 2017-03-30 Dell Products L.P. Information Handling System Defocus Tracking Video
US20170099476A1 (en) 2015-10-01 2017-04-06 Samsung Electronics Co., Ltd. Photographing device and method of controlling the same
WO2017063133A1 (zh) 2015-10-13 2017-04-20 华为技术有限公司 一种拍摄方法和移动设备
CN105608668B (zh) * 2015-12-22 2019-07-26 联想(北京)有限公司 一种信息处理方法及装置
CN105812668A (zh) * 2016-04-19 2016-07-27 奇酷互联网络科技(深圳)有限公司 图像的处理方法、处理装置及拍照设备
CN105959554B (zh) 2016-06-01 2019-02-22 努比亚技术有限公司 视频拍摄装置及方法
CN106101666B (zh) * 2016-06-30 2018-09-04 维沃移动通信有限公司 一种图像色彩保留的方法及移动终端
WO2018072267A1 (zh) 2016-10-17 2018-04-26 华为技术有限公司 用于终端拍照的方法及终端
CN106506962A (zh) * 2016-11-29 2017-03-15 维沃移动通信有限公司 一种图像处理方法及移动终端
CN106791379A (zh) * 2016-12-05 2017-05-31 奇酷互联网络科技(深圳)有限公司 基于双摄像头图像合成的方法及装置
CN107329573B (zh) 2017-06-30 2020-09-25 联想(北京)有限公司 控制方法及电子设备
CN107170016A (zh) 2017-07-25 2017-09-15 京东方科技集团股份有限公司 一种图像处理方法、图像处理***和显示面板
CN107809580A (zh) * 2017-09-21 2018-03-16 努比亚技术有限公司 一种拍摄处理方法、终端及计算机可读存储介质
CN107730433A (zh) 2017-09-28 2018-02-23 努比亚技术有限公司 一种拍摄处理方法、终端及计算机可读存储介质
CN107909553B (zh) 2017-11-02 2021-10-26 海信视像科技股份有限公司 一种图像处理方法及设备
CN107835402A (zh) 2017-11-08 2018-03-23 维沃移动通信有限公司 一种图像处理方法、装置及移动终端
CN108182031A (zh) 2017-12-28 2018-06-19 努比亚技术有限公司 一种拍照方法、终端及计算机可读存储介质
CN108234826B (zh) * 2018-01-15 2021-03-02 厦门美图之家科技有限公司 图像处理方法及装置
WO2020077511A1 (zh) * 2018-10-15 2020-04-23 华为技术有限公司 一种拍摄场景下的图像显示方法及电子设备

Also Published As

Publication number Publication date
KR102535607B1 (ko) 2023-05-26
JP7238115B2 (ja) 2023-03-13
EP4325879A1 (en) 2024-02-21
CN109496423A (zh) 2019-03-19
US11223772B2 (en) 2022-01-11
WO2020077511A1 (zh) 2020-04-23
US20220094859A1 (en) 2022-03-24
CN109496423B (zh) 2020-11-17
EP3846438A4 (en) 2021-09-15
US11696018B2 (en) 2023-07-04
US20210344845A1 (en) 2021-11-04
KR20210064330A (ko) 2021-06-02
CN112532869B (zh) 2021-11-19
EP3846438A1 (en) 2021-07-07
JP2022512715A (ja) 2022-02-07
CN112532869A (zh) 2021-03-19

Similar Documents

Publication Publication Date Title
US11696018B2 (en) Method for displaying image in photographing scenario and electronic device
WO2021136050A1 (zh) 一种图像拍摄方法及相关装置
US11722449B2 (en) Notification message preview method and electronic device
CN112130742B (zh) 一种移动终端的全屏显示方法及设备
WO2021036585A1 (zh) 一种柔性屏显示方法和电子设备
WO2021052111A1 (zh) 图像处理方法及电子装置
WO2020155714A1 (zh) 图像处理方法及图像处理装置
WO2021258814A1 (zh) 视频合成方法、装置、电子设备及存储介质
CN113170037B (zh) 一种拍摄长曝光图像的方法和电子设备
CN113542580B (zh) 去除眼镜光斑的方法、装置及电子设备
WO2022001258A1 (zh) 多屏显示方法、装置、终端设备及存储介质
WO2022012418A1 (zh) 拍照方法及电子设备
WO2021042878A1 (zh) 一种拍摄方法及电子设备
CN112150499A (zh) 图像处理方法及相关装置
WO2022052786A1 (zh) 皮肤敏感度的显示方法、装置、电子设备及可读存储介质
WO2021238740A1 (zh) 一种截屏方法及电子设备
CN113542574A (zh) 变焦下的拍摄预览方法、终端、存储介质及电子设备
WO2022095906A1 (zh) 一种按键映射方法、电子设备及***
WO2022078116A1 (zh) 笔刷效果图生成方法、图像编辑方法、设备和存储介质
CN115730091A (zh) 批注展示方法、装置、终端设备及可读存储介质
CN116709018B (zh) 一种变焦条分割方法及电子设备
WO2022206783A1 (zh) 拍摄方法、装置、电子设备及可读存储介质

Legal Events

Date Code Title Description
B15K Others concerning applications: alteration of classification

Free format text: A CLASSIFICACAO ANTERIOR ERA: H04N 5/232

Ipc: H04N 23/62 (2023.01), H04N 23/63 (2023.01), H04N 2

B07A Application suspended after technical examination (opinion) [chapter 7.1 patent gazette]
B07A Application suspended after technical examination (opinion) [chapter 7.1 patent gazette]
B09A Decision: intention to grant [chapter 9.1 patent gazette]
B16A Patent or certificate of addition of invention granted [chapter 16.1 patent gazette]

Free format text: PRAZO DE VALIDADE: 20 (VINTE) ANOS CONTADOS A PARTIR DE 15/10/2018, OBSERVADAS AS CONDICOES LEGAIS