RU2542947C2 - Optical sensor - Google Patents

Optical sensor Download PDF

Info

Publication number
RU2542947C2
RU2542947C2 RU2013123789/08A RU2013123789A RU2542947C2 RU 2542947 C2 RU2542947 C2 RU 2542947C2 RU 2013123789/08 A RU2013123789/08 A RU 2013123789/08A RU 2013123789 A RU2013123789 A RU 2013123789A RU 2542947 C2 RU2542947 C2 RU 2542947C2
Authority
RU
Russia
Prior art keywords
reflector
photodetector
emitters
touch
computer
Prior art date
Application number
RU2013123789/08A
Other languages
Russian (ru)
Other versions
RU2013123789A (en
Inventor
Дмитрий Михайлович Литманович
Андрей Михайлович Литманович
Александр Алексеевич Закрытной
Original Assignee
Дмитрий Михайлович Литманович
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Дмитрий Михайлович Литманович filed Critical Дмитрий Михайлович Литманович
Priority to RU2013123789/08A priority Critical patent/RU2542947C2/en
Publication of RU2013123789A publication Critical patent/RU2013123789A/en
Application granted granted Critical
Publication of RU2542947C2 publication Critical patent/RU2542947C2/en

Links

Images

Landscapes

  • Position Input By Displaying (AREA)
  • Electronic Switches (AREA)
  • Switches Operated By Changes In Physical Conditions (AREA)

Abstract

FIELD: physics, optics.
SUBSTANCE: invention relates to optical systems for constructing touch panels. An optical sensor comprises a touch-sensitive surface, a reflector which covers part of the periphery of the touch-sensitive surface, a photodetector, an objective lens, two spaced-apart emitters, all optically coupled with the reflector, and a computer, wherein the output of the photodetector is connected to the input of the computer and the outputs of the computer are connected to the first and second emitters; the sensor further includes a cylindrical lens which is optically coupled with the objective lens, and the photodetector has a linear shape and placed in parallel to the touch-sensitive surface.
EFFECT: faster and more accurate determination of touch coordinates on a touch-sensitive surface.
4 cl, 6 dwg

Description

Изобретение относится к технике оптических Touch - панелей, широко применяемых в торговле, электронных платежных системах, в персональных компьютерах.The invention relates to the technique of optical Touch - panels, widely used in trade, electronic payment systems, in personal computers.

Известен ряд устройств подобного назначения. Например, в патенте США №7006236 В2 от 28.02.2006 г. [1], предлагается устройство, создающее виртуальную сенсорную поверхность, касание которой в определенных местах эквивалентно нажатию кнопок. Данное устройство содержит телевизионную камеру, оптически сопряженный с ней источник структурированного освещения и вычислительное устройство. Введение пальца в создаваемый источником структурированного освещения поток регистрируется телевизионной камерой. Вычислительное устройство обрабатывает видеоинформацию, поступающую с телевизионной камеры, и определяет координаты точки касания пальца с потоком структурированного излучения. В устройствах, предложенных в патентах США №6480187 от 12.11.2002 г. [2], №6492633 от 10.12.2002 г. [3], №6844539 от 18.01.2005 г. [4], №7522156 от 21.04.2009 г. [5], используются отражатель и два приемопередающих оптических модуля. При появлении на пути потоков, формируемых излучателями, входящими в состав приемо-передающих модулей пальца (стилуса), специализированный вычислитель, с помощью фотоприемников, входящих в состав приемо-передающих модулей, регистрирует угловые координаты пальца (стилуса).A number of devices for this purpose are known. For example, in US patent No. 7006236 B2 dated February 28, 2006 [1], a device is proposed that creates a virtual touch surface, touching it in certain places is equivalent to pressing buttons. This device contains a television camera, an optically coupled source of structured lighting and a computing device. The introduction of a finger into a stream generated by a structured lighting source is recorded by a television camera. The computing device processes the video information coming from the television camera and determines the coordinates of the point of touch of the finger with the stream of structured radiation. In the devices proposed in US patent No. 6480187 dated 12/12/2002 [2], No. 6492633 dated 12/10/2002 [3], No. 6844539 dated January 18, 2005 [4], No. 7522156 dated April 21, 2009 . [5], a reflector and two transceiver optical modules are used. When flows formed by emitters that are part of the transceiver modules of the finger (stylus) appear on the path, a specialized computer, using photodetectors included in the transceiver modules, registers the angular coordinates of the finger (stylus).

Наиболее близким по технической реализации является устройство, предложенное в патенте РФ №2362216 от 12.05.2009 г. [6]. В нем используются первый и второй излучатели, оптически сопряженный с ними фотоприемник и вычислительное устройство, а также так называемая «поверхность теневой локации», оптически сопряженная с первым и вторым излучателями и фотоприемником, на которую поочередно падают световые потоки от первого и второго излучателя, и представляющая собой диффузно рассеивающую излучение поверхность. Кроме того, фотоприемник представляет собой телевизионную камеру, полем обзора которой является «поверхность теневой локации». Рабочая зона устройства образуется пересечением конусов распространения потоков излучения первого и второго излучателей, падающих на «поверхность теневой локации». При этом при введении пальца (стилуса) оператора в рабочую зону устройства на «поверхности теневой локации» образуются поочередно, по сигналам вычислительного устройства, управляющего включением излучателей, две тени. Их изображения с помощью телевизионной камеры вводятся в вычислительное устройство, которое определяет по ним пространственные координаты пальца (стилуса) и углы его наклона к поверхности рабочей области.The closest in technical implementation is the device proposed in the patent of the Russian Federation No. 2362216 dated 05/12/2009 [6]. It uses the first and second emitters, an optically coupled photodetector and a computing device, as well as the so-called “shadow location surface”, optically coupled to the first and second emitters and a photodetector, onto which the light fluxes from the first and second emitter alternately fall, and representing a surface diffusely scattering radiation. In addition, the photodetector is a television camera, the field of view of which is the "surface of the shadow location." The working area of the device is formed by the intersection of the propagation cones of the radiation fluxes of the first and second emitters incident on the "surface of the shadow location". In this case, with the introduction of the operator’s finger (stylus) into the working area of the device, two shadows are formed in turn, on the signals of the computing device that controls the switching on of the emitters, on the “surface of the shadow location”. Their images using a television camera are entered into a computing device, which determines the spatial coordinates of the finger (stylus) and its angles to the surface of the working area.

Целью предлагаемого изобретения является повышение быстродействия и точности.The aim of the invention is to increase speed and accuracy.

Для этого в известное устройство, содержащее сенсорную поверхность, отражатель, охватывающий часть периметра сенсорной поверхности, оптически сопряженные с отражателем фотоприемник, объектив, два пространственно разнесенных излучателя, а также специализированный вычислитель, причем выход фотоприемника подключен к входу специализированного вычислителя, а первый и второй излучатели подключены к соответствующим выходам специализированного вычислителя, дополнительно вводится цилиндрическая линза, оптически сопряженная с объективом, а фотоприемник выполнен в виде линейчатого, ПЗС или КМОП типа, размещенного параллельно сенсорной поверхности.To do this, in a known device containing a touch surface, a reflector covering a part of the perimeter of the touch surface, a photodetector optically coupled to the reflector, a lens, two spatially separated emitters, as well as a specialized computer, the output of the photodetector connected to the input of a specialized computer, and the first and second emitters connected to the corresponding outputs of a specialized calculator, an additional cylindrical lens is introduced, optically conjugated to the lens, and the photodetector is made in the form of a line, CCD or CMOS type, placed parallel to the touch surface.

Функциональная схема предлагаемого устройства приведена на фиг.1, где:Functional diagram of the proposed device is shown in figure 1, where:

1 - специализированный вычислитель;1 - specialized computer;

2, 3 - первый и второй излучатели;2, 3 - the first and second emitters;

4 - отражатель;4 - reflector;

5 - сенсорная поверхность;5 - touch surface;

6 - цилиндрическая линза;6 - a cylindrical lens;

7 - объектив;7 - lens;

8 - линейчатый фотоприемник.8 - line photodetector.

Специализированный вычислитель 1 поочередно включает один из двух излучателей 2 и 3, формирующих потоки излучения ψ1 и ψ2, направленные в сторону отражателя 4. При появлении на пути распространения потоков ψ1 и ψ2 пальца (стилуса) оператора, касающегося сенсорной поверхности 5, происходит затенение поверхности отражателя 4. С помощью цилиндрической линзы 6 и объектива 7, в плоскости нахождения линейчатого фотоприемника 8 строится изображение отражателя 4, на котором попеременно появляются две тени, соответствующие включенному состоянию одного из двух излучателей.Specialized computer 1 alternately includes one of two emitters 2 and 3, forming radiation fluxes ψ 1 and ψ 2 directed towards the reflector 4. When the finger (stylus) of the operator touches the touch surface 5 appears on the propagation path of the ψ 1 and ψ 2 flows, the surface of the reflector 4 is shaded. Using a cylindrical lens 6 and lens 7, an image of the reflector 4 is built in the plane of the line photodetector 8, on which two shadows alternately appear, corresponding to the on state of two emitters.

На фиг.2 приведена оптическая схема построения изображения осевой линии отражателя, параллельной сенсорной поверхности 5, где:Figure 2 shows the optical diagram of the image of the axial line of the reflector parallel to the touch surface 5, where:

ρ - осевая линия отражателя 4;ρ is the axial line of the reflector 4;

ε1, ε2 - точки, принадлежащие линии ρ;ε 1 , ε 2 - points belonging to the line ρ;

ε m 1

Figure 00000001
, ε m 2
Figure 00000002
- меридиональные точки сходимости; ε m one
Figure 00000001
, ε m 2
Figure 00000002
- meridional convergence points;

ε s 1

Figure 00000003
, ε s 2
Figure 00000004
- сагиттальные точки сходимости; ε s one
Figure 00000003
, ε s 2
Figure 00000004
- sagittal convergence points;

α - плоскость меридиональной фокусировки;α is the plane of meridional focusing;

β - плоскость сагиттальной фокусировки;β is the plane of sagittal focusing;

γ - изображение линии ρ в плоскости β;γ is the image of the ρ line in the β plane;

δ - изображение линии ρ в плоскости α.δ is the image of the line ρ in the plane α.

Так как оптическая система (цилиндрическая линза - объектив) обладает ярко выраженным астигматизмом, элементарные пучки лучей, исходящие из точек ε1 и ε2, имеют в пространстве изображений в меридиональном и сагиттальном сечениях различные точки сходимости - ε m 1

Figure 00000001
, ε m 2
Figure 00000002
и ε s 1
Figure 00000003
, ε s 2
Figure 00000004
- соответственно [7].Since the optical system (cylindrical lens - objective) has a pronounced astigmatism, elementary ray beams emanating from points ε 1 and ε 2 have different points of convergence in the image space in the meridional and sagittal sections - ε m one
Figure 00000001
, ε m 2
Figure 00000002
and ε s one
Figure 00000003
, ε s 2
Figure 00000004
- respectively [7].

Таким образом, благодаря наличию цилиндрической линзы 7, происходит меридиональная расфокусировка изображения отражателя 4 в плоскости β (в которой находится линейчатый фотоприемник 8) в направлении, перпендикулярном расположению фотоприемных пикселей. При этом изображение тени на поверхности отражателя 4 будет пересекать фотоприемную линейку, расположенную в плоскости β, перпендикулярно расположению фотоприемных пикселей.Thus, due to the presence of a cylindrical lens 7, there is a meridional defocusing of the image of the reflector 4 in the β plane (in which the line photodetector 8 is located) in the direction perpendicular to the location of the photodetector pixels. In this case, the image of the shadow on the surface of the reflector 4 will intersect the photodetector line located in the β plane, perpendicular to the location of the photodetector pixels.

На фиг.3 приведен пример формирования изображения тени от стилуса П, пересекающего световой поток ψ1 излучателя 2, где:Figure 3 shows an example of the formation of the image of the shadow from the stylus P, intersecting the light flux ψ 1 of the emitter 2, where:

O - центр оптической системы;O is the center of the optical system;

П - стилус;P - stylus;

Т - тень, формируемая на поверхности отражателя;T is the shadow formed on the surface of the reflector;

τ - изображение тени на плоскости β.τ - image of the shadow on the plane β.

Таким образом, при затенении падающего на отражатель 4 светового потока, формируемого при поочередном включении излучателей 2 и 3, на отражателе формируются две тени, изображение которых, построенное объективом 7 и цилиндрической линзой 6, пересекает фотоприемные пиксели линейчатого фотоприемника 8.Thus, when the light flux incident on the reflector 4 is shaded, which is formed when the emitters 2 and 3 are turned on alternately, two shadows are formed on the reflector, the image of which, constructed by the lens 7 and the cylindrical lens 6, intersects the photodetector pixels of the line photodetector 8.

На фиг.4 изображен в двух проекциях пример конструктивного исполнения предлагаемой системы, где:Figure 4 shows in two projections an example of the design of the proposed system, where:

T1 - тень, формируемая пальцем при включенном первом излучателе 2;T 1 - the shadow formed by the finger when the first emitter 2;

Т2 - тень, формируемая пальцем при включенном втором излучателе 3;T 2 - the shadow formed by the finger when the second emitter 3;

NT1 - номер пикселя линейчатого фотоприемника, соответствующего середине изображения тени T1 на его поверхности;N T1 is the pixel number of the line photodetector corresponding to the middle of the shadow image T 1 on its surface;

NT2 - номер пикселя линейчатого фотоприемника, соответствующего середине изображения тени Т2 на его поверхности;N T2 is the pixel number of the line photodetector corresponding to the middle of the shadow image T 2 on its surface;

S1 - поперечное сечение изображения тени Т1, формируемой в плоскости β.S 1 is the cross section of the image of the shadow T 1 formed in the plane β.

Видно, что первый 2 и второй 3 излучатели и линия ρ, проходящая по середине отражателя 4, находятся в плоскости, параллельной сенсорной поверхности 5. Цилиндрическая линза 6, объектив 7 и линейчатый фотоприемник 8 отстоят консольно над сенсорной поверхностью 5. Благодаря расфокусировке изображения отражателя 4 в плоскости β, изображения теней в плоскости β пересекают фоточувствительную поверхность линейчатого фотоприемника 8 и не дает этим изображениям выйти за пределы линии расположения фотоприемных пикселей.It can be seen that the first 2 and second 3 emitters and the line ρ extending in the middle of the reflector 4 are in a plane parallel to the touch surface 5. The cylindrical lens 6, the lens 7, and the line photodetector 8 are cantilever above the touch surface 5. Due to the defocusing of the image of the reflector 4 in the β plane, shadow images in the β plane intersect the photosensitive surface of the line photodetector 8 and does not allow these images to go beyond the location of the photodetector pixels.

Это в свою очередь исключает необходимость точной юстировки линейчатого фотоприемника относительно отражателя 4 и делает несущественным фактор перспективных искажений, имеющий место в прототипе и требующий при этом применения матричного фотоприемника.This, in turn, eliminates the need for accurate alignment of the line photodetector relative to the reflector 4 and makes the factor of perspective distortions, which takes place in the prototype and requires the use of a matrix photodetector, insignificant.

Несмотря на возможное пересечение потоков, отраженных от отражателя 4, пальцем или кистью оператора, для функционирования данного устройства важен только факт пересечения потоков ψ1 и ψ2. Именно при этом образуются тени T1 и Т2 в разных местах отражателя 4 и, как следствие, различные значения координат изображений этих теней на поверхности линейчатого фотоприемника 8.Despite the possible intersection of the flows reflected from the reflector 4 with a finger or an operator’s brush, only the fact of the intersection of the flows ψ 1 and ψ 2 is important for the functioning of this device. It is with this that the shadows T 1 and T 2 are formed in different places of the reflector 4 and, as a result, different values of the coordinates of the images of these shadows on the surface of the line photodetector 8.

На фиг.5 приведен вариант оптической схемы данного устройства, в которой излучатели находятся вблизи сборки «линейчатый фотоприемник-объектив-цилиндрическая линза». Это позволяет использовать при изготовлении верхнего и нижнего отражающих сегментов материал, переотражающий излучение в сторону источника излучения. Таким образом, может быть увеличена помехоустойчивость устройства, т.к. большая часть отраженного излучения будет направляться в сторону расположенной рядом с излучателями оптической системы. Для этого, отражатель может быть выполнен в виде поверхности, покрытой оптически прозрачными микрошариками или микропирамидами, например интегрированными в световозвращающие пленки и ткани фирм "Zhejiang Fangyuan Yeshili Reflective Material Co., Ltd" или "Orafol" [8].Figure 5 shows a variant of the optical scheme of this device, in which the emitters are located near the assembly "linear photodetector-objective-cylindrical lens". This allows you to use in the manufacture of the upper and lower reflective segments of the material, reflecting radiation towards the radiation source. Thus, the noise immunity of the device can be increased since most of the reflected radiation will be directed towards the optical system located next to the emitters. For this, the reflector can be made in the form of a surface covered with optically transparent microspheres or micro pyramids, for example, integrated into retroreflective films and fabrics of Zhejiang Fangyuan Yeshili Reflective Material Co., Ltd or Orafol [8].

Для повышения помехоустойчивости предлагаемого устройства, излучатели 2 и 3 должны обладать диаграммой направленности, представляющей собой поток излучения «прижатый» к сенсорной поверхности 5, и максимальная энергия которого концентрируется на поверхности отражателя 4, что может быть получено использованием фокусирующих систем на базе цилиндрических линз.To increase the noise immunity of the proposed device, the emitters 2 and 3 should have a radiation pattern representing the radiation flux “pressed” to the sensor surface 5, and the maximum energy of which is concentrated on the surface of the reflector 4, which can be obtained using focusing systems based on cylindrical lenses.

Точность определения координат касания в данном устройстве может быть существенно выше, чем в прототипе, использующем матричный приемник изображения. Это связано с тем, что линейчатые фотоприемники имеют большее разрешение, чем тот же параметр матричных. Примером может служить линейка с разрешением 12000 пикселей, фирмы Atmel ТН7834С [9], с линейным размером фоточувствительной зоны 78 мм. Кроме того, применение линейчатого фотоприемника позволяет повысить скорость обновления информации на несколько порядков. Так в отличие от типовой скорости кадровой развертки матричного приемника изображения в пределах 50-60 Гц, линейчатый фотоприемник, как например упомянутый выше Atmel ТН7834С, имеет 4 выходных видеоканала и скорость считывания 5 МГц / пиксель на канал, что дает эквивалентную скорость обновления информации 1700 Гц, при существенно большей точности. В случае более низкого разрешения, например при использовании линейчатого фотоприемника S9227 фирмы Hamamatsu [10], разрешением 512 пикселей и частотой считывания 5 МГц, можно получить скорость обновления 10 кГц, т.е. выше, чем у матрицы с эквивалентным разрешением в 200 раз.The accuracy of determining the coordinates of the touch in this device can be significantly higher than in the prototype using a matrix image receiver. This is due to the fact that line photodetectors have a higher resolution than the same matrix parameter. An example is a ruler with a resolution of 12,000 pixels, from Atmel TN7834C [9], with a linear size of the photosensitive zone 78 mm. In addition, the use of a line photodetector can increase the speed of updating information by several orders of magnitude. So, in contrast to the typical frame scan speed of a matrix image receiver within 50-60 Hz, a line photodetector, such as the Atmel ТН7834С mentioned above, has 4 output video channels and a read speed of 5 MHz / pixel per channel, which gives an equivalent information refresh rate of 1700 Hz , with significantly greater accuracy. In the case of a lower resolution, for example, using a Hamamatsu S9227 line photodetector [10], a resolution of 512 pixels and a read frequency of 5 MHz, an update rate of 10 kHz can be obtained, i.e. higher than that of a matrix with an equivalent resolution of 200 times.

На фиг.6 приведена упрощенная оптическая схема данной системы, поясняющая вывод координат точки касания сенсорной поверхности, где:Figure 6 shows a simplified optical diagram of this system, explaining the derivation of the coordinates of the touch point of the touch surface, where:

OXY - система координат;OXY - coordinate system;

(XП, YП) - координаты точки касания;(X P , Y P ) - the coordinates of the touch point;

(Xψ1, Yψ1) - координаты первого излучателя;(X ψ1 , Y ψ1 ) - coordinates of the first emitter;

ψ2, Yψ2) - координаты второго излучателя;(X ψ2 , Y ψ2 ) - coordinates of the second emitter;

1, 0) - координата тени на отражателе от действия первого излучателя;(X 1 , 0) - coordinate of the shadow on the reflector from the action of the first emitter;

(X2, 0) - координата тени на отражателе от действия второго излучателя;(X 2 , 0) - coordinate of the shadow on the reflector from the action of the second emitter;

(XP1, YP1) - координаты оптического центра изображения тени от действия первого излучателя, на поверхности фотоприемной линейки,(X P1 , Y P1 ) - coordinates of the optical center of the image of the shadow from the action of the first emitter, on the surface of the photodetector line,

P2, YP2) - координаты оптического центра изображения тени от действия второго излучателя, на поверхности фотоприемной линейки,(X P2 , Y P2 ) - coordinates of the optical center of the shadow image from the action of the second emitter, on the surface of the photodetector line,

(XF, YF) - координаты оптического центра объектива.(X F , Y F ) - coordinates of the optical center of the lens.

Запишем уравнения прямых, проходящих через точки (Х1, 0), (ХP1, YP1), (XF, YF) и (Х2, 0), (ХP2, YP2), (XF, YF), учитывая, что YP1=YP2=YP:We write the equations of the lines passing through the points (X 1 , 0), (X P1 , Y P1 ), (X F , Y F ) and (X 2 , 0), (X P2 , Y P2 ), (X F , Y F ), given that Y P1 = Y P2 = Y P :

1 ) { X 1 -X P1 X P1 X F = Y P Y P Y F , X 2 -X P2 X P2 X F = Y P Y P Y F ;

Figure 00000005
one ) { X one -X P1 X P1 - X F = Y P Y P - Y F , X 2 -X P2 X P2 - X F = Y P Y P - Y F ;
Figure 00000005

откуда могут быть получены значения Х1 и Х2.where can the values of X 1 and X 2 be obtained.

Далее, для точек (X1, 0), (Xψ1, Yψ1), (XП, YП) и (X2, 0), (Хψ2, Yψ2), (XП, YП) запишем:Further, for the points (X 1 , 0), (X ψ1 , Y ψ1 ), (X P , Y P ) and (X 2 , 0), (X ψ2 , Y ψ2 ), (X P , Y P ) we write :

2 ) { X 1 -X П X ψ 1 X П = Y П Y П Y ψ 1 , X 2 -X П X ψ 2 X П = Y П Y П Y ψ 2 ;

Figure 00000006
2 ) { X one -X P X ψ one - X P = Y P Y P - Y ψ one , X 2 -X P X ψ 2 - X P = Y P Y P - Y ψ 2 ;
Figure 00000006

откуда получаем значения координат точки (XП, YП).whence we get the coordinates of the point (X P , Y P ).

Таким образом, специализированный вычислитель 1 осуществляет поочередное включение одного из двух излучателей 2 и 3, ввод видеосигналов с выхода линейчатого фотоприемника 8, соответствующих включенному состоянию каждого из излучателей 2, 3, и определение по амплитудам видеосигналов наличия теней, вызванных касанием пальцем или стилусом сенсорной поверхности. Далее, на основании заложенных в специализированный вычислитель данных о геометрических параметрах линейчатого фотоприемника, координат излучателей и оптического центра объективов, по формуле 1 могут быть определены координаты теней на поверхности отражателя 4, а затем по формулам 2 их пересчет в координаты точки касания.Thus, a specialized calculator 1 turns on one of the two emitters 2 and 3 in turn, inputs the video signals from the output of the line photodetector 8, corresponding to the on state of each of the emitters 2, 3, and determines the presence of shadows from the amplitudes of the video signals caused by touching the touch surface with a finger or stylus . Further, on the basis of the data on the geometric parameters of the line photodetector, the coordinates of the emitters and the optical center of the lenses laid down in a specialized calculator, the coordinates of the shadows on the surface of the reflector 4 can be determined by formula 1, and then, by formulas 2, they can be converted to the coordinates of the touch point.

Источники информацииInformation sources

1. Патент США №7006236 В2 от 28.02.2006 г.1. US patent No. 7006236 B2 dated February 28, 2006.

2. Патент США №6480187 от 12.11.2002 г.2. US patent No. 6480187 from 12/12/2002

3. Патент США №6492633 от 10.12.2002 г.3. US Patent No. 6492633 dated December 10, 2002.

4. Патент США №6844539 от 18.01.2005 г.4. US patent No. 6844539 from 01/18/2005

5. Патент США №7522156 от 21.04.2009 г.5. US patent No. 7522156 from 04/21/2009

6. Патент РФ №2362216 от 12.05.2008 г.6. RF patent No. 2362216 of 05/12/2008.

7. Справочник конструктора оптико-механических приборов. Под общей редакцией В. А. Панова. Ленинград, Машиностроение, 1980 г., стр.102.7. Reference designer of optical-mechanical devices. Under the general editorship of V.A. Panov. Leningrad, Mechanical Engineering, 1980, p. 102.

8. http://www.orafol.com.8. http://www.orafol.com.

9. ТН7834С.Very High-resolution Linear CCD Image Sensor 12000 Pixels. Справочный материал фирмы Atmel. Rev. 1997A-IMAGE-05/02.9. TN7834C. Ver High-resolution Linear CCD Image Sensor 12000 Pixels. Atmel reference material. Rev. 1997A-IMAGE-05/02.

10. S9227. CMOS Linear Image Sensor. Справочный материал фирмы HAMAMATSU. Cat. No.KMPD1074E04. Feb. 2007 DN.10. S9227. CMOS Linear Image Sensor. HAMAMATSU reference material. Cat. No.KMPD1074E04. Feb. 2007 DN.

Claims (4)

1. Оптическое сенсорное устройство, содержащее сенсорную поверхность, отражатель, охватывающий часть периметра сенсорной поверхности, оптически сопряженные с отражателем фотоприемник, объектив, два пространственно разнесенных излучателя, а также вычислитель, причем выход фотоприемника подключен к входу вычислителя, а выходы вычислителя подключены к первому и второму излучателям, отличающееся тем, что дополнительно вводится цилиндрическая линза, оптически сопряженная с объективом, а фотоприемник выполняется в виде линейчатого, размещенного параллельно сенсорной поверхности.1. An optical sensor device comprising a sensor surface, a reflector covering a portion of the perimeter of the sensor surface, a photodetector optically coupled to the reflector, a lens, two spatially separated emitters, and a computer, the photodetector output connected to the input of the computer and the outputs of the computer connected to the first and the second emitters, characterized in that an additional cylindrical lens is introduced, optically conjugated to the lens, and the photodetector is made in the form of a ruler, size ennogo parallel to the sensor surface. 2. Устройство по п.1, отличающееся тем, что оптические центры первого и второго излучателей и центральная ось отражателя лежат в одной плоскости, параллельной сенсорной поверхности.2. The device according to claim 1, characterized in that the optical centers of the first and second emitters and the central axis of the reflector lie in one plane parallel to the touch surface. 3. Устройство по п.1, отличающееся тем, что отражатель выполнен из светорассеивающего материала.3. The device according to claim 1, characterized in that the reflector is made of light-scattering material. 4. Устройство по п.1, отличающееся тем, что отражатель выполнен из светоотражающего материала, а первый и второй излучатели находятся на таком расстоянии от цилиндрической линзы, что большая часть переотраженного излучения достигает ее входной апертуры. 4. The device according to claim 1, characterized in that the reflector is made of reflective material, and the first and second emitters are at such a distance from the cylindrical lens that most of the re-reflected radiation reaches its input aperture.
RU2013123789/08A 2013-05-24 2013-05-24 Optical sensor RU2542947C2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
RU2013123789/08A RU2542947C2 (en) 2013-05-24 2013-05-24 Optical sensor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
RU2013123789/08A RU2542947C2 (en) 2013-05-24 2013-05-24 Optical sensor

Publications (2)

Publication Number Publication Date
RU2013123789A RU2013123789A (en) 2014-11-27
RU2542947C2 true RU2542947C2 (en) 2015-02-27

Family

ID=53290123

Family Applications (1)

Application Number Title Priority Date Filing Date
RU2013123789/08A RU2542947C2 (en) 2013-05-24 2013-05-24 Optical sensor

Country Status (1)

Country Link
RU (1) RU2542947C2 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2362216C1 (en) * 2008-05-12 2009-07-20 Михаил Герцевич Литманович Device for three-dimensional manipulation
RU2399949C1 (en) * 2009-03-20 2010-09-20 Открытое Акционерное Общество "Интеллект Телеком" Method of determining manipulator coordinates on touch panel

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2362216C1 (en) * 2008-05-12 2009-07-20 Михаил Герцевич Литманович Device for three-dimensional manipulation
RU2399949C1 (en) * 2009-03-20 2010-09-20 Открытое Акционерное Общество "Интеллект Телеком" Method of determining manipulator coordinates on touch panel

Also Published As

Publication number Publication date
RU2013123789A (en) 2014-11-27

Similar Documents

Publication Publication Date Title
KR20120112466A (en) Apparatus and method for receiving a touch input
JP5459689B2 (en) Optical touch screen
JP5591069B2 (en) Coordinate input device, control method therefor, and program
US20120133624A1 (en) Display panel
JP5837580B2 (en) Infrared light emitting diode and touch screen
US20070132742A1 (en) Method and apparatus employing optical angle detectors adjacent an optical input area
CN102067074A (en) Detecting the location of an object on a touch surface
CN107111442A (en) Detected using the apparatus of optical touch-sensitive device
KR101657216B1 (en) Touch panel and touch position detection method of touch panel
JP6558166B2 (en) Optical device and operation input device
US9063618B2 (en) Coordinate input apparatus
JP2022063376A (en) Aerial display device
KR20010051563A (en) Optical digitizer using curved mirror
RU2362216C1 (en) Device for three-dimensional manipulation
KR101329487B1 (en) System and method for performing optical navigation using a compact optical element
KR101789906B1 (en) Optical touch screens
RU2542947C2 (en) Optical sensor
RU2542949C2 (en) Sensor device with measurement of dynamic impact
RU2541849C2 (en) Light waveguide-based touch panel
JP5865053B2 (en) Coordinate input device, control method of coordinate input device, and program
WO2023037813A1 (en) Floating-in-space video information displaying system and stereo sensing device used therein
JP2006059153A (en) Optical coordinate input device
RU2486575C1 (en) Device to create sensor surface
RU2514086C2 (en) Device for organisation of 3d user interface
JP2015170294A (en) Coordinate input device, control method therefore, and program

Legal Events

Date Code Title Description
MM4A The patent is invalid due to non-payment of fees

Effective date: 20160525