KR102281738B1 - Power sensitized smart lighting apparatus and method for providing smart lighting - Google Patents

Power sensitized smart lighting apparatus and method for providing smart lighting Download PDF

Info

Publication number
KR102281738B1
KR102281738B1 KR1020180130196A KR20180130196A KR102281738B1 KR 102281738 B1 KR102281738 B1 KR 102281738B1 KR 1020180130196 A KR1020180130196 A KR 1020180130196A KR 20180130196 A KR20180130196 A KR 20180130196A KR 102281738 B1 KR102281738 B1 KR 102281738B1
Authority
KR
South Korea
Prior art keywords
information
user
smart lighting
lighting device
sound
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
KR1020180130196A
Other languages
Korean (ko)
Other versions
KR20190047645A (en
Inventor
윤주현
이민구
손희진
민대원
박한누리
조성은
Original Assignee
서울대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 서울대학교산학협력단 filed Critical 서울대학교산학협력단
Publication of KR20190047645A publication Critical patent/KR20190047645A/en
Application granted granted Critical
Publication of KR102281738B1 publication Critical patent/KR102281738B1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F21LIGHTING
    • F21VFUNCTIONAL FEATURES OR DETAILS OF LIGHTING DEVICES OR SYSTEMS THEREOF; STRUCTURAL COMBINATIONS OF LIGHTING DEVICES WITH OTHER ARTICLES, NOT OTHERWISE PROVIDED FOR
    • F21V23/00Arrangement of electric circuit elements in or on lighting devices
    • F21V23/04Arrangement of electric circuit elements in or on lighting devices the elements being switches
    • F21V23/0442Arrangement of electric circuit elements in or on lighting devices the elements being switches activated by means of a sensor, e.g. motion or photodetectors

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Circuit Arrangement For Electric Light Sources In General (AREA)

Abstract

전력 감응형 스마트 조명 장치 및 스마트 조명 제공 방법을 제시하며, 전력 감응형 스마트조명장치는 스마트조명장치의 주변환경에 대한 시각적 환경정보인 이미지정보를 획득하고, 획득된 이미지정보를 분석하는 이미지분석부, 상기 주변환경에 대한 청각적 환경정보인 소리정보를 획득하고, 획득된 소리정보를 분석하는 소리분석부, 상기 사용자의 움직임을 감지하여 모션정보를 획득하는 모션획득부, 상기 환경정보 및 상기 모션정보에 기초하여 사용자의 행동패턴을 분석하는 행동패턴분석부 및 상기 전력을 감지하고, 상기 전력 및 상기 행동패턴에 기초하여 조명을 제어하는 조명제어부를 포함할 수 있다.A power-sensitive smart lighting device and a smart lighting providing method are presented, and the power-sensitive smart lighting device acquires image information, which is visual environmental information about the surrounding environment of the smart lighting device, and an image analysis unit that analyzes the obtained image information , a sound analysis unit that acquires sound information, which is auditory environment information about the surrounding environment, and analyzes the acquired sound information, a motion acquisition unit that obtains motion information by detecting the user's movement, the environment information and the motion It may include a behavior pattern analysis unit that analyzes the user's behavior pattern based on the information, and a lighting control unit that detects the power and controls lighting based on the power and the behavior pattern.

Description

전력 감응형 스마트 조명 장치 및 스마트 조명 제공 방법{POWER SENSITIZED SMART LIGHTING APPARATUS AND METHOD FOR PROVIDING SMART LIGHTING} POWER SENSITIZED SMART LIGHTING APPARATUS AND METHOD FOR PROVIDING SMART LIGHTING

본 명세서에서 개시되는 실시예들은 전력 감응형 스마트 조명 장치 및 스마트 조명 제공 방법에 관한 것으로, 보다 상세하게는 전력과 주변환경을 감지하여 사용자의 행동패턴을 분석하고, 사용자의 행동을 기록함과 동시에 사용자의 행동에 최적화된 조명을 제공하는 전력 감응형 스마트 조명 장치 및 스마트 조명 제공 방법에 관한 것이다.Embodiments disclosed herein relate to a power-sensitive smart lighting device and a method for providing smart lighting, and more particularly, by sensing power and the surrounding environment, analyzing the user's behavior pattern, recording the user's behavior, and simultaneously recording the user It relates to a power-sensitive smart lighting device that provides lighting optimized for the behavior of a person and a method for providing smart lighting.

최근 들어 SNS(Social network service)의 이용이 증가함에 따라 사용자 스스로 사용자의 활동 또는 모습을 카메라를 통해 촬영하여 기록하는 것이 일반적이 되었다. Recently, as the use of social network service (SNS) increases, it has become common for users to record their activities or appearances by using a camera.

특히, 사용자들은 일상생활의 이벤트를 빠르게 촬영하기 위해 핸드폰에 구비된 카메라를 이용하여 SNS에 업로드할 영상 또는 이미지를 촬영한다. In particular, users take pictures or images to be uploaded to SNS by using a camera provided in a mobile phone to quickly capture events of daily life.

하지만, 이와 같이 사용자가 수동으로 카메라를 조작하여 촬영하는 경우, 실제 사용자가 촬영을 원하는 시점을 놓치거나 자연스러운 모습을 촬영할 수 없다는 문제점이 있다. However, when the user manually manipulates the camera to take the picture, there is a problem in that the actual user misses the point of time the user wants to take a picture or cannot take a natural picture.

또한, 핸드폰에 구비된 카메라를 통해 촬영시 사용자의 행동 또는 동선에 따라 적절하게 조명을 제어하기 어렵다는 문제점이 있다. In addition, there is a problem in that it is difficult to properly control the lighting according to the user's behavior or movement when shooting through the camera provided in the mobile phone.

나아가 촬영시 예비전력 수준을 고려하여 능동적으로 조명의 밝기를 조절하여 효율적으로 조명을 제공할 수 없다는 문제점이 있다. Furthermore, there is a problem in that it is not possible to efficiently provide lighting by actively adjusting the brightness of the lighting in consideration of the reserve power level during photographing.

관련하여 선행기술 문헌인 한국특허공개번호 제10-2016-0133426 호에서는 LED 조명기구와 전구커버 및 기타 전기회로 제조 방법에 관한 것으로 프로그래밍 가능한 코팅설비를 이용한 코팅, 수동 코팅 또는 두 가지를 결합한 방식으로 회로층을 하우징 표면에 도포하여 하우징 위에 입체구조의 회로를 형성하는 기술에 대해 개시하고 있을 뿐, 상술된 바와 같은 문제점을 해결하지 못한다.In relation to this, in Korea Patent Publication No. 10-2016-0133426, which is a prior art document, it relates to a method for manufacturing an LED lighting device, a light bulb cover, and other electric circuits. Although the technology for forming a three-dimensional circuit on the housing by applying a circuit layer to the housing surface is disclosed, it does not solve the problems described above.

따라서 상술된 문제점을 해결하기 위한 기술이 필요하게 되었다.Therefore, there is a need for a technique for solving the above-mentioned problems.

한편, 전술한 배경기술은 발명자가 본 발명의 도출을 위해 보유하고 있었거나, 본 발명의 도출 과정에서 습득한 기술 정보로서, 반드시 본 발명의 출원 전에 일반 공중에게 공개된 공지기술이라 할 수는 없다.On the other hand, the above-mentioned background art is technical information that the inventor possessed for the derivation of the present invention or acquired during the derivation process of the present invention, and it cannot be said that it is necessarily a known technique disclosed to the general public before the filing of the present invention .

본 명세서에서 개시되는 실시예들은, 사용자의 행동을 감지하여 적절한 조명을 제공할 수 있는 전력 감응형 스마트 조명 장치 및 스마트 조명 제공 방법을 제시하는 데 목적이 있다. Embodiments disclosed herein have an object to provide a power-sensitive smart lighting device and a smart lighting providing method capable of providing appropriate lighting by sensing a user's behavior.

본 명세서에서 개시되는 실시예들은, 주변환경을 감지하여 적절한 조명을 제공할 수 있는 전력 감응형 스마트 조명 장치 및 스마트 조명 제공 방법을 제시하는 데 목적이 있다. Embodiments disclosed herein have an object to provide a power-sensitive smart lighting device and a smart lighting providing method capable of providing appropriate lighting by sensing the surrounding environment.

본 명세서에서 개시되는 실시예들은, 조명장치의 동작환경을 감지하여 최소한의 전력으로 동작하는 전력 감응형 스마트 조명 장치 및 스마트 조명 제공 방법을 제시하는 데 목적이 있다.Embodiments disclosed in the present specification have an object to provide a power-sensitive smart lighting device and a smart lighting providing method that sense the operating environment of the lighting device and operate with a minimum amount of power.

본 명세서에서 개시되는 실시예들은, 예비전력수준을 고려하여 능동적으로 제어되는 전력 감응형 스마트 조명 장치 및 스마트 조명 제공 방법을 제시하는데 목적이 있다. Embodiments disclosed herein have an object to provide a power-sensitive smart lighting device and a smart lighting providing method that are actively controlled in consideration of the reserve power level.

상술한 기술적 과제를 달성하기 위한 기술적 수단으로서, 일 실시예에 따르면, 전력 감응형 스마트조명장치에 있어서, 스마트조명장치의 주변환경에 대한 시각적 환경정보인 이미지정보를 획득하고, 획득된 이미지정보를 분석하는 이미지분석부, 상기 주변환경에 대한 청각적 환경정보인 소리정보를 획득하고, 획득된 소리정보를 분석하는 소리분석부, 상기 사용자의 움직임을 감지하여 모션정보를 획득하는 모션획득부, 상기 환경정보 및 상기 모션정보에 기초하여 사용자의 행동패턴을 분석하는 행동패턴분석부 및 상기 전력을 감지하고, 상기 전력 및 상기 행동패턴에 기초하여 조명을 제어하는 조명제어부를 포함할 수 있다. As a technical means for achieving the above-described technical problem, according to an embodiment, in the power-sensitive smart lighting device, image information that is visual environmental information about the surrounding environment of the smart lighting device is obtained, and the obtained image information is An image analysis unit to analyze, a sound analysis unit to obtain sound information that is auditory environment information about the surrounding environment, and a sound analysis unit to analyze the acquired sound information, a motion acquisition unit to obtain motion information by detecting the user's movement, the It may include a behavior pattern analysis unit that analyzes a user's behavior pattern based on the environmental information and the motion information, and a lighting control unit that detects the power and controls lighting based on the power and the behavior pattern.

다른 실시예에 따르면, 스마트조명장치가 전력 감응형 스마트조명을 제공하는 방법에 있어서, 상기 스마트조명장치의 주변환경에 대한 시각적 환경정보인 이미지정보 및 상기 주변환경에 대한 청각적 환경정보인 소리정보 중 적어도 하나를 획득하는 단계, 상기 사용자의 움직임을 식별하여 모션정보를 획득하는 단계, 상기 환경정보 및 상기 모션정보 중 적어도 하나에 기초하여 사용자의 행동패턴을 분석하는 단계 및 상기 전력을 감지하고, 상기 전력 및 상기 행동패턴에 기초하여 조명을 제어하는 단계를 포함할 수 있다.According to another embodiment, in a method for a smart lighting device to provide power-sensitive smart lighting, image information that is visual environmental information about the surrounding environment of the smart lighting device and sound information that is audible environmental information about the surrounding environment obtaining at least one of: obtaining motion information by identifying the movement of the user; analyzing the user's behavior pattern based on at least one of the environment information and the motion information; and detecting the power; It may include controlling the lighting based on the power and the behavior pattern.

또 다른 실시예에 따르면, 스마트조명제공방법을 수행하는 프로그램이 기록된 컴퓨터 판독이 가능한 기록매체로서, 상기 스마트조명장치의 주변환경에 대한 시각적 환경정보인 이미지정보 및 상기 주변환경에 대한 청각적 환경정보인 소리정보 중 적어도 하나를 획득하는 단계, 상기 사용자의 움직임을 식별하여 모션정보를 획득하는 단계, 상기 환경정보 및 상기 모션정보 중 적어도 하나에 기초하여 사용자의 행동패턴을 분석하는 단계 및 상기 전력을 감지하고, 상기 전력 및 상기 행동패턴에 기초하여 조명을 제어하는 단계를 포함할 수 있다.According to another embodiment, as a computer-readable recording medium on which a program for performing a smart lighting providing method is recorded, image information that is visual environmental information about the surrounding environment of the smart lighting device and an auditory environment for the surrounding environment obtaining at least one of sound information as information, obtaining motion information by identifying the user's movement, analyzing a user's behavior pattern based on at least one of the environment information and the motion information, and the power and controlling the lighting based on the power and the behavior pattern.

다른 실시예에 따르면, 스마트조명제공장치에 의해 수행되며, 스마트조명제공방법을 수행하기 위해 기록매체에 저장된 컴퓨터프로그램으로서, 상기 스마트조명장치의 주변환경에 대한 시각적 환경정보인 이미지정보 및 상기 주변환경에 대한 청각적 환경정보인 소리정보 중 적어도 하나를 획득하는 단계, 상기 사용자의 움직임을 식별하여 모션정보를 획득하는 단계, 상기 환경정보 및 상기 모션정보 중 적어도 하나에 기초하여 사용자의 행동패턴을 분석하는 단계 및 상기 전력을 감지하고, 상기 전력 및 상기 행동패턴에 기초하여 조명을 제어하는 단계를 포함할 수 있다.According to another embodiment, as a computer program stored in a recording medium to perform a smart lighting providing method and performed by a smart lighting providing device, image information that is visual environmental information about the surrounding environment of the smart lighting device and the surrounding environment Acquiring at least one of sound information, which is auditory environmental information for a , obtaining motion information by identifying the user's movement, analyzing a user's behavior pattern based on at least one of the environment information and the motion information and sensing the power, and controlling lighting based on the power and the behavior pattern.

전술한 과제 해결 수단 중 어느 하나에 의하면, 사용자의 행동을 감지하여 적절한 조명을 제공할 수 있는 전력 감응형 스마트 조명 장치 및 스마트 조명 제공 방법을 제공할 수 있다. According to any one of the above-mentioned problem solving means, it is possible to provide a power-sensitive smart lighting device and a smart lighting providing method capable of providing appropriate lighting by detecting a user's behavior.

전술한 과제 해결 수단 중 어느 하나에 의하면, 주변환경을 감지하여 적절한 조명을 제공할 수 있는 전력 감응형 스마트 조명 장치 및 스마트 조명 제공 방법을 제공할 수 있다.According to any one of the above-described problem solving means, it is possible to provide a power-sensitive smart lighting device and a smart lighting providing method capable of providing appropriate lighting by sensing the surrounding environment.

전술한 과제 해결 수단 중 어느 하나에 의하면, 조명장치의 동작환경을 감지하여 최소한의 전력으로 동작하는 전력 감응형 스마트 조명 장치 및 스마트 조명 제공 방법을 제공할 수 있다. According to any one of the above-mentioned problem solving means, it is possible to provide a power-sensitive smart lighting device and a smart lighting providing method that sense the operating environment of the lighting device and operate with a minimum amount of power.

전술한 과제 해결 수단 중 어느 하나에 의하면, 예비전력 수준을 고려하여 능동적으로 제어되는 전력 감응형 스마트 조명 장치 및 스마트 조명 제공 방법을 제공할 수 있다.According to any one of the above-described problem solving means, it is possible to provide a power-sensitive smart lighting device and a smart lighting providing method that are actively controlled in consideration of the reserve power level.

개시되는 실시예들에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 개시되는 실시예들이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.Effects obtainable in the disclosed embodiments are not limited to the above-mentioned effects, and other effects not mentioned are clear to those of ordinary skill in the art to which the embodiments disclosed from the description below belong. will be able to be understood

도 1은 일 실시예에 따른 스마트조명장치의 구성을 도시한 블록도이다.
도 2는 일 실시예에 따른 스마트조명제공방법을 설명하기 위한 순서도이다.
1 is a block diagram showing the configuration of a smart lighting device according to an embodiment.
2 is a flowchart illustrating a method for providing smart lighting according to an embodiment.

아래에서는 첨부한 도면을 참조하여 다양한 실시예들을 상세히 설명한다. 아래에서 설명되는 실시예들은 여러 가지 상이한 형태로 변형되어 실시될 수도 있다. 실시예들의 특징을 보다 명확히 설명하기 위하여, 이하의 실시예들이 속하는 기술분야에서 통상의 지식을 가진 자에게 널리 알려져 있는 사항들에 관해서 자세한 설명은 생략하였다. 그리고, 도면에서 실시예들의 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Hereinafter, various embodiments will be described in detail with reference to the accompanying drawings. The embodiments described below may be modified and implemented in various different forms. In order to more clearly describe the characteristics of the embodiments, detailed descriptions of matters widely known to those of ordinary skill in the art to which the following embodiments belong are omitted. In addition, in the drawings, parts irrelevant to the description of the embodiments are omitted, and similar reference numerals are attached to similar parts throughout the specification.

명세서 전체에서, 어떤 구성이 다른 구성과 "연결"되어 있다고 할 때, 이는 ‘직접적으로 연결’되어 있는 경우뿐 아니라, ‘그 중간에 다른 구성을 사이에 두고 연결’되어 있는 경우도 포함한다. 또한, 어떤 구성이 어떤 구성을 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한, 그 외 다른 구성을 제외하는 것이 아니라 다른 구성들을 더 포함할 수도 있음을 의미한다.Throughout the specification, when a component is said to be "connected" with another component, it includes not only the case where it is 'directly connected' but also the case where it is 'connected with another component in between'. In addition, when a component "includes" a component, it means that other components may be further included, rather than excluding other components, unless otherwise stated.

이하 첨부된 도면을 참고하여 실시예들을 상세히 설명하기로 한다.Hereinafter, embodiments will be described in detail with reference to the accompanying drawings.

도 1은 일 실시예에 따른 스마트조명장치(10)를 설명하기 위한 블록도이다.1 is a block diagram for explaining a smart lighting device 10 according to an embodiment.

스마트조명장치(10)는 전력을 감지하고, 가용가능한 전력에 따라 스마트조명장치(10)에 구비된 사용자를 촬영할 수 있는 카메라와 빛을 발광하는 조명장치 그리고 주변환경을 감지할 수 있는 센서 등을 제어하는 조명기구로 사용자의 행동을 감지하여 사용자의 행동패턴을 분석하고, 분석된 행동패턴에 기초하여 능동적으로 조명을 조절하면서 사용자를 촬영할 수 있다.The smart lighting device 10 detects power, and according to the available power, a camera capable of photographing a user provided in the smart lighting device 10, a lighting device emitting light, and a sensor capable of detecting the surrounding environment, etc. By sensing the user's behavior with the controlling lighting device, the user's behavioral pattern is analyzed, and the user can be photographed while actively adjusting the lighting based on the analyzed behavioral pattern.

또한, 스마트조명장치(10)는 예비전력을 감지하고, 예비전력 수준을 고려하여 능동적으로 밝기를 조절할 수 있다. In addition, the smart lighting device 10 may sense the reserve power and actively adjust the brightness in consideration of the reserve power level.

스마트조명장치(10)는 네트워크(N)를 통해 원격지의 서버에 접속하거나, 타 단말 및 서버와 연결 가능할 수 있으며, 컴퓨터나 휴대용 단말기, 텔레비전, 웨어러블 디바이스(Wearable Device) 등과 연결될 수 있다. 여기서, 컴퓨터는 예를 들어, 웹 브라우저(WEB Browser)가 탑재된 노트북, 데스크톱(desktop), 랩톱(laptop)등을 포함하고, 휴대용 단말기는 예를 들어, 휴대성과 이동성이 보장되는 무선 통신 장치로서, PCS(Personal Communication System), PDC(Personal Digital Cellular), PHS(Personal Handyphone System), PDA(Personal Digital Assistant), GSM(Global System for Mobile communications), IMT(International Mobile Telecommunication)-2000, CDMA(Code Division Multiple Access)-2000, W-CDMA(W-Code Division Multiple Access), Wibro(Wireless Broadband Internet), 스마트폰(Smart Phone), 모바일 WiMAX(Mobile Worldwide Interoperability for Microwave Access) 등과 같은 모든 종류의 핸드헬드(Handheld) 기반의 무선 통신 장치를 포함할 수 있다. 또한, 텔레비전은 IPTV(Internet Protocol Television), 인터넷 TV(Internet Television), 지상파 TV, 케이블 TV 등을 포함할 수 있다. 나아가 웨어러블 디바이스는 예를 들어, 시계, 안경, 액세서리, 의복, 신발 등 인체에 직접 착용 가능한 타입의 정보처리장치로서, 직접 또는 다른 정보처리장치를 통해 네트워크를 경유하여 원격지의 서버에 접속하거나 타 단말과 연결될 수 있다.The smart lighting device 10 may be connected to a remote server through the network N, or may be connected to other terminals and servers, and may be connected to a computer, a portable terminal, a television, a wearable device, and the like. Here, the computer includes, for example, a laptop, a desktop, and a laptop equipped with a web browser, and the portable terminal is, for example, a wireless communication device that ensures portability and mobility. , PCS (Personal Communication System), PDC (Personal Digital Cellular), PHS (Personal Handyphone System), PDA (Personal Digital Assistant), GSM (Global System for Mobile communications), IMT (International Mobile Telecommunication)-2000, CDMA (Code) All kinds of handhelds such as Division Multiple Access)-2000, W-Code Division Multiple Access (W-CDMA), Wireless Broadband Internet (Wibro), Smart Phone, Mobile Worldwide Interoperability for Microwave Access (WiMAX), etc. It may include a (Handheld)-based wireless communication device. In addition, the television may include IPTV (Internet Protocol Television), Internet TV (Internet Television), terrestrial TV, cable TV, and the like. Furthermore, the wearable device is, for example, a type of information processing device that can be worn directly on the human body, such as watches, glasses, accessories, clothes, shoes, etc. can be connected with

그리고 스마트조명장치(10)는 사용자의 단말에 연결될 수 있으며, 전력상태정보를 송수신할 수 있다. And the smart lighting device 10 may be connected to the user's terminal, and may transmit and receive power state information.

도 1을 참조하면, 일 실시예에 따른 스마트조명장치(10)는, 입출력부(110), 제어부(120), 통신부(130) 및 메모리(140)를 포함할 수 있다.Referring to FIG. 1 , a smart lighting device 10 according to an embodiment may include an input/output unit 110 , a control unit 120 , a communication unit 130 , and a memory 140 .

입출력부(110)는 스마트조명장치(10)의 주변 이미지 또는 주변 소리를 획득하거나 물체의 움직임을 감지하는 입력부를 포함할 수 있으며, 빛을 방출하는 출력부를 포함할 수 있다. The input/output unit 110 may include an input unit for acquiring a surrounding image or surrounding sound of the smart lighting device 10 or sensing the movement of an object, and may include an output unit for emitting light.

예를 들어, 입출력부(110)는 입력부로 주변을 촬영하는 카메라, 주변의 소리를 획득하는 마이크 및 온도, 움직임, 열, 빛 등의 주변의 환경적 요소를 감지하는 센서 등을 포함할 수 있으며, 출력부로 LED, 할로겐등, 백열등, 형광등 등을 광원으로 하는 조명을 포함할 수 있다.For example, the input/output unit 110 may include a camera that captures the surroundings as an input unit, a microphone that acquires surrounding sounds, and a sensor that detects environmental factors such as temperature, movement, heat, and light. , the output unit may include lighting using an LED, a halogen lamp, an incandescent lamp, a fluorescent lamp, or the like as a light source.

다만, 이에 한정되지 않고 입출력부(110)는 다양한 입출력을 지원하는 구성을 포함할 수 있다.However, the present invention is not limited thereto, and the input/output unit 110 may include a configuration supporting various input/output.

제어부(120)는 스마트조명장치(10)의 전체적인 동작을 제어하며, CPU 등과 같은 프로세서를 포함할 수 있다. 제어부(120)는 스마트조명장치(10)에 포함된 다른 구성들을 제어할 수 있다.The controller 120 controls the overall operation of the smart lighting device 10, and may include a processor such as a CPU. The controller 120 may control other components included in the smart lighting device 10 .

예를 들어, 제어부(120)는 메모리(140)에 저장된 프로그램을 실행시키거나, 메모리(140)에 저장된 파일을 읽어오거나, 새로운 파일을 메모리(140)에 저장할 수도 있다.For example, the controller 120 may execute a program stored in the memory 140 , read a file stored in the memory 140 , or store a new file in the memory 140 .

이러한 제어부(120)는 이미지분석부(121), 소리분석부(122), 모션획득부(123), 행동패턴분석부(124) 및 조명제어부(125)를 포함할 수 있다.The control unit 120 may include an image analysis unit 121 , a sound analysis unit 122 , a motion acquisition unit 123 , a behavior pattern analysis unit 124 , and a lighting control unit 125 .

우선, 이미지분석부(121)는 스마트조명장치(10)의 주변환경에 대한 시각적 환경정보인 이미지정보를 획득할 수 있다. First, the image analysis unit 121 may acquire image information, which is visual environmental information about the surrounding environment of the smart lighting device 10 .

예를 들어, 이미지분석부(121)는 카메라를 통해 스마트조명장치(10)가 배치된 주변환경을 촬영한 동영상 또는 이미지 중 적어도 하나의 형태로 이미지정보를 획득할 수 있다. For example, the image analysis unit 121 may acquire the image information in the form of at least one of a video or an image of the surrounding environment in which the smart lighting device 10 is disposed through a camera.

그리고 이미지분석부(121)는 획득된 이미지정보를 분석하여 이미지정보 내의 객체를 식별할 수 있다. And the image analysis unit 121 may analyze the acquired image information to identify the object in the image information.

예를 들어, 이미지분석부(121)는 이미지 내의 사용자의 얼굴을 식별할 수 있고, 식별된 사용자의 얼굴을 기준으로 일정한 범위 내에서 사용자의 손을 식별할 수 있다. For example, the image analysis unit 121 may identify the user's face in the image, and may identify the user's hand within a certain range based on the identified user's face.

또는 예를 들어, 이미지분석부(121)는 기 저장된 책, 노트, 연필 등과 같은 물건의 패턴에 기초하여 이미지 내의 물건을 탐색하여 식별할 수 있다.Alternatively, for example, the image analysis unit 121 may identify and search for an object in an image based on a pattern of a pre-stored object such as a book, note, or pencil.

그리고 예를 들어, 이미지분석부(121)는 이미지의 밝기를 기초로 스마트조명장치(10)가 배치된 위치의 밝기와 빛의 방향 등을 식별할 수 있다. And, for example, the image analysis unit 121 may identify the brightness of the location where the smart lighting device 10 is disposed, the direction of light, etc. based on the brightness of the image.

그리고 소리분석부(122)는 주변환경에 대한 청각적 환경정보인 소리정보를 획득할 수 있다. In addition, the sound analysis unit 122 may acquire sound information, which is auditory environment information about the surrounding environment.

예를 들어, 소리분석부(122)는 스마트조명장치(10)에 구비된 마이크를 통해 스마트조명장치(10)의 주변환경의 소리를 녹음하여 소리정보를 획득할 수 있다. For example, the sound analysis unit 122 may acquire sound information by recording the sound of the surrounding environment of the smart lighting device 10 through a microphone provided in the smart lighting device 10 .

이후 소리분석부(122)는 획득된 소리정보를 분석할 수 있다. Thereafter, the sound analysis unit 122 may analyze the acquired sound information.

예를 들어, 소리분석부(122)는 획득된 소리정보를 주파수 영역으로 변환하여 사람의 음역대에 해당하는 주파수를 식별하여 사용자의 음성을 추출할 수 있고, 추출된 사용자의 음성에 포함된 단어를 분석할 수 있다. For example, the sound analysis unit 122 converts the acquired sound information into a frequency domain to identify a frequency corresponding to a human voice range to extract the user's voice, and to extract the word included in the extracted user's voice. can be analyzed.

또는 예를 들어, 소리분석부(122)는 획득된 소리정보로부터 사용자의 행동에 따라 발생되는 소리인 필기하는 소리, 컴퓨터 키보드 소리 등을 분류하여 각각 식별할 수 있다.Alternatively, for example, the sound analysis unit 122 may classify and identify sounds generated according to the user's actions, such as a handwriting sound, a computer keyboard sound, and the like, from the acquired sound information.

그리고 모션획득부(123)는 사용자의 행동을 식별하여 모션정보를 획득할 수 있다. In addition, the motion acquisition unit 123 may acquire motion information by identifying the user's behavior.

예를 들어, 모션획득부(123)는 사용자의 행동을 감지할 수 있는 키네틱 장치를 이용하여 사용자의 행동을 감지할 수 있고, 사용자의 행동을 감지하면 사용자의 시선 방향, 손의 움직임 등을 기록한 모션정보를 획득할 수 있다. For example, the motion acquisition unit 123 may detect the user's action using a kinetic device capable of detecting the user's action, and when detecting the user's action, the user's gaze direction, hand movement, etc. are recorded. Motion information can be obtained.

그리고 행동패턴분석부(124)는 스마트조명장치의 주변환경을 카메라 또는 센서 등을 이용하여 감지한 정보인 이미지정보, 소리정보 중 적어도 하나를 포함하는 환경정보와 모션정보에 기초하여 사용자의 행동패턴을 분석할 수 있다. And the behavior pattern analysis unit 124 is the user's behavior pattern based on the environmental information and motion information including at least one of image information and sound information, which is information detected by using a camera or a sensor, the surrounding environment of the smart lighting device. can be analyzed.

우선, 행동패턴분석부(124)는 환경정보 및 모션정보 중 적어도 하나를 기초로 사용자의 행동을 결정할 수 있다.First, the behavior pattern analysis unit 124 may determine the user's behavior based on at least one of environmental information and motion information.

하나의 실시예에 따라, 행동패턴분석부(124)는 사용자의 위치와 식별된 객체를 기초로 사용자의 행동을 결정할 수 있다. According to one embodiment, the behavior pattern analysis unit 124 may determine the user's behavior based on the user's location and the identified object.

예를 들어, 이미지정보로부터 책상과 책이 식별되고, 사용자의 얼굴이 책상으로부터 일정 거리내에 위치한 것으로 식별되면, 행동패턴분석부(124)는 사용자의 행동이 책을 읽는 것으로 결정할 수 있다. For example, when a desk and a book are identified from the image information and the user's face is identified as being located within a predetermined distance from the desk, the behavior pattern analysis unit 124 may determine that the user's action is reading a book.

다른 실시예에 따라, 행동패턴분석부(124)는 사용자의 음성 또는 주변환경 소리를 기초로 사용자의 행동을 결정할 수 있다. According to another embodiment, the behavior pattern analysis unit 124 may determine the user's behavior based on the user's voice or the sound of the surrounding environment.

예를 들어, 소리정보로부터 추출된 사용자의 음성에 포함된 단어가 식별되면, 행동패턴분석부(124)는 사용자의 음성에 포함된 단어의 의미를 분석하여 사용자가 영어단어를 암기하는지 또는 사용자가 음악을 듣는지를 결정할 수 있다. For example, when a word included in the user's voice extracted from the sound information is identified, the behavior pattern analysis unit 124 analyzes the meaning of the word included in the user's voice to determine whether the user memorizes the English word or if the user You can decide whether to listen to music or not.

또 다른 실시예에 따라, 행동패턴분석부(124)는 모션정보와 환경정보를 기초로 사용자의 행동을 결정할 수 있다. According to another embodiment, the behavior pattern analysis unit 124 may determine the user's behavior based on the motion information and the environment information.

예를 들어, 행동패턴분석부(124)는 모션정보를 기초로 사용자의 손의 움직임을 분석하여 사용자의 행동을 노트필기로 결정할 수 있다. For example, the behavior pattern analysis unit 124 may analyze the motion of the user's hand based on the motion information and determine the user's behavior as taking notes.

또는 행동패턴분석부(124)는 이미지정보, 소리정보 및 모션정보 각각을 조합하여 사용자의 행동을 결정할 수 있다.Alternatively, the behavior pattern analysis unit 124 may determine the user's behavior by combining each of image information, sound information, and motion information.

예를 들어, 이미지정보에서 책상과 책이 식별되고, 소리정보로부터 필기 소리가 식별되면, 행동패턴분석부(124)는 사용자가 공부를 하고 있는 것으로 행동을 결정할 수 있다. For example, when a desk and a book are identified from the image information and a handwriting sound is identified from the sound information, the behavior pattern analysis unit 124 may determine the behavior that the user is studying.

이후, 행동패턴분석부(124)는 결정된 사용자의 행동을 기계학습할 수 있고, 기계학습된 결과에 시간대별 사용자의 행동패턴을 분석할 수 있다. Then, the behavior pattern analysis unit 124 may machine-learning the determined user's behavior, and may analyze the user's behavior pattern for each time period based on the machine-learning result.

이때, 실시예에 따라 행동패턴분석부(124)는 이미지정보, 소리정보 및 모션정보 중 적어도 하나에 기초하여 결정된 사용자 행동을 기계학습할 수 있고, 학습결과에 기초하여 시간대별 사용자의 행동을 기계학습할 수 있고, 학습된 결과에 기초하여 사용자의 행동패턴을 분석할 수 있다.In this case, according to an embodiment, the behavior pattern analysis unit 124 may machine-lear a user behavior determined based on at least one of image information, sound information, and motion information, and based on the learning result, machine-learning user behavior for each time period. It can learn, and the user's behavior pattern can be analyzed based on the learned result.

예를 들어, 행동패턴분석부(124)는 시간대별로 사용자의 행동을 딥러닝하여 사용자의 행동을 학습할 수 있고, 시간대별로 사용자의 행동패턴을 분석할 수 있다. 즉, 행동패턴분석부(124)는 평일 저녁 시간대에 사용자의 행동 중 책 읽기의 비율이 기 설정된 값을 초과하면, 평일 저녁 시간대에 사용자는 책을 읽는 것으로 사용자의 행동패턴을 결정할 수 있다. For example, the behavior pattern analysis unit 124 may learn the user's behavior by deep learning the user's behavior for each time period, and may analyze the user's behavior pattern for each time period. That is, the behavioral pattern analysis unit 124 may determine the user's behavioral pattern by reading a book during the weekday evening when the ratio of reading a book among the user's actions exceeds a preset value during the evening on weekdays.

또는 예를 들어, 아침 6 시에 사용자의 움직임이 있는 경우, 행동패턴분석부(124)는 사용자가 오전 6 시에 기상하는 행동패턴을 분석할 수 있다. Or, for example, when there is a movement of the user at 6 am, the behavior pattern analysis unit 124 may analyze the behavior pattern in which the user wakes up at 6 am.

그리고 행동패턴분석부(124)는 사용자의 행동패턴에 기초하여 사용자에 대한 이미지정보, 소리정보 및 모션정보를 후술할 메모리(140)에 저장할 수 있다.In addition, the behavior pattern analysis unit 124 may store image information, sound information, and motion information about the user in the memory 140 to be described later on the basis of the behavior pattern of the user.

이때, 행동패턴분석부(124)는 실시예에 따라 전력상태정보를 획득하고, 상기 전력상태정보에 기초하여 상기 사용자의 이미지정보 및 상기 소리정보 중 적어도 하나의 저장여부를 달리할 수 있다. In this case, the behavioral pattern analysis unit 124 may obtain power state information according to an embodiment, and determine whether to store at least one of the user's image information and the sound information based on the power state information.

예를 들어, 행동패턴분석부(124)는 사용자의 행동이 공부로 결정되면 사용자가 촬영된 이미지정보와 사용자의 음성이 포함된 소리정보 그리고 사용자의 자세에 대한 모션정보를 저장할 수 있다. For example, when the behavior of the user is determined to be studied, the behavior pattern analysis unit 124 may store image information captured by the user, sound information including the user's voice, and motion information about the user's posture.

이를 통해 사용자가 무의식적으로 남긴 노트필기나 관심있게 읽은 책의 한 페이지와 같이 소소한 일들을 기록할 수 있고, 사용자의 필기 습관, 평균적으로 머무는 시간, 주로 하는 행위 등을 기록함으로서 공부 습관에 대한 개선점을 분석할 수 있으며, 책읽기, 인터넷 사용 시간과 같이 개인의 라이프스타일의 패턴도 파악할 수 있다.Through this, it is possible to record small things such as taking notes left by the user unconsciously or a page of a book read with interest, and to improve study habits by recording the user's writing habits, average time spent, and main activities. You can analyze it, and you can also find out patterns in your lifestyle, such as time spent reading books and using the Internet.

한편, 조명제어부(125)는 분석된 사용자의 행동패턴에 감응하여 조명을 제어할 수 있다. On the other hand, the lighting control unit 125 may control the lighting in response to the analyzed behavior pattern of the user.

예를 들어, 조명제어부(125)는 사용자의 행동패턴에 감응하여 사용자의 행동패턴에 의하면, 현재시간이 사용자가 책을 읽는 시간인 경우 조명의 강도를 높일 수 있으며, 사용자의 행동패턴이 휴식인 경우 조명의 강도를 낮출 수 있다. For example, the lighting control unit 125 may respond to the user's behavior pattern and, according to the user's behavior pattern, increase the intensity of lighting when the current time is the time the user reads a book, and the user's behavior pattern is rest. In some cases, you can lower the intensity of the light.

이때, 조명제어부(125)는 추가적으로 사용자의 주변환경 조도에 감응하여 조명을 제어할 수 있다. In this case, the lighting control unit 125 may additionally control the lighting in response to the user's ambient illuminance.

예를 들어, 조명제어부(125)는 이미지정보로부터 식별된 조도를 기초로 사용자의 주변환경의 밝기를 기준으로 책읽기에 적합한 밝기가 되도록 조명의 강도를 제어할 수 있다. For example, the lighting control unit 125 may control the intensity of the lighting so that the brightness is suitable for reading a book based on the brightness of the user's surrounding environment based on the illuminance identified from the image information.

또는 예를 들어, 조명제어부(125)는 사용자가 오전 6시에 기상하는 행동패턴에 따라 오전 6시에 조명을 동작시켜 사용자의 주변환경 밝기를 높일 수 있다. Or, for example, the lighting control unit 125 may increase the brightness of the user's surrounding environment by operating the light at 6 am according to the behavior pattern of the user waking up at 6 am.

이를 통해, 사용자의 행동패턴에 감응하여 조명을 적절하게 제어함으로써 사용자의 행동에 따라 주변환경의 밝기를 최적으로 맞출 수 있다. Through this, by appropriately controlling the lighting in response to the user's behavior pattern, the brightness of the surrounding environment can be optimally adjusted according to the user's behavior.

이때, 조명제어부(125)는 추가적으로 전력을 감지하여 적응적으로 조명을 제어할 수 있다. In this case, the lighting control unit 125 may additionally sense power to adaptively control the lighting.

예를 들어, 조명제어부(125)는 예비전력을 감지할 수 있고, 예비전력이 기 설정된 값 이하인 경우, 동일한 사용자의 행동패턴에 따라 제어되는 조명의 밝기에 비해 20% 밝기를 낮추어 조명을 제어할 수 있다. For example, the lighting control unit 125 may detect the reserve power, and when the reserve power is less than or equal to a preset value, control the lighting by lowering the brightness by 20% compared to the brightness of the lighting controlled according to the behavior pattern of the same user. can

한편, 통신부(130)는 다른 디바이스 또는 네트워크와 유무선 통신을 수행할 수 있다. 이를 위해, 통신부(130)는 다양한 유무선 통신 방법 중 적어도 하나를 지원하는 통신 모듈을 포함할 수 있다. 예를 들어, 통신 모듈은 칩셋(chipset)의 형태로 구현될 수 있다.Meanwhile, the communication unit 130 may perform wired/wireless communication with other devices or networks. To this end, the communication unit 130 may include a communication module supporting at least one of various wired and wireless communication methods. For example, the communication module may be implemented in the form of a chipset.

통신부(130)가 지원하는 무선 통신은, 예를 들어 Wi-Fi(Wireless Fidelity), Wi-Fi Direct, 블루투스(Bluetooth), UWB(Ultra Wide Band) 또는 NFC(Near Field Communication) 등일 수 있다. 또한, 통신부(130)가 지원하는 유선 통신은, 예를 들어 USB 또는 HDMI(High Definition Multimedia Interface) 등일 수 있다.The wireless communication supported by the communication unit 130 may be, for example, Wireless Fidelity (Wi-Fi), Wi-Fi Direct, Bluetooth, Ultra Wide Band (UWB), or Near Field Communication (NFC). In addition, the wired communication supported by the communication unit 130 may be, for example, USB or High Definition Multimedia Interface (HDMI).

메모리(140)에는 파일, 어플리케이션 및 프로그램 등과 같은 다양한 종류의 데이터가 설치 및 저장될 수 있다. 제어부(120)는 메모리(140)에 저장된 데이터에 접근하여 이를 이용하거나, 또는 새로운 데이터를 메모리(140)에 저장할 수도 있다. 또한, 제어부(120)는 메모리(140)에 설치된 프로그램을 실행할 수도 있다. 도 1을 참조하면, 메모리(140)에는 스마트조명제공방법을 수행하기 위한 프로그램이 설치될 수 있다.Various types of data such as files, applications, and programs may be installed and stored in the memory 140 . The controller 120 may access and use data stored in the memory 140 , or may store new data in the memory 140 . Also, the controller 120 may execute a program installed in the memory 140 . Referring to FIG. 1 , a program for performing a smart lighting providing method may be installed in the memory 140 .

이러한 메모리(140)는 이미지정보, 소리정보 및 모션정보 중 적어도 하나를 저장할 수 있다. The memory 140 may store at least one of image information, sound information, and motion information.

도 2 은 일 실시예에 따른 스마트조명제공방법을 설명하기 위한 순서도이다. 2 is a flowchart illustrating a method for providing smart lighting according to an embodiment.

도 2 에 도시된 실시예에 따른 스마트조명제공방법은 도 1 에 도시된 스마트조명장치(10)에서 시계열적으로 처리되는 단계들을 포함한다. 따라서, 이하에서 생략된 내용이라고 하더라도 도 1 에 도시된 스마트조명장치(10)에 관하여 이상에서 기술한 내용은 도 2 에 도시된 실시예에 따른 스마트조명제공방법에도 적용될 수 있다.The smart lighting providing method according to the embodiment shown in FIG. 2 includes steps processed in time series in the smart lighting device 10 shown in FIG. 1 . Therefore, even if omitted below, the contents described above with respect to the smart lighting device 10 shown in FIG. 1 can also be applied to the smart lighting providing method according to the embodiment shown in FIG. 2 .

우선, 스마트조명장치(10)는 주변환경에 대한 정보인 환경정보를 획득할 수 있다(S2001). First, the smart lighting device 10 may acquire environmental information, which is information about the surrounding environment (S2001).

예를 들어, 스마트조명장치(10)는 구비된 카메라를 통해 주변환경을 촬영할 수 있고, 촬영된 영상 또는 이미지를 환경정보 중 시각적 정보인 이미지정보로서 획득할 수 있다. For example, the smart lighting device 10 may photograph the surrounding environment through the provided camera, and may acquire the captured image or image as image information that is visual information among the environment information.

또는 예를 들어, 스마트조명장치(10)는 구비된 마이크를 이용하여 소리를 녹음하여 환경정보 중 청각적 정보인 소리정보를 획득할 수 있다.Or, for example, the smart lighting device 10 may acquire sound information, which is auditory information, among environmental information by recording a sound using an provided microphone.

이때, 실시예에 따라 스마트조명장치(10)는 사용자의 움직임을 감지하여 모션정보를 획득할 수 있다. In this case, according to an embodiment, the smart lighting device 10 may acquire motion information by detecting the user's movement.

예를 들어, 스마트조명장치(10)는 움직임을 감지하는 키네틱 장치를 구비할 수 있으며, 구비된 키네틱 장치를 이용하여 사용자의 움직임을 감지하면 사용자의 모션정보를 획득할 수 있다. For example, the smart lighting device 10 may include a kinetic device for detecting a motion, and if the motion of the user is detected using the provided kinetic device, the user's motion information may be acquired.

그리고 스마트조명장치(10)는 S2001단계에서 획득된 환경정보 및 모션정보 중 적어도 하나를 분석할 수 있다(S2002).And the smart lighting device 10 may analyze at least one of the environmental information and the motion information obtained in step S2001 (S2002).

즉, 스마트조명장치(10)는 이미지정보 및 소리정보 중 적어도 하나를 분석할 수 있다. That is, the smart lighting device 10 may analyze at least one of image information and sound information.

하나의 실시예에 따라, 스마트조명장치(10)는 이미지정보에 포함된 객체를 식별할 수 있다. According to one embodiment, the smart lighting device 10 may identify an object included in the image information.

예를 들어, 스마트조명장치(10)는 이미지정보를 기초로 패턴매칭을 통해 이미지정보에 포함된 물건으로 책상, 책, 노트, 연필 등을 식별할 수 있다. For example, the smart lighting device 10 may identify a desk, a book, a notebook, a pencil, etc. as an object included in the image information through pattern matching based on the image information.

또는 예를 들어, 스마트조면장치(10)는 이미지정보에 포함된 사용자의 얼굴, 손 등 신체를 식별할 수 있다.Or, for example, the smart ginning device 10 may identify the user's face, hand, etc. body included in the image information.

다른 실시예에 따라, 스마트조명장치(10)는 소리정보에 포함된 소리를 분석할 수 있다. According to another embodiment, the smart lighting device 10 may analyze the sound included in the sound information.

예를 들어, 스마트조명장치(10)는 소리정보를 주파수 영역으로 변환하여 사람의 음역대에 포함된 주파수에 대응되는 소리를 추출할 수 있고, 추출된 소리에 대응되는 사용자의 음성을 식별할 수 있다.For example, the smart lighting device 10 may convert sound information into a frequency domain to extract a sound corresponding to a frequency included in a human voice range, and identify a user's voice corresponding to the extracted sound. .

또는 예를 들어, 스마트조명장치(10)는 버튼 클릭 소리 또는 필기 소리 등과 같이 기 저장된 소리정보를 기초로 S2001 단계에서 획득된 소리정보에 포함된 소리를 식별할 수 있다. Or, for example, the smart lighting device 10 may identify a sound included in the sound information obtained in step S2001 based on pre-stored sound information, such as a button click sound or a handwriting sound.

또한, 스마트조명장치(10)는 S2001 단계에서 획득된 모션정보에 기초하여 사용자의 움직임을 식별할 수 있다.In addition, the smart lighting device 10 may identify the user's movement based on the motion information obtained in step S2001.

예를 들어, 스마트조명장치(10)는 모션정보에 포함된 사용자의 머리, 몸, 손, 다리의 위치를 기초로 사용자의 자세를 식별할 수 있다. For example, the smart lighting device 10 may identify the user's posture based on the positions of the user's head, body, hands, and legs included in the motion information.

그리고 스마트조명장치(10)는 모션정보 및 환경정보 중 적어도 하나에 기초하여 사용자의 행동패턴을 분석할 수 있다(S2003). And the smart lighting device 10 may analyze the user's behavior pattern based on at least one of motion information and environment information (S2003).

예를 들어, S2002단계에서 식별된 사용자의 얼굴이 책상으로부터 일정 거리내에 위치하고, 필기소리가 식별되면, 스마트조명장치(10)는 사용자가 공부를 하고 있는 것으로 사용자의 행동을 식별할 수 있다. For example, when the user's face identified in step S2002 is located within a certain distance from the desk and the handwriting sound is identified, the smart lighting device 10 may identify the user's behavior as the user is studying.

또는 예를 들어, S2002단계에서 모니터와 버튼 클릭 소리 등이 식별되면, 스마트조명장치(10)는 사용자가 컴퓨터를 사용하는 것으로 식별할 수 있다. Or, for example, when the monitor and the button click sound are identified in step S2002, the smart lighting device 10 may identify that the user is using a computer.

이후, 스마트조명장치(10)는 시간대별로 식별된 사용자의 기계행동을 학습할 수 있고, 기계학습결과를 이용하여 사용자의 행동패턴을 분석할 수 있다. Thereafter, the smart lighting device 10 may learn the user's machine behavior identified for each time period, and may analyze the user's behavior pattern using the machine learning result.

예를 들어, 스마트조명장치(10)는 사용자의 행동을 컴퓨터 이용, 공부, 수면 등으로 분류할 수 있고, 시간대별 사용자의 행동에 기초하여 시간대별 사용자의 행동패턴을 분석할 수 있다. For example, the smart lighting device 10 may classify the user's behavior into computer use, study, sleep, etc., and may analyze the user's behavioral pattern for each time period based on the user's behavior for each time period.

그리고 스마트조명장치(10)는 분석된 사용자 행동패턴에 따라 조명을 제어할 수 있다(S2004). And the smart lighting device 10 may control the lighting according to the analyzed user behavior pattern (S2004).

스마트조명장치(10)는 분석된 사용자의 행동에 감응하여 조명의 강도를 적응적으로 조절할 수 있다.The smart lighting device 10 may adaptively adjust the intensity of lighting in response to the analyzed user's behavior.

예를 들어, 사용자가 필기를 하면, 스마트조명장치(10)는 사용자의 필기내용을 쉽게 식별할 수 있도록 조명의 강도를 높일 수 있으며, 조명의 방향이 노트가 위치한 영역으로 향하도록 조절할 수 있다. For example, when the user takes notes, the smart lighting device 10 may increase the intensity of the lighting so that the user's handwriting can be easily identified, and the direction of the lighting may be adjusted to be directed to the area where the notes are located.

또는 예를 들어, 스마트조명장치(10)는 사용자의 행동패턴에 따라 수면시간에 해당되면 조명의 강도를 낮출 수 있다. Or, for example, the smart lighting device 10 may lower the intensity of lighting when it corresponds to the sleep time according to the user's behavior pattern.

그리고 스마트조명장치(10)는 전력상태정보를 획득하고, 전력상태정보에 기초하여 사용자의 이미지정보 및 상기 소리정보 중 적어도 하나의 저장할 수 있다(S2005). In addition, the smart lighting device 10 may acquire power state information and store at least one of the user's image information and the sound information based on the power state information (S2005).

즉, 스마트조명장치(10)는 S2004단계에서 사용자의 행동에 따라 조명을 제어하여 사용자의 행동에 대한 이미지정보 및 소리정보 중 적어도 하나를 저장하되, 전력상태에 따라 저장여부를 달리할 수 있다. That is, the smart lighting device 10 stores at least one of image information and sound information about the user's behavior by controlling the lighting according to the user's behavior in step S2004, but whether to store it differently depending on the power state.

예를 들어, 예비전력이 충분한 경우, 스마트조명장치(10)는 사용자의 자세와 사용자의 필기내용 등을 실시간으로 모두 저장할 수 있다. For example, when the reserve power is sufficient, the smart lighting device 10 may store both the user's posture and the user's handwriting in real time.

또는 예를 들어, 예비전력이 충분하지 않은 경우, 사용자가 수면을 하는 것으로 식별되면, 스마트조명장치(10)는 사용자의 수면 자세와 소리 등의 일부만을 저장할 수 있다. Or, for example, when the reserve power is insufficient, when it is identified that the user is sleeping, the smart lighting device 10 may store only a part of the user's sleeping posture and sound.

이상의 실시예들에서 사용되는 '~부'라는 용어는 소프트웨어 또는 FPGA(field programmable gate array) 또는 ASIC 와 같은 하드웨어 구성요소를 의미하며, '~부'는 어떤 역할들을 수행한다. 그렇지만 '~부'는 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. '~부'는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 '~부'는 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램특허 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들, 및 변수들을 포함한다.The term '~ unit' used in the above embodiments means software or hardware components such as field programmable gate array (FPGA) or ASIC, and '~ unit' performs certain roles. However, '-part' is not limited to software or hardware. The '~ unit' may be configured to reside on an addressable storage medium or may be configured to refresh one or more processors. Thus, as an example, '~' denotes components such as software components, object-oriented software components, class components, and task components, and processes, functions, properties, and procedures. , subroutines, segments of program patent code, drivers, firmware, microcode, circuitry, data, databases, data structures, tables, arrays, and variables.

구성요소들과 '~부'들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 '~부'들로 결합되거나 추가적인 구성요소들과 '~부'들로부터 분리될 수 있다.Functions provided in components and '~ units' may be combined into a smaller number of components and '~ units' or separated from additional components and '~ units'.

뿐만 아니라, 구성요소들 및 '~부'들은 디바이스 또는 보안 멀티미디어카드 내의 하나 또는 그 이상의 CPU 들을 재생시키도록 구현될 수도 있다.In addition, components and '~ units' may be implemented to play one or more CPUs in a device or secure multimedia card.

도 2 를 통해 설명된 실시예에 따른 스마트조명제어방법은 컴퓨터에 의해 실행 가능한 명령어 및 데이터를 저장하는, 컴퓨터로 판독 가능한 매체의 형태로도 구현될 수 있다. 이때, 명령어 및 데이터는 프로그램 코드의 형태로 저장될 수 있으며, 프로세서에 의해 실행되었을 때, 소정의 프로그램 모듈을 생성하여 소정의 동작을 수행할 수 있다. 또한, 컴퓨터로 판독 가능한 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비분리형 매체를 모두 포함한다. 또한, 컴퓨터로 판독 가능한 매체는 컴퓨터 기록 매체일 수 있는데, 컴퓨터 기록 매체는 컴퓨터 판독 가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비분리형 매체를 모두 포함할 수 있다.예를 들어, 컴퓨터 기록 매체는 HDD 및 SSD 등과 같은 마그네틱 저장 매체, CD, DVD 및 블루레이 디스크 등과 같은 광학적 기록 매체, 또는 네트워크를 통해 접근 가능한 서버에 포함되는 메모리일 수 있다. The smart lighting control method according to the embodiment described with reference to FIG. 2 may be implemented in the form of a computer-readable medium for storing instructions and data executable by a computer. In this case, the instructions and data may be stored in the form of program codes, and when executed by the processor, a predetermined program module may be generated to perform a predetermined operation. In addition, computer-readable media can be any available media that can be accessed by a computer, and includes both volatile and nonvolatile media, removable and non-removable media. In addition, the computer-readable medium may be a computer recording medium, which is a volatile and non-volatile and non-volatile embodied in any method or technology for storage of information such as computer-readable instructions, data structures, program modules or other data. It may include both volatile, removable and non-removable media. For example, the computer recording medium may include magnetic storage media such as HDD and SSD, optical recording media such as CD, DVD and Blu-ray disc, or accessible through a network. It may be memory included in the server.

또한 도 2 를 통해 설명된 실시예에 따른 스마트조명제어방법은 컴퓨터에 의해 실행 가능한 명령어를 포함하는 컴퓨터 프로그램(또는 컴퓨터 프로그램 제품)으로 구현될 수도 있다. 컴퓨터 프로그램은 프로세서에 의해 처리되는 프로그래밍 가능한 기계 명령어를 포함하고, 고레벨 프로그래밍 언어(High-level Programming Language), 객체 지향 프로그래밍 언어(Object-oriented Programming Language), 어셈블리 언어 또는 기계 언어 등으로 구현될 수 있다. 또한 컴퓨터 프로그램은 유형의 컴퓨터 판독가능 기록매체(예를 들어, 메모리, 하드디스크, 자기/광학 매체 또는 SSD(Solid-State Drive) 등)에 기록될 수 있다. In addition, the smart lighting control method according to the embodiment described with reference to FIG. 2 may be implemented as a computer program (or computer program product) including instructions executable by a computer. The computer program includes programmable machine instructions processed by a processor, and may be implemented in a high-level programming language, an object-oriented programming language, an assembly language, or a machine language. . In addition, the computer program may be recorded in a tangible computer-readable recording medium (eg, a memory, a hard disk, a magnetic/optical medium, or a solid-state drive (SSD), etc.).

따라서 도 2 를 통해 설명된 실시예에 따른 스마트조명제어방법은 상술한 바와 같은 컴퓨터 프로그램이 컴퓨팅 장치에 의해 실행됨으로써 구현될 수 있다. 컴퓨팅 장치는 프로세서와, 메모리와, 저장 장치와, 메모리 및 고속 확장포트에 접속하고 있는 고속 인터페이스와, 저속 버스와 저장 장치에 접속하고 있는 저속 인터페이스 중 적어도 일부를 포함할 수 있다. 이러한 성분들 각각은 다양한 버스를 이용하여 서로 접속되어 있으며, 공통 머더보드에 탑재되거나 다른 적절한 방식으로 장착될 수 있다. Accordingly, the smart lighting control method according to the embodiment described with reference to FIG. 2 may be implemented by executing the computer program as described above by the computing device. The computing device may include at least a portion of a processor, a memory, a storage device, a high-speed interface connected to the memory and the high-speed expansion port, and a low-speed interface connected to the low-speed bus and the storage device. Each of these components is connected to each other using various buses, and may be mounted on a common motherboard or in any other suitable manner.

여기서 프로세서는 컴퓨팅 장치 내에서 명령어를 처리할 수 있는데, 이런 명령어로는, 예컨대 고속 인터페이스에 접속된 디스플레이처럼 외부 입력, 출력 장치상에 GUI(Graphic User Interface)를 제공하기 위한 그래픽 정보를 표시하기 위해 메모리나 저장 장치에 저장된 명령어를 들 수 있다. 다른 실시예로서, 다수의 프로세서 및(또는) 다수의 버스가 적절히 다수의 메모리 및 메모리 형태와 함께 이용될 수 있다. 또한 프로세서는 독립적인 다수의 아날로그 및(또는) 디지털 프로세서를 포함하는 칩들이 이루는 칩셋으로 구현될 수 있다. Here, the processor may process a command within the computing device, such as for displaying graphic information for providing a Graphical User Interface (GUI) on an external input or output device, such as a display connected to a high-speed interface. Examples are instructions stored in memory or a storage device. In other embodiments, multiple processors and/or multiple buses may be used with multiple memories and types of memory as appropriate. In addition, the processor may be implemented as a chipset formed by chips including a plurality of independent analog and/or digital processors.

또한 메모리는 컴퓨팅 장치 내에서 정보를 저장한다. 일례로, 메모리는 휘발성 메모리 유닛 또는 그들의 집합으로 구성될 수 있다. 다른 예로, 메모리는 비휘발성 메모리 유닛 또는 그들의 집합으로 구성될 수 있다. 또한 메모리는 예컨대, 자기 혹은 광 디스크와 같이 다른 형태의 컴퓨터 판독 가능한 매체일 수도 있다. Memory also stores information within the computing device. As an example, the memory may be configured as a volatile memory unit or a set thereof. As another example, the memory may be configured as a non-volatile memory unit or a set thereof. The memory may also be another form of computer readable medium such as, for example, a magnetic or optical disk.

그리고 저장장치는 컴퓨팅 장치에게 대용량의 저장공간을 제공할 수 있다. 저장 장치는 컴퓨터 판독 가능한 매체이거나 이런 매체를 포함하는 구성일 수 있으며, 예를 들어 SAN(Storage Area Network) 내의 장치들이나 다른 구성도 포함할 수 있고, 플로피 디스크 장치, 하드 디스크 장치, 광 디스크 장치, 혹은 테이프 장치, 플래시 메모리, 그와 유사한 다른 반도체 메모리 장치 혹은 장치 어레이일 수 있다. In addition, the storage device may provide a large-capacity storage space to the computing device. A storage device may be a computer-readable medium or a component comprising such a medium, and may include, for example, devices or other components within a storage area network (SAN), a floppy disk device, a hard disk device, an optical disk device, or a tape device, a flash memory, or other semiconductor memory device or device array similar thereto.

상술된 실시예들은 예시를 위한 것이며, 상술된 실시예들이 속하는 기술분야의 통상의 지식을 가진 자는 상술된 실시예들이 갖는 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 상술된 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.The above-described embodiments are for illustration, and those of ordinary skill in the art to which the above-described embodiments pertain can easily transform into other specific forms without changing the technical idea or essential features of the above-described embodiments. You will understand. Therefore, it should be understood that the above-described embodiments are illustrative in all respects and not restrictive. For example, each component described as a single type may be implemented in a distributed manner, and likewise components described as distributed may be implemented in a combined form.

본 명세서를 통해 보호 받고자 하는 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태를 포함하는 것으로 해석되어야 한다.The scope to be protected through this specification is indicated by the claims described below rather than the above detailed description, and should be construed to include all changes or modifications derived from the meaning and scope of the claims and their equivalents. .

10: 스마트조명장치
110: 입출력부
120: 제어부
121: 이미지분석부 122: 소리분석부
123: 모션획득부 124: 행동패턴분석부
125: 조명제어부
130: 통신부
140: 메모리
10: smart lighting device
110: input/output unit
120: control unit
121: image analysis unit 122: sound analysis unit
123: motion acquisition unit 124: behavior pattern analysis unit
125: lighting control unit
130: communication department
140: memory

Claims (6)

전력 감응형 스마트조명장치에 있어서,
상기 스마트조명장치의 주변환경에 대한 시각적 환경정보인 이미지정보를 획득하고, 획득된 이미지정보를 분석하는 이미지분석부;
상기 주변환경에 대한 청각적 환경정보인 소리정보를 획득하고, 획득된 소리정보를 분석하는 소리분석부;
사용자의 움직임을 감지하여 모션정보를 획득하는 모션획득부;
상기 환경정보 및 상기 모션정보에 기초하여 사용자의 행동을 학습하고, 학습된 결과에 기초하여 시간대별 사용자의 행동패턴을 분석하는 행동패턴분석부; 및
상기 분석된 시간대별 사용자의 행동패턴에 기초하여 시간대별로 조명의 밝기를 제어하되, 상기 스마트조명장치의 예비전력을 감지하여 상기 조명의 밝기를 제어하는 조명제어부를 포함하는, 스마트조명장치.
In the power-sensitive smart lighting device,
an image analysis unit for acquiring image information, which is visual environmental information about the surrounding environment of the smart lighting device, and analyzing the acquired image information;
a sound analysis unit for obtaining sound information, which is auditory environment information about the surrounding environment, and analyzing the obtained sound information;
a motion acquisition unit that detects a user's motion and acquires motion information;
a behavior pattern analysis unit for learning a user's behavior based on the environment information and the motion information, and analyzing the user's behavior pattern for each time period based on the learned result; and
A smart lighting device comprising a lighting control unit for controlling the brightness of the lighting for each time period based on the analyzed behavioral pattern of the user for each time period, and controlling the brightness of the light by detecting the reserve power of the smart lighting device.
제 1 항에 있어서,
상기 행동패턴분석부는,
상기 사용자의 행동패턴에 기초하여 상기 이미지정보 및 상기 소리정보 중 적어도 하나를 저장하는, 스마트조명장치.
The method of claim 1,
The behavior pattern analysis unit,
A smart lighting device for storing at least one of the image information and the sound information based on the user's behavior pattern.
제 2 항에 있어서,
상기 행동패턴분석부는,
전력상태정보를 획득하고, 상기 전력상태정보에 기초하여 상기 사용자의 이미지정보 및 상기 소리정보 중 적어도 하나의 저장여부를 달리하는, 스마트조명장치.
3. The method of claim 2,
The behavior pattern analysis unit,
A smart lighting device that acquires power state information and determines whether to store at least one of the user's image information and the sound information based on the power state information.
스마트조명장치가 전력 감응형 스마트조명을 제공하는 방법에 있어서,
상기 스마트조명장치의 주변환경에 대한 시각적 환경정보인 이미지정보 및 상기 주변환경에 대한 청각적 환경정보인 소리정보 중 적어도 하나를 획득하는 단계;
사용자의 움직임을 식별하여 모션정보를 획득하는 단계;
상기 환경정보 및 상기 모션정보 중 적어도 하나에 기초하여 사용자의 행동을 학습하고, 학습된 결과에 기초하여 시간대별 사용자의 행동패턴을 분석하는 단계; 및
상기 분석된 시간대별 사용자의 행동패턴에 기초하여 시간대별로 조명의 밝기를 제어하되, 상기 스마트조명장치의 예비전력을 감지하여 상기 조명의 밝기를 제어하는 단계를 포함하는, 스마트조명제공방법.
A method for a smart lighting device to provide power-sensitive smart lighting, the method comprising:
acquiring at least one of image information that is visual environmental information about the surrounding environment of the smart lighting device and sound information that is audible environmental information about the surrounding environment;
obtaining motion information by identifying the user's movement;
learning a user's behavior based on at least one of the environmental information and the motion information, and analyzing the user's behavioral pattern for each time period based on the learned result; and
Controlling the brightness of the lighting for each time period based on the analyzed behavior pattern of the user for each time period, comprising the step of controlling the brightness of the light by sensing the reserve power of the smart lighting device, a smart lighting providing method.
제 4 항에 있어서,
상기 스마트조명제공방법은,
상기 이미지정보 및 상기 소리정보 중 획득된 적어도 하나를 저장하는 단계를 더 포함하는, 스마트조명제공방법.
5. The method of claim 4,
The smart lighting providing method comprises:
The method further comprising the step of storing the acquired at least one of the image information and the sound information, smart lighting providing method.
제 5 항에 있어서,
상기 저장하는 단계는,
전력상태정보를 획득하고, 상기 전력상태정보에 기초하여 상기 사용자의 이미지정보 및 상기 소리정보 중 적어도 하나의 저장여부를 결정하는 단계를 포함하는, 스마트조명제공방법.
6. The method of claim 5,
The saving step is
Acquiring power state information, and determining whether to store at least one of the user's image information and the sound information based on the power state information.
KR1020180130196A 2017-10-27 2018-10-29 Power sensitized smart lighting apparatus and method for providing smart lighting Active KR102281738B1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20170141545 2017-10-27
KR1020170141545 2017-10-27

Publications (2)

Publication Number Publication Date
KR20190047645A KR20190047645A (en) 2019-05-08
KR102281738B1 true KR102281738B1 (en) 2021-07-26

Family

ID=66580533

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180130196A Active KR102281738B1 (en) 2017-10-27 2018-10-29 Power sensitized smart lighting apparatus and method for providing smart lighting

Country Status (1)

Country Link
KR (1) KR102281738B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7713402B2 (en) * 2022-01-21 2025-07-25 株式会社Nttドコモ Information processing device

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101493776B1 (en) * 2007-12-07 2015-02-16 삼성전자주식회사 Method for driving a wireless memory device according to power state
EP2454921B1 (en) * 2009-07-15 2013-03-13 Koninklijke Philips Electronics N.V. Activity adapted automation of lighting
KR101524345B1 (en) * 2013-03-26 2015-06-04 (주)제이에이치에너지 Power-saving multifunction outdoor illuminator
KR102164204B1 (en) * 2014-01-28 2020-10-12 엘지이노텍 주식회사 Indoor lighting device, lighting system and an operating method thereof

Also Published As

Publication number Publication date
KR20190047645A (en) 2019-05-08

Similar Documents

Publication Publication Date Title
CN111901638B (en) Behavior curation of media assets
US10244177B2 (en) Method for processing image to generate relevant data based on user inputs and electronic device supporting the same
CN108012389B (en) Light adjusting method, terminal device and computer readable storage medium
JP6309540B2 (en) Image processing method, image processing device, terminal device, program, and recording medium
US9681186B2 (en) Method, apparatus and computer program product for gathering and presenting emotional response to an event
CN107205125A (en) A kind of image processing method, device, terminal and computer-readable recording medium
US20130235073A1 (en) Automatically modifying presentation of mobile-device content
KR102244248B1 (en) Operating Method For content and Electronic Device supporting the same
KR102277087B1 (en) Method of classifying contents and electronic device
KR102149448B1 (en) Electronic device and method for processing image
KR102376700B1 (en) Method and Apparatus for Generating a Video Content
US10141027B2 (en) Method, storage medium, and electronic device for providing plurality of images
EP3480790B1 (en) Method and apparatus for continuously displaying images on basis of similarity of images
JP2020507159A (en) Picture push method, mobile terminal and storage medium
CN107343143A (en) An image processing method, device, terminal and computer-readable storage medium
US10893203B2 (en) Photographing method and apparatus, and terminal device
CN106462374B (en) Electronic device and method of controlling output characteristic thereof
US10691717B2 (en) Method and apparatus for managing data
US20150178101A1 (en) Adjusting settings based on sensor data
KR102281738B1 (en) Power sensitized smart lighting apparatus and method for providing smart lighting
US10091436B2 (en) Electronic device for processing image and method for controlling the same
US20180322908A1 (en) Method for giving dynamic effect to video and electronic device thereof
WO2015094182A1 (en) Camera array analysis mechanism
US10956604B2 (en) Electronic device and operation method thereof
US20180173701A1 (en) Method for contents tagging and electronic device supporting the same

Legal Events

Date Code Title Description
A201 Request for examination
PA0109 Patent application

Patent event code: PA01091R01D

Comment text: Patent Application

Patent event date: 20181029

PA0201 Request for examination
PG1501 Laying open of application
E902 Notification of reason for refusal
PE0902 Notice of grounds for rejection

Comment text: Notification of reason for refusal

Patent event date: 20191206

Patent event code: PE09021S01D

E902 Notification of reason for refusal
PE0902 Notice of grounds for rejection

Comment text: Notification of reason for refusal

Patent event date: 20200723

Patent event code: PE09021S01D

E701 Decision to grant or registration of patent right
PE0701 Decision of registration

Patent event code: PE07011S01D

Comment text: Decision to Grant Registration

Patent event date: 20210420

GRNT Written decision to grant
PR0701 Registration of establishment

Comment text: Registration of Establishment

Patent event date: 20210720

Patent event code: PR07011E01D

PR1002 Payment of registration fee

Payment date: 20210720

End annual number: 3

Start annual number: 1

PG1601 Publication of registration
PR1001 Payment of annual fee

Payment date: 20240625

Start annual number: 4

End annual number: 4

PR1001 Payment of annual fee

Payment date: 20250624

Start annual number: 5

End annual number: 5