KR102841300B1 - Intelligent Transportation Systems for Automatic Driving of Drone linkage having the third view - Google Patents

Intelligent Transportation Systems for Automatic Driving of Drone linkage having the third view

Info

Publication number
KR102841300B1
KR102841300B1 KR1020220019531A KR20220019531A KR102841300B1 KR 102841300 B1 KR102841300 B1 KR 102841300B1 KR 1020220019531 A KR1020220019531 A KR 1020220019531A KR 20220019531 A KR20220019531 A KR 20220019531A KR 102841300 B1 KR102841300 B1 KR 102841300B1
Authority
KR
South Korea
Prior art keywords
drone
unmanned vehicle
autonomous driving
unit
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
KR1020220019531A
Other languages
Korean (ko)
Other versions
KR20230122827A (en
Inventor
윤재순
Original Assignee
윤재순
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 윤재순 filed Critical 윤재순
Priority to KR1020220019531A priority Critical patent/KR102841300B1/en
Publication of KR20230122827A publication Critical patent/KR20230122827A/en
Application granted granted Critical
Publication of KR102841300B1 publication Critical patent/KR102841300B1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C39/00Aircraft not otherwise provided for
    • B64C39/02Aircraft not otherwise provided for characterised by special use
    • B64C39/024Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0011Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
    • G05D1/0038Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement by providing the operator with simple or augmented images from one or more cameras located onboard the vehicle, e.g. tele-operation
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0055Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots with safety arrangements
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0088Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0094Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots involving pointing a payload, e.g. camera, weapon, sensor, towards a fixed or moving target
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/10Simultaneous control of position or course in three dimensions
    • G05D1/101Simultaneous control of position or course in three dimensions specially adapted for aircraft
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • B64U2101/30UAVs specially adapted for particular uses or applications for imaging, photography or videography

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Business, Economics & Management (AREA)
  • Tourism & Hospitality (AREA)
  • Health & Medical Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • Theoretical Computer Science (AREA)
  • Economics (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • General Health & Medical Sciences (AREA)
  • Electromagnetism (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Game Theory and Decision Science (AREA)
  • Medical Informatics (AREA)
  • Traffic Control Systems (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

본 발명은 3인칭 시야를 갖는 무인차 자율주행을 위한 드론 커플링 교통 체계 시스템에 관한 것으로, 항공을 비행하며, 차량방향의 카메라(101)가 장착되어 차량의 자율 주행을 제어하는 드론부(100), 상기 드론부(100)와 연계되어 상기 드론부(100)의 제어에 따라 자율주행을 수행하며, 드론방향의 카메라(201)가 장착되어 상기 드론부(100)에 대한 항공 비행을 제어하는 무인차(200), 및 상기 드론부(100)와 상기 무인차(200) 간의 원활한 제어 교신을 중계하며 상기 드론부(100)와 상기 무인차(200) 모두를 통합적으로 제어 관리하는 관제서버(300)를 포함하되, 상기 차량방향의 카메라(101)와 상기 드론방향의 카메라(201)의 구성에 따라, 상기 드론부(100)는 상기 무인차(200)의 자율 주행을 3인칭의 시야로 제어하여 상기 무인차(200)의 자율 주행에 대한 안전성을 도모하는 한편, 상기 무인차(200)는 상기 드론부(100)의 자율 비행을 3인칭의 시야로 제어하여 상기 드론부(100)의 자율 비행에 대한 안전성을 도모하게 되는 3인칭 시야를 갖는 무인차 자율주행을 위한 드론 커플링 교통 체계 시스템을 제공하고자 한다.The present invention relates to a drone coupling traffic system for autonomous driving of an unmanned vehicle having a third-person view, comprising: a drone unit (100) that flies in the air and is equipped with a camera (101) in the direction of a vehicle to control autonomous driving of the vehicle; an unmanned vehicle (200) that is connected to the drone unit (100) and performs autonomous driving according to the control of the drone unit (100) and is equipped with a camera (201) in the direction of a drone to control aerial flight with respect to the drone unit (100); and a control server (300) that relays smooth control communication between the drone unit (100) and the unmanned vehicle (200) and comprehensively controls and manages both the drone unit (100) and the unmanned vehicle (200), wherein, depending on the configuration of the camera (101) in the direction of the vehicle and the camera (201) in the direction of the drone, the drone unit (100) controls autonomous driving of the unmanned vehicle (200) with a third-person view, thereby: While ensuring the safety of autonomous driving of an unmanned vehicle (200), the unmanned vehicle (200) controls the autonomous flight of the drone unit (100) with a third-person view, thereby ensuring the safety of the autonomous flight of the drone unit (100), thereby providing a drone coupling traffic system for autonomous driving of an unmanned vehicle with a third-person view.

Description

3인칭 시야를 갖는 무인차 자율주행을 위한 드론 커플링 교통 체계 시스템{Intelligent Transportation Systems for Automatic Driving of Drone linkage having the third view}Intelligent Transportation Systems for Automatic Driving of Drone Linkage Having the Third View

본 발명은 3인칭 시야를 갖는 무인차 자율주행을 위한 드론 커플링 교통 체계 시스템에 대한 것으로, 보다 상세하게는 전파 방해가 많은 장애물 지역이나 사물인터넷(IoT) 환경 기반의 기술이 부족한 농촌이나 어촌 및 산촌 같은 지역에, 드론을 활용하여 무인차의 자율주행을 실현하고, 드론과 무인차 간의 교신을 제어하며 관리하는 관리서버의 구축을 통해, 충돌 사고시의 현장 상황에 대한 신속한 파악 및 대응과 대처와 함께, 무인차의 원활한 자율주행과 더불어 자율 주행에 필요한 시스템의 구축에 소모되는 비용도 절감할 수 있고, 무엇보다 특히 드론의 비행 및 차량의 주행에 대한 객관화된 상황의 파악에 따른 안전성을 확보할 수 있는 3인칭 시야를 갖는 무인차 자율주행을 위한 드론 커플링 교통 체계 시스템에 관한 것이다.The present invention relates to a drone-coupled traffic system for autonomous driving of an unmanned vehicle having a third-person view, and more specifically, to a drone-coupled traffic system for autonomous driving of an unmanned vehicle having a third-person view, which utilizes drones to realize autonomous driving of an unmanned vehicle in areas with many radio interference obstacles or areas such as rural, fishing, and mountain villages that lack Internet of Things (IoT) environment-based technologies, and which, through the establishment of a management server that controls and manages communication between drones and unmanned vehicles, enables rapid identification, response, and countermeasures of the on-site situation in the event of a collision accident, and reduces the cost consumed for establishing a system necessary for autonomous driving along with smooth autonomous driving of an unmanned vehicle, and above all, ensures safety by objectively understanding the situation regarding the flight of a drone and the driving of a vehicle.

일반적으로, 자율 주행이 가능한 무인차들은 차체에 자율 주행에 필요한 각종 여러가지의 센서들이 탑재될 수 있고, 이렇게 탑재된 센서들로부터 감지되는 신호들은 관제소에 설치된 서버에서 원격 방식으로 처리되는 관계로, 무인차들의 자율 주행이 무리 없이 수행될 수 있다.In general, autonomous vehicles capable of autonomous driving can be equipped with various sensors necessary for autonomous driving, and the signals detected from these sensors are remotely processed by a server installed in a control center, so autonomous driving of autonomous vehicles can be performed without difficulty.

하지만, 이러한 무인차들의 무리 없는 자율 주행은 관제소의 서버와 원활한 교신이 가능한 장애물이 없는 지역에서나 가능하나, 전파 방해가 많은 장애물이 많은 지역에서는 관제소의 서버와 제대로 된 교신이 불가한 관계로, 무인차들의 자율 주행이 제대로 이루어질 수 없는 한계성을 가지고 있다.However, the smooth autonomous driving of these unmanned vehicles is only possible in areas without obstacles that allow for smooth communication with the control center server. However, in areas with many obstacles that cause radio interference, proper communication with the control center server is impossible, which limits the autonomous driving of unmanned vehicles.

이러한 지역적 한계성으로 인하여, 자율 주행이 가능한 무인차들은 있으나, 이를 제대로 활용하지 못하는 실정에 있으며, 대량의 무인차들을 이용한 자율 주행 교통 체계의 운용에 필요한 환경마저도 제대로 갖추어져 있지 않다.Due to these regional limitations, although autonomous vehicles exist, they are not being properly utilized, and the environment necessary for operating an autonomous transportation system using a large number of autonomous vehicles is not even properly established.

특히, 사물인터넷(IoT) 환경의 인프라가 부족한 농촌이나 어촌에서는 더더욱 자율 주행 교통통합체계의 운용이 힘들고, 차량 충돌 사고나 인사 사고 또는 긴급 상황 발생시에도 열악한 지역에서는 그 피해 상황조차도 제대로 파악될 수 없을뿐만 아니라 적절한 대처도 불가하다.In particular, in rural areas or fishing villages where the infrastructure for the Internet of Things (IoT) environment is lacking, it is even more difficult to operate an autonomous driving transportation integration system. In addition, in poor areas, even in the event of a vehicle collision, personal injury, or emergency, the extent of the damage cannot be properly identified and appropriate responses are impossible.

따라서, 이러한 지역적 한계성을 극복하고, 대량의 무인차들을 이용한 자율 주행 지능형 교통 체계의 시스템 및 그 운용도 시급히 구축되어 마련되어야 할 필요성이 대두되고 있다.Therefore, there is an urgent need to overcome these regional limitations and establish and operate a system for autonomous intelligent transportation using a large number of unmanned vehicles.

무엇보다 더 큰 문제는 기존의 자율 주행 관련 기술에 있어서, 대부분의 기존의 기술들이나 국내에 출원된 대부분의 기존 특허들에는, 차량 차체의 자율 주행을 가능하게 하는 기술적 구성들이 개시되어 있으나, 차량의 자율 주행에 있어서 기존 기술들이나 국내의 기존 특허들에서는 차체의 1인칭 시야를 통한 자율 주행을 수행하는 기술적 내용들이 대다수이다. Above all, the bigger problem is that in most existing autonomous driving-related technologies, most existing technologies and most existing patents filed in Korea disclose technical components that enable autonomous driving of the vehicle body, but in terms of autonomous driving of vehicles, most of the existing technologies and existing domestic patents are about technical contents that perform autonomous driving through the first-person view of the vehicle body.

즉, 이러한 1인칭 시야로 차량이 주행될 경우, 차량 주행에 대한 상황이 전반적으로 1인칭 시야를 통해 이루어지는 관계로, 시야의 넓이가 극히 제한될 수 밖에 없는 문제를 가지고 있다.That is, when a vehicle is driven with this first-person view, the problem is that the field of view is inevitably extremely limited because the driving situation is entirely done through the first-person view.

이처럼, 차량 주행에서 시야의 넓이가 매우 제한적인 관계로, 차량 주행에 대한 전반적인 상황이 쉽게 파악될 수 없고, 이는 결국 차량 주행의 안전성이 담보될 수 없는 것이다.In this way, because the field of vision is very limited when driving, it is difficult to easily grasp the overall driving situation, which ultimately means that the safety of driving cannot be guaranteed.

물론, 이는 차량에 국한되는 것이 아니라, 드론의 비행 과정에서도 드론 자체가 1인칭의 시야로 비행하는 관계로, 드론 비행에 대한 전반적인 상황 파악이 쉽지 않다.Of course, this is not limited to vehicles, but even during drone flight, it is not easy to grasp the overall situation of drone flight because the drone itself flies with a first-person perspective.

특허문헌 001 : 등록특허 제10-2007140호(등록일자 2019, 07, 29)Patent Document 001: Registered Patent No. 10-2007140 (Registration Date: July 29, 2019)

전술된 문제점들을 해소하기 위한 본 발명은, 전파 방해가 있는 장애물의 지역이나 시골이나 어촌과 같은 사물인터넷(IoT)이 부족한 지역에 드론을 연계한 무인차와 관리서버를 구성하는 지능형 교통 체계를 갖춘 시스템의 제공에 따라, 자율 주행의 안전성이 확보될 수 있고, 차량 충돌 사고나 인사 사고 또는 긴급 상황의 발생에도 신속한 조치가 가능하며, 그 피해의 상황도 신속하게 파악될 수 있고, 이러한 시스템의 도입에 따른 비용마저 절감될 수 있게 한 3인칭 시야를 갖는 무인차 자율주행을 위한 드론 커플링 교통 체계 시스템을 제공하고자 함에 그 목적을 두고 있다.The purpose of the present invention to solve the above-mentioned problems is to provide a drone-coupled traffic system for autonomous driving of unmanned vehicles with a third-person view, which can ensure the safety of autonomous driving by providing a system equipped with an intelligent traffic system comprising an unmanned vehicle linked to a drone and a management server in areas with radio interference, obstacles, or areas lacking the Internet of Things (IoT), such as rural areas or fishing villages, and which can quickly take action in the event of a vehicle collision, personal injury, or emergency, and can quickly identify the extent of the damage, and can even reduce the cost of introducing such a system.

전술된 목적들을 달성하기 위한 본 발명은, 항공을 비행하며, 차량방향의 카메라(101)가 장착되어 차량의 자율 주행을 제어하는 드론부(100), 상기 드론부(100)와 연계되어 상기 드론부(100)의 제어에 따라 자율주행을 수행하며, 드론방향의 카메라(201)가 장착되어 상기 드론부(100)에 대한 항공 비행을 제어하는 무인차(200), 및 상기 드론부(100)와 상기 무인차(200) 간의 원활한 제어 교신을 중계하며 상기 드론부(100)와 상기 무인차(200) 모두를 통합적으로 제어 관리하는 관제서버(300)를 포함하되, 상기 차량방향의 카메라(101)와 상기 드론방향의 카메라(201)의 구성에 따라, 상기 드론부(100)는 상기 무인차(200)의 자율 주행을 3인칭의 시야로 제어하여 상기 무인차(200)의 자율 주행에 대한 안전성을 도모하는 한편, 상기 무인차(200)는 상기 드론부(100)의 자율 비행을 3인칭의 시야로 제어하여 상기 드론부(100)의 자율 비행에 대한 안전성을 도모하게 되는 3인칭 시야를 갖는 무인차 자율주행을 위한 드론 커플링 교통 체계 시스템에 그 일례의 특징이 있다.In order to achieve the above-described objects, the present invention comprises a drone unit (100) that flies in the air and is equipped with a camera (101) facing the vehicle direction to control autonomous driving of the vehicle, an unmanned vehicle (200) that is linked to the drone unit (100) and performs autonomous driving according to the control of the drone unit (100) and is equipped with a camera (201) facing the drone direction to control aerial flight with respect to the drone unit (100), and a control server (300) that relays smooth control communication between the drone unit (100) and the unmanned vehicle (200) and comprehensively controls and manages both the drone unit (100) and the unmanned vehicle (200), wherein, according to the configuration of the camera (101) facing the vehicle direction and the camera (201) facing the drone direction, the drone unit (100) controls autonomous driving of the unmanned vehicle (200) with a third-person view to ensure safety of autonomous driving of the unmanned vehicle (200), The above unmanned vehicle (200) has an exemplary characteristic of a drone coupling traffic system for autonomous driving of an unmanned vehicle having a third-person view that controls the autonomous flight of the drone unit (100) with a third-person view to ensure the safety of the autonomous flight of the drone unit (100).

상기 관제서버(300)는 서버형 컴퓨터(310)가 더 설치되고, 상기 서버형 컴퓨터(310)는 상기 드론부(100)의 무인 비행에 대한 제어를 수행하는 제1 제어부(320) 및 상기 무인차(200)의 자율 주행에 대한 제어를 수행하는 제2 제어부(330)를 더 포함하는 3인칭 시야를 갖는 무인차 자율주행을 위한 드론 커플링 교통 체계 시스템에 그 일례의 특징이 있다.The above control server (300) further includes a server-type computer (310), and the server-type computer (310) further includes a first control unit (320) that performs control for unmanned flight of the drone unit (100) and a second control unit (330) that performs control for autonomous driving of the unmanned vehicle (200), which has a third-person viewpoint, and has the characteristics of an example of a drone coupling traffic system system for unmanned vehicle autonomous driving.

상기 드론부(100)에는, 상기 무인차(200)의 자율 주행에 필요한 지령 신호들을 전송하는 방식으로 제어하는 소형컴퓨터(110)가 더 내장되어 있는 3인칭 시야를 갖는 무인차 자율주행을 위한 드론 커플링 교통 체계 시스템에 그 일례의 특징이 있다.The drone part (100) above has a built-in small computer (110) that controls the autonomous driving of the unmanned vehicle (200) by transmitting command signals necessary for autonomous driving, and has a drone coupling traffic system system for autonomous driving of the unmanned vehicle with a third-person view.

상기 소형컴퓨터(110)에는, 상기 제1 제어부(320)로 제어하기 어려운 장애물 지역에서 상기 드론부(100)의 비행에 필요한 제어 수행을 위한 정밀비행제어기가 더 조합되어 구성되는 3인칭 시야를 갖는 무인차 자율주행을 위한 드론 커플링 교통 체계 시스템에 그 일례의 특징이 있다.The above-mentioned small computer (110) is further combined with a precision flight controller for performing control necessary for the flight of the drone unit (100) in an obstacle area that is difficult to control with the first control unit (320), and has a drone coupling traffic system system for autonomous driving of an unmanned vehicle with a third-person field of view, which has the characteristics of an example.

상기 드론부(100)에는, 카메라의 수평 촬영에 필요한 짐벌의 설치도 포함되는 구조이고, 상기 짐벌에는 안정적인 공간 맵핑 및 영상 촬영의 흔들림을 최소화하면서도 충돌 가능성을 미연에 방지하기 위한 추돌방지시스템의 설치도 포함되는 구조인 3인칭 시야를 갖는 무인차 자율주행을 위한 드론 커플링 교통 체계 시스템에 그 일례의 특징이 있다.The drone unit (100) above has a structure that includes the installation of a gimbal required for horizontal shooting of the camera, and the gimbal also includes the installation of a collision avoidance system to prevent the possibility of collision in advance while ensuring stable spatial mapping and minimizing shaking of video shooting, and has the characteristics of an example of a drone coupling traffic system system for autonomous driving of an unmanned vehicle with a third-person view.

상기 무인차(200)에 설치된 추돌방지시스템은, 첨단 비행운전 보조시스템의 적용이 이루어진 카메라형 기기 타입으로 구성되되, 상기 카메라형 기기는 자율 주행 기능을 위한 프로세서와 모듈로 조합 구성된 ADAS(Advanced Driver Assistanc Systems)으로 구성되는 3인칭 시야를 갖는 무인차 자율주행을 위한 드론 커플링 교통 체계 시스템에 그 일례의 특징이 있다.The collision avoidance system installed in the above-mentioned unmanned vehicle (200) is configured as a camera-type device type to which an advanced flight driving assistance system is applied, and the camera-type device is configured as an ADAS (Advanced Driver Assistance Systems) composed of a processor and a module for autonomous driving function, and has the characteristics of an example of a drone coupling traffic system system for autonomous driving of an unmanned vehicle having a third-person field of view.

상기 추돌방지시스템은, 적외선 에너지의 데이터를 사용해 디지털 또는 아날로그의 영상 출력도 가능하며, 열화상을 통한 생물성 장애물을 감지하는 적외선 카메라(IR Camera), 일정한 간격으로 높은 주파수의 사운드 펄스를 통해 짧게 소리를 발사하는 방식으로 근거리의 장애물을 감지하며 거리를 측정하는 초음파 센서(Ultrasonic Sensor), 및 스트레인 게이지가 결합된 압력 센서 소자를 기반으로 기압을 측정하여 높이를 감지하는 기압 센서(Pressurer Sensor)를 포함하는 조합된 구성으로 이루어진 3인칭 시야를 갖는 무인차 자율주행을 위한 드론 커플링 교통 체계 시스템에 그 일례의 특징이 있다.The above collision avoidance system is characterized by a drone coupling traffic system system for autonomous driving of an unmanned vehicle having a third-person view, which is composed of a combined configuration including an infrared camera (IR Camera) that can output digital or analog images using data of infrared energy and detects biological obstacles through thermal images, an ultrasonic sensor that detects obstacles at close range and measures the distance by emitting short sounds through high-frequency sound pulses at regular intervals, and a pressure sensor that detects height by measuring air pressure based on a pressure sensor element combined with a strain gauge.

상기 추돌방지시스템은, 지도 생성의 처리가 가능한 맵빌딩 센서 시스템이 더 포함되는 구성인 3인칭 시야를 갖는 무인차 자율주행을 위한 드론 커플링 교통 체계 시스템에 그 일례의 특징이 있다.The above collision avoidance system has an example of a drone coupling traffic system system for autonomous driving of unmanned vehicles with a third-person view that further includes a map building sensor system capable of processing map creation.

드론부(100)에 설치된 차량방향의 카메라(101)와 무인차(200)에 설치된 드론방향의 카메라(201) 구성에 따라, 드론부(100)는 무인차(200)의 자율 주행을 3인칭의 시야로 제어하고, 상기 무인차(200)는 상기 드론부(100)의 자율 비행을 3인칭의 시야로 제어하는 한편, 드론부(100)에 설치된 소형컴퓨터(110)와 무인차(200)에 설치된 연산형 엣지컴퓨터(210)의 구성에 따라, 드론부(100)는 무인차(200)의 자율 주행을 1인칭의 시야로 제어하고, 상기 무인차(200)는 상기 드론부(100)의 자율 비행을 1인칭의 시야로 제어함에 따라, 3인칭의 시야와 1인칭의 시야가 혼용되는 3인칭 시야를 갖는 무인차 자율주행을 위한 드론 커플링 교통 체계 시스템에 그 일례의 특징이 있다.According to the configuration of the vehicle direction camera (101) installed in the drone unit (100) and the drone direction camera (201) installed in the unmanned vehicle (200), the drone unit (100) controls the autonomous driving of the unmanned vehicle (200) with a third-person view, and the unmanned vehicle (200) controls the autonomous flight of the drone unit (100) with a third-person view, and on the other hand, according to the configuration of the small computer (110) installed in the drone unit (100) and the computational edge computer (210) installed in the unmanned vehicle (200), the drone unit (100) controls the autonomous driving of the unmanned vehicle (200) with a first-person view, and the unmanned vehicle (200) controls the autonomous flight of the drone unit (100) with a first-person view, thereby providing a drone coupling traffic for unmanned autonomous driving having a third-person view in which a third-person view and a first-person view are mixed. The system system has the characteristics of an example.

이상에서 살펴본 바에 따른 본 발명에 의하면, 타 드론에 비해 장애물과의 충돌 회피성에 대한 정밀성을 갖는 관계로, 드론의 비행 과정 및 무인차의 자율 주행 과정에서 발생되는 장애물과의 추돌 회피율을 제고할 수 있으며, 사고시의 신속한 상황 파악 및 조치에 따른 교통의 안전성이 향상되며, 교통 체계에 필요한 시스템의 도입 비용의 획기적인 절감 효과가 있다.According to the present invention as discussed above, since it has a higher degree of precision in collision avoidance with obstacles than other drones, it is possible to improve the collision avoidance rate with obstacles that occur during the flight of a drone and the autonomous driving of an unmanned vehicle, and traffic safety is improved through rapid situational awareness and action in the event of an accident, and there is a dramatic reduction in the cost of introducing systems necessary for the traffic system.

또한, 본 발명에 의하면, 드론과 차량이 각각 상대편의 비행과 주행에 대한 3인칭의 시점을 확보할 수 있는 관계로, 드론 비행과 차량 주행의 안전성이 획기적으로 향상될 수 있고, 드론 비행과 차량 주행의 전반에 대한 상황 파악의 용이함과 더불어 예상치 못한 돌발 사고에 대한 긴급 조치의 신속성도 향상되는 효과가 있다.In addition, according to the present invention, since the drone and the vehicle can each secure a third-person viewpoint of the other's flight and driving, the safety of drone flight and vehicle driving can be dramatically improved, and in addition to facilitating overall situational awareness of drone flight and vehicle driving, there is also the effect of improving the speed of emergency measures in response to unexpected accidents.

도 1은 본 발명에 따른 3인칭 시야를 갖는 무인차 자율주행을 위한 드론 커플링 교통 체계 시스템을 구성하는 구성품들을 일목요연하게 간략하게 나타낸 블록도이다.
도 2는 본 발명에 따른 3인칭 시야를 갖는 무인차 자율주행을 위한 드론 커플링 교통 체계 시스템에 대한 구성들을 제1 실시예의 간략한 개념으로 나타낸 모식도이다.
도 3은 드론부(100)에 구성되는 구성품들을 간략한 개념으로 나타낸 모식도이다.
도 4는 드론부(100)와 무인차(200) 및 관제서버(300) 간의 멀티적 교신을 간략한 개념으로 나타낸 모식도이다.
도 5는 드론부(100)와 무인차(200) 간의 교신을 통한 위험 환경에 대한 회피를 간략한 개념으로 나타낸 모식도이다.
도 6은 드론의 비행 상황이 차량으로부터의 3인칭 시야로 확보될 수 있는 드론 비행 시뮬레이션에 대한 일례의 도면이다.
도 7은 차량의 주행 상황이 드론으로부터의 3인칭 시야로 확보될 수 있는 차량 주행 시뮬레이션에 대한 일례의 도면이다.
FIG. 1 is a block diagram that briefly and clearly shows the components that constitute a drone coupling traffic system for autonomous driving of an unmanned vehicle with a third-person view according to the present invention.
FIG. 2 is a schematic diagram showing the configurations of a drone coupling traffic system for autonomous driving of an unmanned vehicle with a third-person view according to the present invention as a simple concept of a first embodiment.
Figure 3 is a schematic diagram showing the components of the drone unit (100) in a simplified concept.
Figure 4 is a schematic diagram showing a simple concept of multi-communication between a drone unit (100), an unmanned vehicle (200), and a control server (300).
Figure 5 is a schematic diagram showing a simple concept of avoiding a dangerous environment through communication between a drone unit (100) and an unmanned vehicle (200).
Figure 6 is an example drawing of a drone flight simulation in which the drone's flight situation can be secured from a third-person view from a vehicle.
Figure 7 is an example drawing of a vehicle driving simulation in which the vehicle's driving situation can be secured from a third-person view from a drone.

본 발명에 있어 첨부된 도면은 설명의 명료성과 편의를 위해 과장되어 도시됨을 밝히고, 후술되는 실시 예는 본 발명의 권리범위를 한정하는 것이 아니라 본 발명의 청구범위에 제시된 구성요소의 예시적 사항에 불과하며, 다른 여러 형태로 변형 실시될 수 있다는 점까지 감안한 명세서 전반에 걸친 기술적 사상을 토대로 해석되어야 한다.In the present invention, it is to be understood that the attached drawings are exaggerated for clarity and convenience of explanation, and the embodiments described below do not limit the scope of the present invention, but are merely exemplary of the components presented in the claims of the present invention, and should be interpreted based on the technical idea throughout the specification, taking into account that the present invention may be modified and implemented in various other forms.

이하, 첨부된 도면을 참고하면서, 본 발명의 바람직한 실시 예들에 따른 3인칭 시야를 갖는 무인차 자율주행을 위한 드론 커플링 교통 체계 시스템을 더욱 상세히 설명하고자 한다.Hereinafter, with reference to the attached drawings, a drone coupling traffic system for autonomous driving of an unmanned vehicle with a third-person view according to preferred embodiments of the present invention will be described in more detail.

이러한 3인칭 시야를 갖는 무인차 자율주행을 위한 드론 커플링 교통 체계 시스템은 일례로서 도시된 도 1 내지 도 5를 참고로 설명될 수 있으며, 드론을 활용해 무인차와 같은 교통수단들을 통합적으로 운용하며 자율주행을 가능하게 하는 교통 체계를 구성하는 시스템으로서, 항공을 비행하는 드론 구조의 드론부(100), 상기 드론부(100)와 연계되어 자율주행이 가능한 차량 구조의 무인차(200), 상기 드론부(100)를 통한 상기 무인차(200)의 제어 수행이 가능한 관제소의 관제서버(300)를 포함하는 구성으로 이루어질 수 있다.A drone coupling traffic system for autonomous driving of an unmanned vehicle having such a third-person view can be explained with reference to FIGS. 1 to 5 as examples, and is a system that configures a traffic system that integrates transportation means such as unmanned vehicles and enables autonomous driving by utilizing drones, and can be configured to include a drone unit (100) having a drone structure that flies in the air, an unmanned vehicle (200) having a vehicle structure that is capable of autonomous driving by being linked to the drone unit (100), and a control server (300) of a control center capable of controlling the unmanned vehicle (200) through the drone unit (100).

이하, 하기에서는 설명의 편의를 위해, “드론과 드론부”, “차량과 무인차”, “관제소와 관제서버”에 대한 용어가 일치되지 않고 서로 혼용될 수 있음을 참고할 수 있다.Hereinafter, for convenience of explanation, it may be noted that the terms “drone and drone unit,” “vehicle and unmanned vehicle,” and “control center and control server” may not be consistent and may be used interchangeably.

상기 드론부(100)는 상기 무인차(200)의 인접한 항공 지점에서 상기 무인차(200)와 교신하며 상기 무인차(200)의 자율 주행 제어에 필요한 시그널 즉 지령 신호를 전송 교신하는 방식으로 전파 방해가 많은 장애물의 지역에서 운용될 수 있다. The above drone unit (100) can be operated in an area with many obstacles that cause radio interference by communicating with the unmanned vehicle (200) at an aerial point adjacent to the unmanned vehicle (200) and transmitting and communicating signals, i.e. command signals, necessary for autonomous driving control of the unmanned vehicle (200).

이러한 장애물의 지역에서는 관제서버(300)와의 교신이 불가한 지역인 관계로, 상기 드론부(100)가 상기 무인차(200)의 자율 주행에 필요한 제어 기능을 담당할 수 있다.In areas with such obstacles, communication with the control server (300) is impossible, so the drone unit (100) can take charge of the control functions required for autonomous driving of the unmanned vehicle (200).

이러한 상기 드론부(100)에는 상기 무인차(200)의 자율 주행에 대한 제어 과정에서 상기 무인차(200)의 주행을 3인칭 시각 그러니까 3인칭의 시야로 상기 무인차(200)를 객관화된 시각으로 제어할 수 있는 차량방향의 카메라(101)가 더 설치될 수 있다.In the drone unit (100), a camera (101) in the direction of the vehicle can be further installed to control the driving of the unmanned vehicle (200) from a third-person perspective, that is, an objective view of the unmanned vehicle (200) during the process of controlling the autonomous driving of the unmanned vehicle (200).

상기 무인차(200)는 전파 방해가 많은 장애물의 지역에서 자율 주행 과정의 인접한 항공에서 비행하는 상기 드론부(100)로부터 시그널을 전송받는 방식으로 제어받을 수 있으며, 이러한 무인차(200)는 특정한 차종에 한정되는 것이 아니라 다양한 종류의 탈 것들을 모두 포함하는 방식으로 해석되어야 할 것이다.The above unmanned vehicle (200) can be controlled by receiving a signal from the drone unit (100) flying in an adjacent aircraft during the autonomous driving process in an area with many obstacles with radio interference, and the unmanned vehicle (200) should be interpreted as including all types of vehicles, not limited to a specific vehicle type.

따라서, 무인차(200)는 인원 수송 목적 용도의 소형과 중대형의 버스 및 택시나, 화물 수송 목적 용도의 픽업 트럭, 소형과 중대형의 트럭과 덤프 및 트랙터 등이나, 특수 작업 수행 목적 용도의 크레인, 트레일러, 소방차, 제설차 등이나, 농기계 관제용의 탈 것 등을 모두 포함할 수 있다.Accordingly, the unmanned vehicle (200) may include small and medium-sized buses and taxis for the purpose of transporting people, pickup trucks, small and medium-sized trucks and dump trucks and tractors for the purpose of transporting cargo, cranes, trailers, fire trucks, snowplows, etc. for the purpose of performing special tasks, and vehicles for controlling agricultural machinery.

이러한 상기 무인차(200)에는 상기 드론부(100)의 항공 자율 비행에 대한 제어 과정에서 상기 드론부(100)의 비행을 3인칭 시각 그러니까 상기 드론부(100)를 객관화된 3인칭의 시야로 제어할 수 있는 드론방향의 카메라(201)가 더 설치될 수 있다.In the above-mentioned unmanned vehicle (200), a camera (201) in the direction of the drone can be further installed to control the flight of the drone (100) from a third-person perspective, that is, to control the drone (100) from an objective third-person perspective during the control process for the aerial autonomous flight of the drone (100).

물론, 이러한 상기 무인차(200)에는 연상형 엣지컴퓨터(210)가 더 설치될 수 있고, 상기 연산형 엣지컴퓨터(210)는 정밀차량제어기(220) 및 정밀드론제어기(230)로 조합 구성될 수 있으며, 상기 정밀차량제어기(220)는 무인차(200) 자체의 주행 과정에서 상세한 제어를 수행할 수 있고, 상기 정밀드론제어기(230)는 드론의 항공 비행 과정에서 3인칭 시야를 통한 드론의 상세한 항공 비행에 대한 제어를 수행할 수 있다.Of course, the above-described unmanned vehicle (200) may further be installed with an associative edge computer (210), and the computational edge computer (210) may be configured in combination with a precision vehicle controller (220) and a precision drone controller (230). The precision vehicle controller (220) may perform detailed control during the driving process of the unmanned vehicle (200) itself, and the precision drone controller (230) may perform detailed control over the aerial flight of the drone through a third-person view during the aerial flight of the drone.

상기의 차량방향의 카메라(101)와 상기의 드론방향의 카메라(201)는 상호간에 주행과 비행하는 영상을 무선으로 주고 받을 수 있는 무선통신수단을 자체에 내장할 수 있으며, 이러한 무선통신수단은 인터넷망을 통한 무선의 데이터 송수신이 가능한 장치 기기를 총 망라할 수 있다. 상기 연산형 엣지컴퓨터(210)는 특히 드론과 차량의 인지에 대한 연산 처리를 담당하는 기능적 작용도 수행할 수 있다.The above vehicle-facing camera (101) and the above drone-facing camera (201) can have built-in wireless communication means capable of wirelessly exchanging driving and flying images with each other. Such wireless communication means can encompass all devices capable of wirelessly transmitting and receiving data via the Internet. The above computational edge computer (210) can also perform a functional function, particularly in charge of computational processing for recognition of drones and vehicles.

상술된 바와 같이, 특히나 상기 드론부(100)에 설치된 차량방향의 카메라(101)와 상기 무인차(200)에 설치된 드론방향의 카메라(201)가 구성되어 있는 관계로, 상기 드론부(100)는 예컨대 도면 7에 도시된 바와 같이 차량방향의 카메라(101)를 통해 차량의 자율 주행을 3인칭 시야로 모니터링하며 객관화된 차량 주행 제어를 수행할 수 있다.As described above, in particular, since the vehicle-direction camera (101) installed in the drone unit (100) and the drone-direction camera (201) installed in the unmanned vehicle (200) are configured, the drone unit (100) can monitor the autonomous driving of the vehicle with a third-person view through the vehicle-direction camera (101) as illustrated in Drawing 7, and perform objective vehicle driving control.

즉, 상기 드론부(100)는 자체에 차량방향의 카메라(101)가 설치되어 있기 때문에, 도면 7에서와 같이 차량의 자율 주행 광경이 상기 드론부(100)에서 3인칭 시점으로 확보될 수 있다.That is, since the drone unit (100) has a camera (101) installed in the direction of the vehicle, the autonomous driving scene of the vehicle can be secured from a third-person viewpoint from the drone unit (100) as shown in Drawing 7.

다시 말해, 차량은 실제 주행시 1인칭 시점으로 주행하고 있으나, 상기 드론부(100)는 차량을 통해 객관화된 3인칭 시점이 되는 관계로, 차량 주행에 대한 전반적인 상황이 용이하게 파악될 수 있으며, 이로 인한 차량 주행의 안전성이 현저하게 향상될 수 있다.In other words, the vehicle is driven in a first-person perspective when actually driving, but since the drone unit (100) becomes a third-person perspective objectified through the vehicle, the overall driving situation of the vehicle can be easily grasped, and thus the safety of driving the vehicle can be significantly improved.

또한, 상기 무인차(200)는 예컨대 도면 6에 도시된 바와 같이 드론방향의 카메라(201)를 통해 드론의 자율 비행을 3인칭 시야로 모니터링하며 객관화된 드론 비행 제어를 수행할 수 있다.In addition, the above unmanned vehicle (200) can monitor the autonomous flight of the drone from a third-person perspective through a camera (201) in the direction of the drone, as illustrated in Drawing 6, and perform objective drone flight control.

즉, 상기 무인차(200)는 자체에 드론방향의 카메라(201)가 설치되어 있기 때문에, 도면 6에서와 같이 드론의 자율 비행 광경이 상기 무인차(200)에서 3인칭 시점으로 확보될 수 있다.That is, since the unmanned vehicle (200) has a camera (201) installed in the direction of the drone, the autonomous flight view of the drone can be secured from a third-person viewpoint from the unmanned vehicle (200) as shown in Drawing 6.

다시 말해, 드론은 실제 주행시 1인칭 시점으로 비행하고 있으나, 상기 무인차(200)는 드론을 통해 객관화된 3인칭 시점이 되는 관계로, 드론 비행에 대한 전반적인 상황이 용이하게 파악될 수 있으며, 이로 인한 드론 비행의 안전성이 현저하게 향상될 수 있다.In other words, the drone flies in a first-person perspective when actually driving, but since the unmanned vehicle (200) has a third-person perspective that is objectively observed through the drone, the overall situation regarding the drone flight can be easily grasped, and thus the safety of the drone flight can be significantly improved.

물론, 도면 6과 도면 7은 3인칭 시점과 1인칭 시점의 드론 비행 및 차량 주행에 대한 시뮬레이션의 일례를 보이기 위한 도면이다.Of course, drawings 6 and 7 are drawings to show examples of simulations of drone flight and vehicle driving from a third-person perspective and a first-person perspective, respectively.

한편, 관제소에 설치된 관제서버(300)는 상기 드론부(100)와 상기 무인차(200) 간의 원활한 제어 교신을 중계하며 상기 드론부(100)와 상기 무인차(200) 모두를 통합적으로 제어 관리하는 용도로 운용될 수 있다.Meanwhile, the control server (300) installed in the control center relays smooth control communication between the drone unit (100) and the unmanned vehicle (200) and can be operated for the purpose of integrated control and management of both the drone unit (100) and the unmanned vehicle (200).

이러한 상기 관제서버(300)는 예컨대 서버형 컴퓨터(310)의 구조로 이루어질 수 있되, 이러한 상기 서버형컴퓨터(310)는 상기 드론부(100)의 항공 무인 비행에 대한 제어를 수행하는 제1 제어부(320) 및 상기 무인차(200)의 자율 주행에 대한 제어를 수행하는 제2 제어부(330)를 포함하는 구성으로 이루어질 수 있다.The above-mentioned control server (300) may be configured, for example, with a structure of a server-type computer (310). The server-type computer (310) may be configured to include a first control unit (320) that performs control for the unmanned aerial vehicle flight of the drone unit (100) and a second control unit (330) that performs control for the autonomous driving of the unmanned vehicle (200).

상기 제1 제어부(320)는 상기 드론부(100)의 무인 비행에 필요한 제어를 수행하는 제1 제어프로그램을 통해 상기 드론부(100)에 설치된 소프트웨어와 연동되며 상기 드론부(100)의 무인 비행을 제어할 수 있으며, 상기 제2 제어부(330)는 상기 무인차(200)의 자율 주행에 필요한 제어를 수행하는 제2 제어프로그램을 통해 상기 무인차(200)에 설치된 소프트웨어와 연동되며 상기 무인차(200)의 자율 주행을 제어할 수 있다.The first control unit (320) is linked with the software installed in the drone unit (100) through a first control program that performs control necessary for unmanned flight of the drone unit (100) and can control unmanned flight of the drone unit (100), and the second control unit (330) is linked with the software installed in the unmanned vehicle (200) through a second control program that performs control necessary for autonomous driving of the unmanned vehicle (200) and can control autonomous driving of the unmanned vehicle (200).

그리고, 상기 드론부(100)와 상기 무인차(200) 및 상기 관제서버(300)는 다양한 통신의 선택적 연결을 통해 상호간 교신할 수 있되, 예컨대 블루투스, Wi-fi, LTE, 5G와 같은 통신망을 활용할 수 있으며, 사물인터넷(Internet of Things(IoT)) 환경하에서 상호간의 데이터 정보를 주고받을 수 있다.In addition, the drone unit (100), the unmanned vehicle (200), and the control server (300) can communicate with each other through various optional communication connections, and can utilize communication networks such as Bluetooth, Wi-Fi, LTE, and 5G, and can exchange data information with each other in an Internet of Things (IoT) environment.

상기 관제서버(300)는 지능형 교통 체계를 갖춘 시스템으로 운용될 수 있으며, 예컨대 내비게이션 실시간 교통정보, 고속도로의 하이패스, 정류장의 버스 도착 안내 기능들을 갖춘 시스템 프로그램들이 탑재될 수 있다.The above control server (300) can be operated as a system with an intelligent transportation system, and can be equipped with system programs having functions such as navigation real-time traffic information, highway Hi-pass, and bus arrival information at bus stops.

상기 드론부(100)의 본체에는 자율 주행하는 무인차(200)에 대한 세부적인 지령 신호들을 전송하는 방식으로 제어할 수 있는 소형컴퓨터(110)가 더 설치될 수 있는데, 이러한 상기 소형컴퓨터(110)는 드론의 상황 인지, 차량 주변의 정보 전달, 관제서버와의 제어 전달 및 사고 예상시의 제어권 기능의 작용을 수행할 수 있다.The main body of the above drone unit (100) may further be equipped with a small computer (110) that can be controlled by transmitting detailed command signals to an autonomously driving unmanned vehicle (200). This small computer (110) can perform functions such as recognizing the situation of the drone, transmitting information about the surroundings of the vehicle, transmitting control to a control server, and controlling when an accident is expected.

이러한 소형컴퓨터(110)에는 상기 제1 제어부(320)로 제어하기 어려운 장애물이 많은 지역에서 드론부(100)의 상세 비행에 요구되는 제어 수행을 위한 정밀비행제어기(120) 및 무인차(200)의 상세 주행에 요구되는 제어 수행을 위한 정밀주행제어기(130)가 조합된 구성으로 이루어질 수 있다.This small computer (110) may be configured with a combination of a precision flight controller (120) for performing control required for detailed flight of the drone unit (100) in an area with many obstacles that are difficult to control with the first control unit (320) and a precision driving controller (130) for performing control required for detailed driving of the unmanned vehicle (200).

이러한 상기의 정밀비행제어기는 예컨대 GPS 및 관성측정장치가 조합된 타입일 수 있되, 상기 GPS는 실내 혹은 터널과 같은 전파가 닿기 어려운 장애물이 많은 지역에서 적용되는 방식으로 이용될 수 있고, 상기 관성측정장치는 가속도계(Accelerometer), 자이로스코프(Gyroscope) 및 자력계(magnetometer)를 조합한 구성의 방식으로 이용될 수 있다.The above-described precision flight controller may be, for example, a type that combines GPS and an inertial measurement device. The GPS may be used in a manner applicable to areas with many obstacles where radio waves cannot reach, such as indoors or tunnels, and the inertial measurement device may be used in a manner that combines an accelerometer, a gyroscope, and a magnetometer.

상기 관성측정장치는 드론부(100)의 상세 비행 제어에 대한 핵심 기능으로 진동 또는 운동(가속)의 변화에 따른 가속을 측정하는 방식이고, 드론부(100)를 똑바르게 세우고 수평을 유지하면서도, 수평면을 따라 움직임과 고도의 증가 및 감소를 감지하는 장치이다.The above inertial measurement device is a key function for detailed flight control of the drone unit (100) and measures acceleration according to changes in vibration or movement (acceleration), and is a device that detects movement and increase and decrease in altitude along the horizontal plane while keeping the drone unit (100) upright and horizontal.

이러한 관성측정장치는 예컨대 3축(롤, 피치, 요)의 센서 방식의 회전 속도를 측정하는 방식으로 비행 제어할 수도 있으며, 이보다 더 확장된 6축의 센서 방식도 활용될 수 있다. 물론, 6축의 센서 방식은 가속도계와 자이로스코프만으로 구성되는 관계로, 감지한 오차(수평면을 따른 움직임과 고도의 증가 및 감소)의 보정에 한계가 있다.These inertial measurement units can be used for flight control, for example, by measuring rotational speeds along three axes (roll, pitch, and yaw), or even a more advanced six-axis sensor system. Of course, because the six-axis sensor system consists solely of accelerometers and gyroscopes, it has limitations in compensating for detected errors (movements along the horizontal plane and increases and decreases in altitude).

하지만, 속도계(Accelerometer), 자이로스코프(Gyroscope) 및 자력계(magnetometer)가 함께 조합된 9축의 센서 방식은 감지한 오차(수평면을 따른 움직임과 고도의 증가 및 감소)를 최대한으로 보정할 수 있는 장점을 갖는다.However, the 9-axis sensor method, which combines an accelerometer, gyroscope, and magnetometer, has the advantage of being able to compensate for the detected errors (movement along the horizontal plane and gain and loss in altitude) to the greatest extent possible.

특히, 자이로스코프는 로터와 짐벌을 활용한 토크를 계산하는 메커니즘 방식을 이용한 각 운동량의 방향 측정 또는 유지에 사용되는 센서로서, 예컨대 중력가속도의 측정 방식을 활용해 드론부(100)의 비행 균형 유지에 따른 비행의 안전성을 제공할 수 있다. 자력계는 자기 쌍극자 모멘트로 특정 위치에서 자기장의 강도를 측정하는 방식으로 활용될 수 있다.In particular, a gyroscope is a sensor used to measure or maintain the direction of angular momentum using a mechanism that calculates torque using a rotor and a gimbal, and can provide flight safety by maintaining the flight balance of the drone unit (100) by, for example, using a method of measuring gravitational acceleration. A magnetometer can be utilized by measuring the strength of a magnetic field at a specific location using a magnetic dipole moment.

또한, 소형컴퓨터(110)는 드론부(100)의 비행에 필요한 동력성 배터리와 모터의 상태에 따른 프로펠러의 회전을 제어하기 위한 감지센서가 더 조합될 수 있으며, 이러한 감지센서는 회전자에 대한 위치 감지에 따른 모터의 프로펠러 회전을 제어할 수 있으며, 예컨대 회전자와 고정자 및 코일을 구성하는 홀 센서의 구조로 구성될 수 있다. In addition, the small computer (110) may be further combined with a power battery required for the flight of the drone unit (100) and a detection sensor for controlling the rotation of the propeller according to the state of the motor. This detection sensor may control the rotation of the propeller of the motor according to the position detection of the rotor, and may be configured with a structure of a Hall sensor constituting, for example, a rotor, a stator, and a coil.

특히, 배터리의 전력 소진을 감지하기 위한 예컨대 전류센서가 소형컴퓨터(110)에 더 조합될 수 있으며, 이러한 전류센서는 배터리의 전력 소진이나 모터의 고장을 수시로 감지하여 프로펠러의 작동 정지에 따른 드론부(100)의 추락을 예방할 수 있다.In particular, a current sensor for detecting the power consumption of the battery, for example, can be further combined with the small computer (110), and such a current sensor can detect the power consumption of the battery or the failure of the motor from time to time, thereby preventing the drone unit (100) from falling due to the propeller stopping operation.

이러한 상기 드론부(100)의 본체에는 카메라의 수평 촬영에 필요한 짐벌의 설치도 포함되는 구조일 수 있으며, 짐벌에는 안정적인 공간 맵핑 및 영상 촬영의 흔들림을 최소화하하면서도 충돌 가능성을 미연에 방지하기 위한 추돌방지시스템의 설치도 포함될 수 있다. The main body of the above drone unit (100) may have a structure that includes the installation of a gimbal required for horizontal shooting of the camera, and the gimbal may also include the installation of a collision avoidance system to prevent the possibility of collision in advance while minimizing shaking in stable space mapping and video shooting.

이러한 추돌방지시스템에는 예컨대 적외선 카메라(IR Camera), 초음파 센서(Ultrasonic Sensor) 및 기압 센서(Pressurer Sensor)를 조합하는 구성으로 이루어질 수 있으며, 특히 지도 생성의 처리가 가능한 맵빌딩 센서 시스템(Map Building Sensor System)을 더 포함하는 구성으로 이루어질 수 있다.Such a collision avoidance system may be configured to include, for example, a combination of an infrared camera (IR Camera), an ultrasonic sensor, and a pressure sensor, and in particular, may further include a map building sensor system capable of processing map creation.

적외선 카메라(IR Camera)는 적외선 에너지의 데이터를 사용해 디지털 또는 아날로그의 영상 출력도 가능하며, 열화상을 통한 생물성 장애물을 감지하는 용도로 활용 가능하고, 초음파 센서(Ultrasonic Sensor)는 일정한 간격으로 높은 주파수의 사운드 펄스를 통해 짧게 소리를 발사하는 방식으로 근거리의 장애물을 감지하며 거리를 측정하는 용도로 활용 가능하며, 기압 센서(Pressurer Sensor)는 예컨대 네 개의 스트레인 게이지가 결합된 압력 센서 소자를 기반으로 기압을 측정하여 높이를 감지하는 용도로 활용 가능하다.Infrared cameras (IR Cameras) can output digital or analog images using infrared energy data, and can be used to detect biological obstacles through thermal images. Ultrasonic sensors can be used to detect obstacles at close range and measure distances by emitting short sounds through high-frequency sound pulses at regular intervals. Pressure sensors can be used to detect height by measuring air pressure based on a pressure sensor element that combines four strain gauges, for example.

그리고, 상기 드론부(100)에는 고속 라디오(High-Speed Radio; 802.11), 저속 라디오(1km Low-Speed Radio; 802.15.4), 프런트 페이싱 카메라(Front Facing Camera), 다운 페이싱 카메라(Down Facing Camera) 등이 더 설치되어 구성될 수도 있다.In addition, the drone unit (100) may be configured with a high-speed radio (802.11), a low-speed radio (1km low-speed radio; 802.15.4), a front facing camera, a down facing camera, etc.

한편, 추돌방지시스템은 특히 무인차(200)에도 장착될 수 있으며, 무인차(200)에 적용된 추돌방지시스템은 예컨대 첨단 비행운전 보조시스템의 적용이 이루어진 카메라형 기기 타입으로 구성될 수 있으며, 이러한 카메라형 기기는 자율 주행 기능을 위한 프로세서 및 모듈의 조합된 구성인 ADAS(Advanced Driver Assistanc Systems)으로 구성될 수 있되, 이는 예컨대 On Semi CMOS 이미지 센서가 적용된 이미지 센서 보드와 Intel MobilEye EyeQ3 프로세서가 적용된 프로세스 보드로 구성될 수 있다.Meanwhile, the collision avoidance system can be installed in particular in an unmanned vehicle (200), and the collision avoidance system applied to the unmanned vehicle (200) can be configured as a camera-type device type to which an advanced flight driving assistance system is applied, for example, and such a camera-type device can be configured as an ADAS (Advanced Driver Assistance Systems) which is a combined configuration of a processor and a module for an autonomous driving function, and this can be configured as an image sensor board to which an On Semi CMOS image sensor is applied and a process board to which an Intel MobilEye EyeQ3 processor is applied, for example.

무인차(200)에 적용된 추돌방지시스템은 더욱이 장거리 감지 가능을 개선한 망원렌즈와 단거리 감지를 개선하기 위한 어안 렌즈로 구성될 수 있다.The collision avoidance system applied to the unmanned vehicle (200) can further be configured with a telephoto lens for improved long-distance detection and a fish-eye lens for improved short-distance detection.

그리고, 상기 맵빌딩센서시스템(Map Building Sensor System)은 예컨대 단일 카메라, 스트레오 카메라, RGB-D 카메라, 이벤트 카메라, 2D LiDAR, 3D LiDAR 을 총망라하는 센서들을 조합하는 방식으로 구성될 수 있으며, 결국 이러한 센서들의 조합들로 구성되는 상기의 맵빌딩센서시스템은 SLAM(Simulaneous Lacalization and Mapping) 또는 SFM(Structure from Motion) 기술을 적용한 기법으로 지도의 생성과 빌딩을 처리할 수 있다.In addition, the above Map Building Sensor System can be configured by combining sensors including, for example, a single camera, a stereo camera, an RGB-D camera, an event camera, a 2D LiDAR, and a 3D LiDAR, and ultimately, the above Map Building Sensor System configured by combinations of these sensors can generate a map and process a building using a technique that applies SLAM (Simulaneous Localization and Mapping) or SFM (Structure from Motion) technology.

물론, 맵빌딩센서시스템(Map Building Sensor System)에서 처리되는 지도는 예컨대 SLAM(Simulaneous Lacalization and Mapping)을 통해 레이더, 라이다(LiDAR), GPS, 카메라 등의 복합 센서들의 계산을 통해 공간을 형성할 수 있다.Of course, the map processed by the Map Building Sensor System can form a space through calculations from complex sensors such as radar, LiDAR, GPS, and cameras, for example, through SLAM (Simulaneous Localization and Mapping).

특히, 라이다(LiDAR; Light Dectection And Ranging)는 레이저 펄스의 반사 시간 측정에 따른 위치 좌표를 맵핑(Mapping) 하는 방식으로 빛을 이용한 주변 물체 및 장애물 등을 감지하는 용도로 활용 가능한데, 레이저 송신부, 레이저 검출부, 신호수집처리부 및 데이터 송수신부를 포함하는 구성으로 이루어질 수 있다.In particular, LiDAR (Light Detection And Ranging) can be used to detect surrounding objects and obstacles using light by mapping location coordinates based on the measurement of the reflection time of a laser pulse, and can be configured to include a laser transmitter, a laser detector, a signal collection and processing unit, and a data transmission and reception unit.

이러한 라이다(LiDAR; Light Dectection And Ranging)는 빠른 데이터의 수집 및 처리에 따른 높은 정확성과 함께 다른 센서들과 돌리 사물까지의 거리, 방향, 물질 분포 및 농도의 특성마저 감지할 수 있고, 레이저 신호의 변조 방법에 따라 ToF 및 PS 원리로 작동될 수 있다.These LiDARs (Light Detection And Ranging) can detect the distance, direction, material distribution and concentration characteristics of objects with other sensors, along with high accuracy due to rapid data collection and processing, and can operate on the ToF and PS principles depending on the modulation method of the laser signal.

물론, ToF(Time of Flight)는 예컨대 방사된 레이저 펄스 시그널(Laser Pulse Signal(905nm, 1550nm)의 반사 시간을 측정할 수 있고, PS(Phase Shift)는 지속적인 변조의 방사 후 반사된 위상의 변화를 측정할 수 있다.Of course, ToF (Time of Flight) can measure the reflection time of an emitted laser pulse signal (Laser Pulse Signal (905 nm, 1550 nm), for example), and PS (Phase Shift) can measure the change in the reflected phase after the emission of continuous modulation.

이와 같이, 본 발명에 따른 3인칭 시야를 갖는 무인차 자율주행을 위한 드론 커플링 교통 체계 시스템은, 사물인터넷(IoT) 환경 기반의 기술이 부족한 농촌이나 어촌 및 산촌 같은 지역 혹은 전파 방해가 많은 장애물 지역에, 드론을 활용한 무인차의 자율주행 실현성을 구현하고, 드론과 무인차 간의 교신을 제어하며 관리하는 관리서버의 구축을 통한 원활한 교통 흐름성도 제고할뿐마 아니라, 충돌 사고시의 현장 상황에 대한 신속한 파악 및 대응과 대처와 함께, 무인차의 원활한 자율주행과 더불어 자율 주행에 필요한 시스템의 구축에 소모되는 비용마저 절감시키는 효과를 기대할 수 있다.In this way, the drone coupling traffic system for autonomous driving of an unmanned vehicle with a third-person view according to the present invention realizes autonomous driving of an unmanned vehicle using a drone in areas such as rural areas, fishing villages, and mountain villages where Internet of Things (IoT) environment-based technology is lacking, or in areas with many obstacles such as radio interference, and not only improves smooth traffic flow through the construction of a management server that controls and manages communication between drones and unmanned vehicles, but also enables rapid identification, response, and countermeasures for the on-site situation in the event of a collision, and is expected to have the effect of reducing the cost consumed in constructing a system necessary for autonomous driving along with smooth autonomous driving of an unmanned vehicle.

더욱이, 자율 주행에 요구되는 시스템의 구축에 투입되는 비용이 절감될 수 있는 관계로, 자율 주행 관련 산업 발전의 활성화에 기여할 수 있고, 특장차의 용도 분야나 배송차의 용도 분야 뿐만 아니라, 모니터링, 매핑, 보안과 같은 산업에도 지대한 역할을 기대할 수 있으며, 드론을 연계한 지능형 교통 체계의 플랫폼에 대한 규모의 확장성에도 기여할 수 있다.Moreover, since the cost of building the systems required for autonomous driving can be reduced, it can contribute to the revitalization of the autonomous driving-related industry, and it can play a significant role not only in the fields of special purpose vehicles and delivery vehicles, but also in industries such as monitoring, mapping, and security, and it can also contribute to the scalability of the platform for intelligent transportation systems linked to drones.

게다가, 지능형 자율 주행의 서비스가 제공됨에 따라, 운전자의 과실로 인한 사망율 및 사고 발생의 위험율이 줄어들 수 있으며, 신속한 대처로 인한 2차 사고도 예방할 수 있다.Moreover, as intelligent autonomous driving services are provided, the risk of deaths and accidents due to driver negligence can be reduced, and secondary accidents can be prevented through rapid response.

아울러, 교통 혼잡으로 인한 도로상에서 낭비되는 시간이 절약될 수 있고, 대중교통, 화물운송, 공공서비스 등의 산업 분야에서도 자율 주행을 통한 효율적인 서비스가 향상되는 효과도 있다.Additionally, it can save time wasted on the road due to traffic congestion, and autonomous driving can also improve efficiency in industries such as public transportation, freight transport, and public services.

이러한 본 발명에 따른 3인칭 시야를 갖는 무인차 자율주행을 위한 드론 커플링 교통 체계 시스템은 도시된 도면들과 일례로서 설명되나 이에 한정되지 않고 지역의 상태나 환경에 따라 다양한 구성들의 추가 및 변경이 가능할 것이다.The drone coupling traffic system for autonomous driving of an unmanned vehicle with a third-person view according to the present invention is described as an example with the drawings shown, but is not limited thereto, and various configurations can be added and changed depending on the local conditions or environment.

드론부(100) 소형컴퓨터(110)
무인차(200) 연상형 엣지컴퓨터(210)
관제서버(300) 서버형 컴퓨터(310)
제1 제어부(320) 제2 제어부(330)
Drone Department (100) Small Computer (110)
Driverless car (200) and edge computer (210)
Control server (300) server-type computer (310)
First control unit (320) Second control unit (330)

Claims (9)

항공을 비행하며, 차량방향의 카메라(101)가 장착되어 차량의 자율 주행을 제어하는 드론부(100);
상기 드론부(100)와 연계되어 상기 드론부(100)의 제어에 따라 자율주행을 수행하며, 드론방향의 카메라(201)가 장착되어 상기 드론부(100)에 대한 항공 비행을 제어하는 무인차(200); 및
상기 드론부(100)와 상기 무인차(200) 간의 원활한 제어 교신을 중계하며 상기 드론부(100)와 상기 무인차(200) 모두를 통합적으로 제어 관리하는 관제서버(300); 를 포함하되,
상기 차량방향의 카메라(101)와 상기 드론방향의 카메라(201)의 구성에 따라, 상기 드론부(100)는 상기 무인차(200)의 자율 주행을 3인칭의 시야로 제어하여 상기 무인차(200)의 자율 주행에 대한 안전성을 도모하는 한편, 상기 무인차(200)는 상기 드론부(100)의 자율 비행을 3인칭의 시야로 제어하여 상기 드론부(100)의 자율 비행에 대한 안전성을 도모하게 되는 것을 특징으로 하는 3인칭 시야를 갖는 무인차 자율주행을 위한 드론 커플링 교통 체계 시스템.
A drone unit (100) that flies in the air and is equipped with a camera (101) facing the vehicle to control the autonomous driving of the vehicle;
An unmanned vehicle (200) that is connected to the drone unit (100) and performs autonomous driving according to the control of the drone unit (100), and is equipped with a camera (201) in the direction of the drone to control aerial flight with respect to the drone unit (100); and
A control server (300) that relays smooth control communication between the drone unit (100) and the unmanned vehicle (200) and comprehensively controls and manages both the drone unit (100) and the unmanned vehicle (200); including,
A drone coupling traffic system for autonomous driving of an unmanned vehicle having a third-person view, characterized in that, according to the configuration of the camera (101) in the vehicle direction and the camera (201) in the drone direction, the drone unit (100) controls the autonomous driving of the unmanned vehicle (200) with a third-person view to ensure the safety of the autonomous driving of the unmanned vehicle (200), and the unmanned vehicle (200) controls the autonomous flight of the drone unit (100) with a third-person view to ensure the safety of the autonomous flight of the drone unit (100).
제1항에 있어서, 상기 관제서버(300)는,
서버형 컴퓨터(310)가 더 설치되고, 상기 서버형 컴퓨터(310)는 상기 드론부(100)의 무인 비행에 대한 제어를 수행하는 제1 제어부(320) 및 상기 무인차(200)의 자율 주행에 대한 제어를 수행하는 제2 제어부(330)를 더 포함하는 것을 특징으로 하는 3인칭 시야를 갖는 무인차 자율주행을 위한 드론 커플링 교통 체계 시스템.
In the first paragraph, the control server (300)
A drone coupling traffic system for autonomous driving of an unmanned vehicle having a third-person view, characterized in that a server-type computer (310) is further installed, and the server-type computer (310) further includes a first control unit (320) that performs control for unmanned flight of the drone unit (100) and a second control unit (330) that performs control for autonomous driving of the unmanned vehicle (200).
제2항에 있어서, 상기 드론부(100)에는,
상기 무인차(200)의 자율 주행에 필요한 지령 신호들을 전송하는 방식으로 제어하는 소형컴퓨터(110)가 더 내장되어 있는 것을 특징으로 하는 3인칭 시야를 갖는 무인차 자율주행을 위한 드론 커플링 교통 체계 시스템.
In the second paragraph, in the drone part (100),
A drone coupling traffic system for autonomous driving of an unmanned vehicle having a third-person view, characterized in that it further includes a built-in small computer (110) that controls the autonomous driving of the unmanned vehicle (200) by transmitting command signals necessary for autonomous driving.
제3항에 있어서, 상기 소형컴퓨터(110)에는,
상기 드론부(100)의 무인 비행에 대한 제어를 수행하는 제1 제어부(320)로 제어하기 어려운 장애물 지역에서 상기 드론부(100)의 비행에 필요한 제어 수행을 위한 정밀비행제어기가 더 조합되어 구성되는 것을 특징으로 하는 3인칭 시야를 갖는 무인차 자율주행을 위한 드론 커플링 교통 체계 시스템.
In the third paragraph, the small computer (110)
A drone coupling traffic system for autonomous driving of an unmanned vehicle having a third-person field of view, characterized in that a precision flight controller is further combined to perform control necessary for the flight of the drone unit (100) in an obstacle area that is difficult to control with a first control unit (320) that performs control for the unmanned flight of the drone unit (100).
제2항에 있어서, 상기 드론부(100)에는,
카메라의 수평 촬영에 필요한 짐벌의 설치도 포함되는 구조이고;
상기 짐벌에는 안정적인 공간 맵핑 및 영상 촬영의 흔들림을 최소화하하면서도 충돌 가능성을 미연에 방지하기 위한 추돌방지시스템의 설치도 포함되는 구조인 것을 특징으로 하는 3인칭 시야를 갖는 무인차 자율주행을 위한 드론 커플링 교통 체계 시스템.
In the second paragraph, in the drone part (100),
The structure also includes the installation of a gimbal required for horizontal shooting of the camera;
A drone coupling traffic system for autonomous driving of an unmanned vehicle with a third-person view, characterized in that the gimbal has a structure that includes installation of a collision avoidance system to prevent the possibility of collision in advance while minimizing shaking of stable spatial mapping and video shooting.
제2항에 있어서, 상기 무인차(200)에 설치된 추돌방지시스템은,
첨단 비행운전 보조시스템의 적용이 이루어진 카메라형 기기 타입으로 구성되되, 상기 카메라형 기기는 자율 주행 기능을 위한 프로세서와 모듈로 조합 구성된 ADAS(Advanced Driver Assistanc Systems)으로 구성되는 것을 특징으로 하는 3인칭 시야를 갖는 무인차 자율주행을 위한 드론 커플링 교통 체계 시스템.
In the second paragraph, the collision prevention system installed in the unmanned vehicle (200) is
A drone coupling traffic system for autonomous driving of an unmanned vehicle having a third-person field of view, characterized in that it is composed of a camera-type device type to which an advanced flight driving assistance system is applied, wherein the camera-type device is composed of an ADAS (Advanced Driver Assistance Systems) composed of a processor and a module for autonomous driving functions.
제5항에 있어서, 상기 추돌방지시스템은,
적외선 에너지의 데이터를 사용해 디지털 또는 아날로그의 영상 출력도 가능하며, 열화상을 통한 생물성 장애물을 감지하는 적외선 카메라(IR Camera);
일정한 간격으로 높은 주파수의 사운드 펄스를 통해 짧게 소리를 발사하는 방식으로 근거리의 장애물을 감지하며 거리를 측정하는 초음파 센서(Ultrasonic Sensor); 및
스트레인 게이지가 결합된 압력 센서 소자를 기반으로 기압을 측정하여 높이를 감지하는 기압 센서(Pressurer Sensor);
를 포함하는 조합된 구성으로 이루어진 것을 특징으로 하는 3인칭 시야를 갖는 무인차 자율주행을 위한 드론 커플링 교통 체계 시스템.
In the fifth paragraph, the collision prevention system,
An infrared camera (IR Camera) that uses infrared energy data to detect biological obstacles through thermal imaging, and can also output digital or analog images;
Ultrasonic sensor that detects obstacles at close range and measures distances by emitting short high-frequency sound pulses at regular intervals; and
A pressure sensor that detects height by measuring air pressure based on a pressure sensor element combined with a strain gauge;
A drone coupling traffic system for autonomous driving of an unmanned vehicle having a third-person view characterized by comprising a combined configuration including:
제7항에 있어서, 상기 추돌방지시스템은,
지도 생성의 처리가 가능한 맵빌딩 센서 시스템이 더 포함되는 구성인 것을 특징으로 하는 3인칭 시야를 갖는 무인차 자율주행을 위한 드론 커플링 교통 체계 시스템.
In the seventh paragraph, the collision prevention system,
A drone coupling traffic system for autonomous driving of an unmanned vehicle having a third-person view, characterized in that the system further includes a map building sensor system capable of processing map generation.
드론부(100)에 설치된 차량방향의 카메라(101)와 무인차(200)에 설치된 드론방향의 카메라(201) 구성에 따라, 드론부(100)는 무인차(200)의 자율 주행을 3인칭의 시야로 제어하고, 상기 무인차(200)는 상기 드론부(100)의 자율 비행을 3인칭의 시야로 제어하는 한편, 드론부(100)에 설치된 소형컴퓨터(110)와 무인차(200)에 설치된 연산형 엣지컴퓨터(210)의 구성에 따라, 드론부(100)는 무인차(200)의 자율 주행을 1인칭의 시야로 제어하고, 상기 무인차(200)는 상기 드론부(100)의 자율 비행을 1인칭의 시야로 제어함에 따라, 3인칭의 시야와 1인칭의 시야가 혼용되는 것을 특징으로 하는 3인칭 시야를 갖는 무인차 자율주행을 위한 드론 커플링 교통 체계 시스템.According to the configuration of the vehicle direction camera (101) installed in the drone unit (100) and the drone direction camera (201) installed in the unmanned vehicle (200), the drone unit (100) controls the autonomous driving of the unmanned vehicle (200) with a third-person view, and the unmanned vehicle (200) controls the autonomous flight of the drone unit (100) with a third-person view, and, on the other hand, according to the configuration of the small computer (110) installed in the drone unit (100) and the computational edge computer (210) installed in the unmanned vehicle (200), the drone unit (100) controls the autonomous driving of the unmanned vehicle (200) with a first-person view, and the unmanned vehicle (200) controls the autonomous flight of the drone unit (100) with a first-person view, thereby providing a drone for unmanned autonomous driving having a third-person view characterized in that the third-person view and the first-person view are mixed. Coupling transportation system system.
KR1020220019531A 2022-02-15 2022-02-15 Intelligent Transportation Systems for Automatic Driving of Drone linkage having the third view Active KR102841300B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220019531A KR102841300B1 (en) 2022-02-15 2022-02-15 Intelligent Transportation Systems for Automatic Driving of Drone linkage having the third view

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220019531A KR102841300B1 (en) 2022-02-15 2022-02-15 Intelligent Transportation Systems for Automatic Driving of Drone linkage having the third view

Publications (2)

Publication Number Publication Date
KR20230122827A KR20230122827A (en) 2023-08-22
KR102841300B1 true KR102841300B1 (en) 2025-08-04

Family

ID=87800010

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220019531A Active KR102841300B1 (en) 2022-02-15 2022-02-15 Intelligent Transportation Systems for Automatic Driving of Drone linkage having the third view

Country Status (1)

Country Link
KR (1) KR102841300B1 (en)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160134005A (en) * 2015-05-14 2016-11-23 경희대학교 산학협력단 The method of ensuring visibility using drone and adjacent vehicle and the display system using them
KR101715300B1 (en) * 2015-05-21 2017-03-10 경희대학교 산학협력단 The method of ensuring visibility using drone when get on and off and the system of them
KR102136293B1 (en) * 2018-08-16 2020-07-21 주식회사 코암 Autonomous vehicle control system and method
KR102263227B1 (en) * 2018-12-14 2021-06-10 건국대학교 산학협력단 Method and apparatus for control unmanned vehicle using artificial reality with relative navigation information
KR102007140B1 (en) 2019-01-30 2019-08-02 장승현 Integrated traffic information management system for smart city

Also Published As

Publication number Publication date
KR20230122827A (en) 2023-08-22

Similar Documents

Publication Publication Date Title
AU2019301524B2 (en) Control of automated following in vehicle convoys
US10906549B2 (en) Systems and methods of autonomously controlling vehicle lane change maneuver
JP6893140B2 (en) Control devices, control methods, control programs and control systems
US11634134B2 (en) Using discomfort for speed planning in responding to tailgating vehicles for autonomous vehicles
US20200047757A1 (en) Vehicle with autonomous driving capability
JP6706845B2 (en) Remote control device, remote control method
US10627825B2 (en) Using discomfort for speed planning in autonomous vehicles
US20190049941A1 (en) Electronic control units, vehicles, and methods for switching vehicle control from an autonomous driving mode
US10940851B2 (en) Determining wheel slippage on self driving vehicle
US20190300007A1 (en) Methods and devices for autonomous vehicle operation
US20180113210A1 (en) Mountable Radar System
CN111386217A (en) Techniques for switching between manual and autonomous control of a movable object
CN111051170A (en) Identifying unassigned passengers of an autonomous vehicle
US11560131B2 (en) Lane prediction and smoothing for extended motion planning horizon
US11855691B1 (en) Vehicle with free-space optical link for log data uploading
WO2020203657A1 (en) Information processing device, information processing method, and information processing program
US11352024B2 (en) Autonomous vehicle emergency route guidance
JPWO2020031689A1 (en) Information processing equipment and information processing methods, computer programs, information processing systems, and mobile equipment
JP7340669B2 (en) Control device, control method, control program and control system
JPWO2020116204A1 (en) Information processing device, information processing method, program, mobile control device, and mobile
WO2023050129A1 (en) Vehicle control method and apparatus
US20220194375A1 (en) Vehicle control system and vehicle control method
KR102841300B1 (en) Intelligent Transportation Systems for Automatic Driving of Drone linkage having the third view
KR20220110433A (en) Dynamically-localized sensors for vehicles
WO2019176278A1 (en) Information processing device, information processing method, program, and mobile body

Legal Events

Date Code Title Description
PA0109 Patent application

St.27 status event code: A-0-1-A10-A12-nap-PA0109

PA0201 Request for examination

St.27 status event code: A-1-2-D10-D11-exm-PA0201

P11-X000 Amendment of application requested

St.27 status event code: A-2-2-P10-P11-nap-X000

P13-X000 Application amended

St.27 status event code: A-2-2-P10-P13-nap-X000

P22-X000 Classification modified

St.27 status event code: A-2-2-P10-P22-nap-X000

R18-X000 Changes to party contact information recorded

St.27 status event code: A-3-3-R10-R18-oth-X000

PG1501 Laying open of application

St.27 status event code: A-1-1-Q10-Q12-nap-PG1501

P22-X000 Classification modified

St.27 status event code: A-2-2-P10-P22-nap-X000

P22-X000 Classification modified

St.27 status event code: A-2-2-P10-P22-nap-X000

E902 Notification of reason for refusal
PE0902 Notice of grounds for rejection

St.27 status event code: A-1-2-D10-D21-exm-PE0902

P11-X000 Amendment of application requested

St.27 status event code: A-2-2-P10-P11-nap-X000

E701 Decision to grant or registration of patent right
PE0701 Decision of registration

St.27 status event code: A-1-2-D10-D22-exm-PE0701

PN2301 Change of applicant

St.27 status event code: A-3-3-R10-R11-asn-PN2301

PR0701 Registration of establishment

St.27 status event code: A-2-4-F10-F11-exm-PR0701

PR1002 Payment of registration fee

St.27 status event code: A-2-2-U10-U11-oth-PR1002

Fee payment year number: 1

PG1601 Publication of registration

St.27 status event code: A-4-4-Q10-Q13-nap-PG1601