WO2024048839A1 - Hazard evaluation method for safety of marine ai system - Google Patents

Hazard evaluation method for safety of marine ai system Download PDF

Info

Publication number
WO2024048839A1
WO2024048839A1 PCT/KR2022/016082 KR2022016082W WO2024048839A1 WO 2024048839 A1 WO2024048839 A1 WO 2024048839A1 KR 2022016082 W KR2022016082 W KR 2022016082W WO 2024048839 A1 WO2024048839 A1 WO 2024048839A1
Authority
WO
WIPO (PCT)
Prior art keywords
risk
hazard
user
action
marine
Prior art date
Application number
PCT/KR2022/016082
Other languages
French (fr)
Korean (ko)
Inventor
이서정
이창의
Original Assignee
한국해양대학교 산학협력단
(주)보르겐에스씨
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국해양대학교 산학협력단, (주)보르겐에스씨 filed Critical 한국해양대학교 산학협력단
Publication of WO2024048839A1 publication Critical patent/WO2024048839A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling

Definitions

  • the present invention relates to a risk assessment method for marine AI system safety, and more specifically, to a method of finding internal problems, problems and risk factors when a failure occurs in a marine AI system.
  • Risk assessment of these systems is to identify any failures in the functions of the developed system and evaluate how much damage this failure will cause to people or property.
  • the present invention was created to solve the problems described above, and is designed to find risk factors by taking into account the characteristics of artificial intelligence and problems with the external environment, such as weather or interaction with people, which are not provided by conventional evaluation methods. It provides a risk assessment method for the safety of marine AI systems.
  • the risk assessment method for the safety of the marine AI system of the present invention to achieve the above-mentioned purpose is a risk assessment method for evaluating the risk of the system to be evaluated, in which the computing device (a) risk regulation (Rule) , an expected risk definition step in which harm, hazard, and hazard identifier (Hazard ID) corresponding to the risk regulations are input and stored; (b) the evaluation target system stored in advance or input from the user; A risk factor selection step of displaying the control structure, displaying a list of risk factor candidates for each classification stored in advance, receiving selection from the user, and generating and storing a risk factor candidate list including the selected risk factor candidates, ( c) Displaying the hazard identifier (Hazard ID) stored in step (a) and at least part of the risk factor candidate list stored in step (b), and selecting and/or inputting from the user to take a risk action (Action) defines an unsafe action (UA) by selecting and/or inputting conditions for the defined risk behavior from the user, and
  • Unsafe behavior analysis step (d) receiving input from the user on the likelihood of occurrence (Likelihood) and impact of damage (impact) for each of the unsafe behaviors, and calculating and displaying the risk and risk level based on the likelihood of occurrence and impact of damage. and a risk rating evaluation step (e) of receiving and storing safety requirements from the user, and a report generation step of generating a report based on the data stored in steps (a) to (d).
  • the risk rule preferably includes the rule identifier to be managed (Rule ID), the content of the rule (Description), and the source information of the rule (Reference).
  • the computing device diagrams the control structure of the system and receives selection from the user for each stakeholder, system function, artificial intelligence function, behavior method, and environment or situation condition, and selects stakeholder candidates, system function candidates, and artificial intelligence functions. It is desirable to create a list of risk factors that includes candidates, behavioral candidates, and environmental or situational conditions.
  • the risk action includes a system function-based risk action
  • the computing device selects the stakeholder candidate group, the system function candidate group, the action method candidate group, and the stored risk identifier (Hazard ID) It is desirable to create and store the system function-based risk behavior based on the stakeholders, system function, behavior method, and risk identifier (Hazard ID) selected by the user in each case.
  • the risk action includes a risk action based on an artificial intelligence function
  • the computing device selects the stakeholder candidate group, the artificial intelligence function candidate group, the action method candidate group, and the stored risk identifier.
  • Hazard ID It is desirable to generate and store the artificial intelligence function-based risk behavior based on the stakeholders, artificial intelligence function, behavior method, and risk identifier (Hazard ID) selected by each user.
  • step (d) calculates the risk level with a value calculated by multiplying the input numerical value of the probability of occurrence and the numerical value of the damage impact level, and calculates the risk level based on the calculated risk level and the predefined risk rating calculation criteria. It is desirable to calculate the risk level based on
  • step (e) includes Harm and hazard, Unsafe behavior (UA), Unsafe behavior cause (UA cause), Unsafe behavior risk degree, and Risk requirement. It is desirable to generate an included report.
  • the present invention with the above configuration relates to a risk assessment method for the safety of marine AI systems. More specifically, it complements the problems of conventional analysis methods to determine the risks of the external environment as well as the inside of the system and the characteristics of artificial intelligence. By adding a method that considers risk factors, a more accurate risk analysis method can be provided, and since it is used as a web browser rather than installed on the user's PC, it can be used without a separate complicated installation process.
  • Figure 1 is a flowchart of a risk assessment method for marine AI system safety according to an embodiment of the present invention.
  • Figure 2 is a diagram illustrating a login screen according to an embodiment of the present invention.
  • Figure 3 is a diagram illustrating a project creation screen according to an embodiment of the present invention.
  • Figure 4 is a diagram illustrating a screen for collecting necessary regulations according to an embodiment of the present invention.
  • Figure 5 is a diagram illustrating a screen for identifying hazards and risks through regulations according to an embodiment of the present invention.
  • Figure 6 is a diagram illustrating a screen diagramming the control structure for an evaluation system according to an embodiment of the present invention.
  • Figure 7 is a diagram illustrating a screen for generating a stakeholder candidate group according to an embodiment of the present invention.
  • Figure 8 is a diagram illustrating a screen for generating a system function candidate group according to an embodiment of the present invention.
  • Figure 9 is a diagram illustrating a screen for generating an artificial intelligence function candidate group according to an embodiment of the present invention.
  • Figure 10 is a diagram illustrating a screen for generating a behavioral method candidate group according to an embodiment of the present invention.
  • Figure 11 is a diagram illustrating a screen for generating a candidate group of environmental or situation conditions according to an embodiment of the present invention.
  • Figure 12 is a diagram illustrating a screen for deriving risky behavior based on system functions according to an embodiment of the present invention.
  • Figure 13 is a diagram illustrating a screen for deriving risky behavior based on artificial intelligence functions according to an embodiment of the present invention.
  • Figure 14 is a diagram illustrating a screen for deriving unsafe behavior (UA) according to an embodiment of the present invention.
  • Figure 15 is a diagram illustrating a screen for analyzing the causes of unsafe behavior (UA) according to an embodiment of the present invention.
  • Figure 16 is a diagram illustrating a screen for assigning a risk level to unsafe behavior (UA) according to an embodiment of the present invention.
  • Figure 17 is a diagram showing the unsafe behavior (UA) risk level range according to an embodiment of the present invention.
  • Figure 18 is a diagram illustrating a screen for deriving safety requirements according to an embodiment of the present invention.
  • Figures 19 to 22 are diagrams showing reports generated according to an embodiment of the present invention.
  • the risk assessment method for marine AI system safety is a method of finding problems and risk factors when a failure occurs based on the internal problems of the marine AI system, interaction with the system, and characteristics of artificial intelligence.
  • Figure 1 is a flowchart showing a risk assessment method for marine AI system safety according to an embodiment of the present invention, which includes an expected risk definition step (S100), a risk factor selection step (S200), an unsafe behavior analysis step (S300), It is desirable to include a risk rating evaluation step (S400) and a report generation step (S500).
  • S100 expected risk definition step
  • S200 risk factor selection step
  • S300 unsafe behavior analysis step
  • S400 risk rating evaluation step
  • S500 report generation step
  • the user created next may be one person, may be a different user at each stage, or may be a terminal or computer.
  • all web pages can be configured as responsive web pages, and the resolution is preferably FHD (1920*1080).
  • the color style may be comprised of an overall navy blue tone, and it is desirable that all languages on the web page, including warning messages such as notifications, be comprised of English.
  • membership registration may require email authentication and administrator approval, and it is desirable to have a separate administrator page.
  • a project creation screen can be displayed, and it is preferable that the creation screen is created by simply entering the project name.
  • the project list is desirable for the project list to be displayed in card form on the screen.
  • the project name is desirable for the project name to be displayed as an icon so that it can be changed or deleted.
  • a menu in the form of an arrow at the top may appear at each step, and it is desirable to move to the page by clicking the menu. do.
  • the screen created by the user may take the form of a table like Excel, and it is desirable to be able to copy, paste, cut, and restore the created text.
  • regulations that can be entered are related to the International Maritime Safety Convention, including 'COLREG', the international regulation on prevention of collisions at sea, 'SOLAS', the International Convention for the Safety of Life at Sea, and the international standards for training and certification of seafarers and watchkeeping. It is desirable to include the 'STCW Convention', which is a convention, and the 'ISPS code', which is an international ship security agreement.
  • the Rule column is preferably composed of a combo box so that the user can select a combination of the rule identifier to be managed (Rule ID) and the source information (Reference) of the rule shown in FIG. 3.
  • FIGS 6 to 11 described below discuss one embodiment of the framework according to the risk factor selection step (S200) of Figure 1.
  • the electronic file may be a basic example electronic file for diagramming the control structure of the system, and the electronic file preferably consists of one slide with a diagram of the structure of the system to be evaluated.
  • the contents of the electronic file can be displayed by default, and the user can download it, and when the modified electronic file is uploaded, it is desirable to display the corresponding picture on the screen.
  • the stakeholder candidate group includes the captain, artificial intelligence model, control model, artificial intelligence model life cycle management system, etc.
  • system function candidates preferably include data measurement, data collection, situational awareness, situational judgment, propulsion command, steering command, error indication, etc.
  • the candidates for artificial intelligence functions include data quality, AI performance, and AI reliability such as predictability and controllability.
  • adjectives or verbs such as not provided, provided too late, misunderstood, none, too much, too little, etc. as candidates for action.
  • the candidate group of environmental or situational conditions preferably includes weather, ship's condition, status with other ships, maritime objects, data disturbance, artificial intelligence life cycle, etc.
  • FIGS 12 to 15 described below discuss one embodiment of the framework according to the unsafe behavior analysis step (S300) of Figure 1.
  • the first value of Action can be selected using a combo box by calling up the System function candidate, and it is desirable to select the second value of Action using a combo box by calling up the Behavior type candidate.
  • the first value of Action can be selected using a combo box by calling an AI function candidate, and the second value of Action should be selected by calling a Behavior type candidate and using a combo box.
  • the selected stakeholder candidate be filled in the stakeholder list.
  • the value of each cell of the Condition column can be expressed as one or more values, and it is desirable for the combo box to grow variably.
  • the UA ID assigned in FIG. 14 can be retrieved as is, and the cause of the unsafe behavior (UA Cause) can be entered by the user. It is desirable to receive it.
  • FIGS 16 to 18 described below discuss one embodiment of the framework according to the risk rating step (S400) of Figure 1.
  • the user can select and enter a score between 1 and 5 for the likelihood of occurrence, and it is desirable for the user to select and enter a score between 1 and 5 for the impact.
  • the risk score is automatically calculated and entered as the product of the Likelihood value and the Impact value of the corresponding row.
  • the UA risk degree can be automatically calculated according to the Risk Score value, with 1 to 5 points being Low Risk, 6 to 10 points being Medium Risk, 11 to 19 points being High Risk, and 20 to 25 points being Low Risk. If it is a point, it is desirable to enter it as Extreme Risk.
  • the Hazard ID assigned in FIG. 5 and the UA ID value assigned in FIG. 14 can be pre-filled, and it is desirable for the user to directly input the corresponding safety requirements.
  • FIGS. 19 to 22 described below discuss an embodiment of the framework according to the report generation step (S500) of FIG. 1.
  • a report tabulated by the values derived from FIGS. 4 to 16 and 18 reports harm and hazard, unsafe behavior (UA), and cause of unsafe behavior (UA). It is desirable to generate reports on cause, unsafe behavior risk degree (UA risk degree), and risk requirement.

Landscapes

  • Business, Economics & Management (AREA)
  • Human Resources & Organizations (AREA)
  • Engineering & Computer Science (AREA)
  • Strategic Management (AREA)
  • Economics (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Educational Administration (AREA)
  • Development Economics (AREA)
  • Game Theory and Decision Science (AREA)
  • Marketing (AREA)
  • Operations Research (AREA)
  • Quality & Reliability (AREA)
  • Tourism & Hospitality (AREA)
  • Physics & Mathematics (AREA)
  • General Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

Provided is a method for identifying and evaluating a hazard that may occur when artificial intelligence is applied to a marine field system. The method of the present invention comprises: an expected hazard defining step for a marine AI system; a hazard factor selecting step for schematizing a control structure of the marine field system, displaying a list of hazard factor candidates, and generating and storing a list of selected hazard factor candidates upon selection from a user; an unsafe action analyzing step for defining an unsafe action (UA), receiving, from the user, an input of a cause of the unsafe action (UA), and storing same; a hazard level evaluating step for calculating a degree of hazard and a hazard level on the basis of a degree of damage effect and occurrence likelihood for each unsafe action, receiving an input of safety requirements, and storing same; and a report generating step for generating a report on the basis of pieces of data from the above steps.

Description

해양 AI 시스템 안전을 위한 위험성 평가 방법Risk assessment method for maritime AI system safety
본 발명은 해양 AI 시스템 안전을 위한 위험성 평가 방법에 관한 것으로, 더욱 자세하게는 해양 AI 시스템의 내부 문제, 고장 발생시 문제점 및 위험 요소를 찾는 방법에 관한 것이다.The present invention relates to a risk assessment method for marine AI system safety, and more specifically, to a method of finding internal problems, problems and risk factors when a failure occurs in a marine AI system.
시스템의 오작동으로 인행 발생하는 사고를 줄이기 위해 시스템을 개발하는 단계에서 안전과 관련된 기능에 대해 위험을 평가하고 무결성을 확보하는 기능안전(Functional Safety)의 개념이 도입되고 있다.In order to reduce accidents that occur due to system malfunction, the concept of functional safety, which evaluates risks and secures the integrity of safety-related functions during the system development stage, is being introduced.
이러한 시스템의 위험성 평가는 개발된 시스템 기능의 실패가 어떤 것이 있는지 찾아내고, 이 실패가 사람이나 재산에 얼마나 큰 피해를 입힐 것인지 평가하는 것이다.Risk assessment of these systems is to identify any failures in the functions of the developed system and evaluate how much damage this failure will cause to people or property.
다만, 그동안 시스템 기능의 실패는 시스템 내부에서만 찾았으나, 시스템이 복잡해지고 인공지능도 도입이 되면서 시스템이나 사람과의 상호작용이나 주변 환경에 의해 안전을 위협하는 문제점들이 발생되고 있다.However, failures in system functions have been found only within the system, but as systems become more complex and artificial intelligence is introduced, problems that threaten safety are occurring due to interactions with the system or people or the surrounding environment.
이를 위해, 시스템 기능에 대한 위험을 평가하는 방법 중 전통적인 방법인 FMEA(Failure Mode and Effects Analysis), HAZOP(Hazard and Operability)와 ETA(Event Tree Analysis)에서 최근 방법인 STPA(System Theoretic Process Analysis)와 CAST(Causal Analysis based on System Theory)방법으로 변화하고 있다.To this end, among the methods for evaluating risks to system functions, the traditional methods of FMEA (Failure Mode and Effects Analysis), HAZOP (Hazard and Operability), and ETA (Event Tree Analysis) are replaced with the more recent methods, STPA (System Theoretic Process Analysis). It is changing to CAST (Causal Analysis based on System Theory) method.
그렇지만, 전통적인 방법의 경우 사고의 원인을 다양한 관점에서 찾기에 어려움이 있으며, 특히 시스템과의 상호작용을 통한 사고의 원인을 찾는데 어려움이 있다. 최근에 고안된 STPA나 CAST 방법의 경우 시스템의 상호작용을 고려하기 위해 거쳐야 할 과정이 복잡하고 인공지능의 특성인 신뢰성, 공정성, 데이터 품질 등을 고려하지 못한다는 문제점이 있다.However, in the case of traditional methods, it is difficult to find the cause of the accident from various perspectives, and in particular, it is difficult to find the cause of the accident through interaction with the system. In the case of recently designed STPA or CAST methods, the process required to consider system interaction is complicated and there is a problem in that it does not take into account reliability, fairness, and data quality, which are characteristics of artificial intelligence.
이와 관련해서, 국내 등록 특허 제10-1794506호(“위험 분석 방법 및 장치, 컴퓨터 판독가능 기록 매체”)에서는 STPA에 기초하여 소프트웨어 제어 시스템의 위험 분석을 수행하는 기술이 개시되고 있다.In this regard, domestically registered patent No. 10-1794506 (“Risk analysis method and apparatus, computer-readable recording medium”) discloses a technology for performing risk analysis of a software control system based on STPA.
[선행기술문헌][Prior art literature]
[특허문헌][Patent Document]
등록특허공보 제 10-1794506호(2017.11.01.)Registered Patent Publication No. 10-1794506 (2017.11.01.)
본 발명은 상기한 바와 같은 문제점을 해결하기 위해 안출된 것으로, 종래의 평가 방법에서 제공되지 않는 날씨나 사람과의 상호작용과 같은 외부 환경에 대한 문제와 인공지능이 가지는 특성을 고려해 위험 요소를 찾을 수 있는 해양 AI 시스템 안전을 위한 위험성 평가 방법을 제공함에 있다.The present invention was created to solve the problems described above, and is designed to find risk factors by taking into account the characteristics of artificial intelligence and problems with the external environment, such as weather or interaction with people, which are not provided by conventional evaluation methods. It provides a risk assessment method for the safety of marine AI systems.
상기한 바와 같은 목적을 달성하기 위한 본 발명의 해양 AI 시스템 안전을 위한 위험성 평가 방법은 평가하고자 하는 시스템에 대해 위험성을 평가하기 위한 위험성 평가 방법에 있어서, 연산장치가 (a) 위험 규정(Rule), 상기 위험 규정에 해당하는 위해(Harm), 위험(Hazard), 및 위험 식별자(Hazard ID)를 입력받아 저장하는 예상 위험 정의 단계, (b) 사전에 저장된 또는 사용자로부터 입력 받은 상기 평가 대상 시스템의 제어 구조를 디스플레이하고, 사전에 저장된 복수의 분류별 위험 요인 후보에 대한 리스트를 표시하며, 사용자로부터 선택받아, 선택된 상기 위험 요인 후보가 포함된 위험 요인 후보 리스트를 생성하여 저장하는 위험 요인 선택 단계, (c) 상기 단계(a)에서 저장된 위험 식별자(Hazard ID), 및 상기 단계(b)에서 저장된 상기 위험 요인 후보 리스트 중 적어도 일부를 표시하고, 사용자로부터 선택 및/또는 입력받아 위험 행동(Action)을 정의하고, 상기 정의된 위험 행동에 대한 조건(Condition)을 사용자로부터 선택 및/또는 입력 받아 불안전 행동(UA: Unsafe Action)을 정의하며, 상기 불안전 행동(UA)의 원인을 사용자로부터 입력받아 저장하는 불안전 행동 분석 단계, (d) 사용자로부터 상기 불안전 행동별로 발생 가능도(Likelihood)와 피해 영향도(Impact)를 입력받고, 상기 발생 가능도 및 피해 영향도에 기초하여 위험도 및 위험 등급을 산출하여 표시하고, 사용자로부터 안전 요구사항을 입력받아 저장하는 위험 등급 평가 단계 (e) 상기 단계(a) 내지 단계(d)에서 저장된 데이터를 기초로 리포트를 생성하는 리포트 생성 단계를 포함하는 것이 바람직하다.The risk assessment method for the safety of the marine AI system of the present invention to achieve the above-mentioned purpose is a risk assessment method for evaluating the risk of the system to be evaluated, in which the computing device (a) risk regulation (Rule) , an expected risk definition step in which harm, hazard, and hazard identifier (Hazard ID) corresponding to the risk regulations are input and stored; (b) the evaluation target system stored in advance or input from the user; A risk factor selection step of displaying the control structure, displaying a list of risk factor candidates for each classification stored in advance, receiving selection from the user, and generating and storing a risk factor candidate list including the selected risk factor candidates, ( c) Displaying the hazard identifier (Hazard ID) stored in step (a) and at least part of the risk factor candidate list stored in step (b), and selecting and/or inputting from the user to take a risk action (Action) defines an unsafe action (UA) by selecting and/or inputting conditions for the defined risk behavior from the user, and receives input from the user and stores the cause of the unsafe action (UA). Unsafe behavior analysis step, (d) receiving input from the user on the likelihood of occurrence (Likelihood) and impact of damage (impact) for each of the unsafe behaviors, and calculating and displaying the risk and risk level based on the likelihood of occurrence and impact of damage. and a risk rating evaluation step (e) of receiving and storing safety requirements from the user, and a report generation step of generating a report based on the data stored in steps (a) to (d).
또한, 상기 위험 규정(Rule)은 관리할 규정 식별자(Rule ID), 규정의 내용(Description) 및 규정의 출처 정보(Reference)를 포함하는 것이 바람직하다.In addition, the risk rule (Rule) preferably includes the rule identifier to be managed (Rule ID), the content of the rule (Description), and the source information of the rule (Reference).
또한, 상기 연산장치는 시스템의 제어 구조를 도식화하고 이해관계자, 시스템 기능, 인공지능 기능, 행동방식, 및 환경 또는 상황 조건 각각에 대하여 사용자로부터 선택받아, 이해관계자 후보군, 시스템 기능 후보군, 인공지능 기능 후보군, 행동 방식 후보군, 및 환경 또는 상황 조건 후보군을 포함하는 위험 요인 리스트를 생성하는 것이 바람직하다.In addition, the computing device diagrams the control structure of the system and receives selection from the user for each stakeholder, system function, artificial intelligence function, behavior method, and environment or situation condition, and selects stakeholder candidates, system function candidates, and artificial intelligence functions. It is desirable to create a list of risk factors that includes candidates, behavioral candidates, and environmental or situational conditions.
또한, 상기 (c)단계에서 상기 위험 행동(Action)은 시스템 기능 기반 위험 행동을 포함하고, 상기 연산장치가 상기 이해관계자 후보군, 상기 시스템 기능 후보군, 상기 행동 방식 후보군, 및 상기 저장된 위험 식별자(Hazard ID) 각각에서 사용자로부터 선택받은 이해관계자, 시스템 기능, 행동 방식 및 위험 식별자(Hazard ID)에 기초해서 상기 시스템 기능 기반 위험 행동을 생성하여 저장하는 것이 바람직하다.In addition, in step (c), the risk action (Action) includes a system function-based risk action, and the computing device selects the stakeholder candidate group, the system function candidate group, the action method candidate group, and the stored risk identifier (Hazard ID) It is desirable to create and store the system function-based risk behavior based on the stakeholders, system function, behavior method, and risk identifier (Hazard ID) selected by the user in each case.
또한, 상기 (c)단계에서 상기 위험 행동(Action)은 인공지능 기능 기반 위험 행동을 포함하고, 상기 연산장치가 상기 이해관계자 후보군, 상기 인공지능 기능 후보군, 상기 행동 방식 후보군, 및 상기 저장된 위험 식별자(Hazard ID) 각각에서 사용자로부터 선택받은 이해관계자, 인공지능 기능, 행동 방식 및 위험 식별자(Hazard ID)에 기초해서 상기 인공지능 기능 기반 위험 행동을 생성하여 저장하는 것이 바람직하다.In addition, in step (c), the risk action (Action) includes a risk action based on an artificial intelligence function, and the computing device selects the stakeholder candidate group, the artificial intelligence function candidate group, the action method candidate group, and the stored risk identifier. (Hazard ID) It is desirable to generate and store the artificial intelligence function-based risk behavior based on the stakeholders, artificial intelligence function, behavior method, and risk identifier (Hazard ID) selected by each user.
또한, 상기 (d)단계는 입력받은 상기 발생 가능도의 수치 값과 상기 피해 영향도의 수치 값을 곱하여 산출된 값으로 위험도를 산출하고, 산출된 상기 위험도 및 사전에 정의된 위험 등급 산정 기준에 기초하여 위험 등급을 산출하는 것이 바람직하다.In addition, step (d) calculates the risk level with a value calculated by multiplying the input numerical value of the probability of occurrence and the numerical value of the damage impact level, and calculates the risk level based on the calculated risk level and the predefined risk rating calculation criteria. It is desirable to calculate the risk level based on
또한, 상기 (e)단계는 위해와 위험(Harm and hazard), 불안전 행동(UA), 불안전 행동 원인(UA cause), 불안전 행동 위험 등급(UA risk degree), 및 위험 요구사항(Risk requirement)이 포함된 리포트를 생성하는 것이 바람직하다.In addition, step (e) includes Harm and hazard, Unsafe behavior (UA), Unsafe behavior cause (UA cause), Unsafe behavior risk degree, and Risk requirement. It is desirable to generate an included report.
상기와 같은 구성에 의한 본 발명은 해양 AI 시스템 안전을 위한 위험성 평가 방법에 관한 것으로, 더욱 상세하게는 종래의 분석 방법의 문제점을 보완하여, 시스템의 내부뿐만 아니라 외부 환경의 위험성 및 인공지능의 특성과 위험 요인을 고려하는 방법을 추가함으로써, 보다 정확한 위험 분석 방법을 제공할 수 있으며, 사용자 PC에 설치하는 것이 아닌 웹브라우저로 이용되기 때문에 별도의 복잡한 설치 과정 없이 이용할 수 있다.The present invention with the above configuration relates to a risk assessment method for the safety of marine AI systems. More specifically, it complements the problems of conventional analysis methods to determine the risks of the external environment as well as the inside of the system and the characteristics of artificial intelligence. By adding a method that considers risk factors, a more accurate risk analysis method can be provided, and since it is used as a web browser rather than installed on the user's PC, it can be used without a separate complicated installation process.
도 1은 본 발명의 일 실시예에 따른 해양 AI 시스템 안전을 위한 위험성 평가 방법의 순서도이다.Figure 1 is a flowchart of a risk assessment method for marine AI system safety according to an embodiment of the present invention.
도 2는 본 발명의 일 실시예에 따른 로그인 화면을 도시한 도면이다.Figure 2 is a diagram illustrating a login screen according to an embodiment of the present invention.
도 3은 본 발명의 일 실시예에 따른 프로젝트 생성 화면을 도시한 도면이다.Figure 3 is a diagram illustrating a project creation screen according to an embodiment of the present invention.
도 4는 본 발명의 일 실시예에 따른 필요한 규정을 수집하는 화면을 도시한 도면이다.Figure 4 is a diagram illustrating a screen for collecting necessary regulations according to an embodiment of the present invention.
도 5는 본 발명의 일 실시예에 따른 규정을 통해 위해와 위험을 식별하는 화면을 도시한 도면이다.Figure 5 is a diagram illustrating a screen for identifying hazards and risks through regulations according to an embodiment of the present invention.
도 6은 본 발명의 일 실시예에 따른 평가 시스템에 대한 제어 구조를 도식화한 화면을 도시한 도면이다.Figure 6 is a diagram illustrating a screen diagramming the control structure for an evaluation system according to an embodiment of the present invention.
도 7은 본 발명의 일 실시예에 따른 이해관계자 후보군을 생성하는 화면을 도시한 도면이다.Figure 7 is a diagram illustrating a screen for generating a stakeholder candidate group according to an embodiment of the present invention.
도 8은 본 발명의 일 실시예에 따른 시스템 기능 후보군을 생성하는 화면을 도시한 도면이다.Figure 8 is a diagram illustrating a screen for generating a system function candidate group according to an embodiment of the present invention.
도 9는 본 발명의 일 실시예에 따른 인공지능 기능 후보군을 생성하는 화면을 도시한 도면이다.Figure 9 is a diagram illustrating a screen for generating an artificial intelligence function candidate group according to an embodiment of the present invention.
도 10은 본 발명의 일 실시예에 따른 행동 방식 후보군을 생성하는 화면을 도시한 도면이다.Figure 10 is a diagram illustrating a screen for generating a behavioral method candidate group according to an embodiment of the present invention.
도 11은 본 발명의 일 실시예에 따른 환경 또는 상황 조건 후보군을 생성하는 화면을 도시한 도면이다.Figure 11 is a diagram illustrating a screen for generating a candidate group of environmental or situation conditions according to an embodiment of the present invention.
도 12는 본 발명의 일 실시예에 따른 시스템 기능 기반 위험 행동을 도출하는 화면을 도시한 도면이다.Figure 12 is a diagram illustrating a screen for deriving risky behavior based on system functions according to an embodiment of the present invention.
도 13은 본 발명의 일 실시예에 따른 인공지능 기능 기반 위험 행동을 도출하는 화면을 도시한 도면이다.Figure 13 is a diagram illustrating a screen for deriving risky behavior based on artificial intelligence functions according to an embodiment of the present invention.
도 14는 본 발명의 일 실시예에 따른 불안전 행동(UA)을 도출하는 화면을 도시한 도면이다.Figure 14 is a diagram illustrating a screen for deriving unsafe behavior (UA) according to an embodiment of the present invention.
도 15는 본 발명의 일 실시예에 따른 불안전 행동(UA)에 대한 원인을 분석하는 화면을 도시한 도면이다.Figure 15 is a diagram illustrating a screen for analyzing the causes of unsafe behavior (UA) according to an embodiment of the present invention.
도 16은 본 발명의 일 실시예에 따른 불안전 행동(UA)에 위험 등급을 부여하는 화면을 도시한 도면이다.Figure 16 is a diagram illustrating a screen for assigning a risk level to unsafe behavior (UA) according to an embodiment of the present invention.
도 17은 본 발명의 일 실시예에 따른 불안전 행동(UA) 위험 등급 범위를 보여주는 도면이다.Figure 17 is a diagram showing the unsafe behavior (UA) risk level range according to an embodiment of the present invention.
도 18은 본 발명의 일 실시예에 따른 안전 요구사항을 도출하는 화면을 도시한 도면이다.Figure 18 is a diagram illustrating a screen for deriving safety requirements according to an embodiment of the present invention.
도 19 내지 도 22은 본 발명의 일 실시예에 따른 생성된 리포트를 보여주는 도면이다.Figures 19 to 22 are diagrams showing reports generated according to an embodiment of the present invention.
이하 첨부한 도면들을 참조하여 본 발명의 해양 AI 시스템 안전을 위한 위험성 평가 방법을 상세히 설명한다.Hereinafter, the risk assessment method for the safety of the marine AI system of the present invention will be described in detail with reference to the attached drawings.
다음에 소개되는 도면들은 당업자에게 본 발명의 사상이 충분히 전달될 수 있도록 하기 위해 예로서 제공되는 것이다.The drawings introduced below are provided as examples so that the idea of the present invention can be sufficiently conveyed to those skilled in the art.
따라서, 본 발명은 이하 제시되는 도면들에 한정되지 않고 다른 형태로 구체화될 수도 있다.Accordingly, the present invention is not limited to the drawings presented below and may be embodied in other forms.
이 때, 사용되는 기술 용어 및 과학 용어에 있어서 다른 정의가 없다면, 이 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 통상적으로 이해하고 있는 의미를 가지며, 하기의 설명 및 첨부 도면에서 본 발명의 요지를 불필요하게 흐릴 수 있는 공지 기능 및 구서에 대한 설명을 생략한다.At this time, if there is no other definition in the technical and scientific terms used, they have meanings commonly understood by those skilled in the art to which this invention pertains, and the gist of the present invention is summarized in the following description and attached drawings. Descriptions of notice functions and provisions that may unnecessarily obscure are omitted.
본 발명에 일 실시예에 따른 해양 AI 시스템 안전을 위한 위험성 평가 방법은 해양 AI 시스템의 내부 문제 및 시스템과의 상호작용, 인공지능의 특성에 근거하여 고장 발생시 문제점 및 위험 요소를 찾는 방법이다.The risk assessment method for marine AI system safety according to an embodiment of the present invention is a method of finding problems and risk factors when a failure occurs based on the internal problems of the marine AI system, interaction with the system, and characteristics of artificial intelligence.
도 1은 이러한 본 발명의 일 실시예에 따른 해양 AI 시스템 안전을 위한 위험성 평가 방법을 나타낸 순서도로서, 예상 위험 정의 단계(S100), 위험 요인 선택 단계(S200), 불안전 행동 분석 단계(S300), 위험 등급 평가 단계(S400), 및 리포트 생성 단계(S500)을 포함하여 구성되는 것이 바람직하다.Figure 1 is a flowchart showing a risk assessment method for marine AI system safety according to an embodiment of the present invention, which includes an expected risk definition step (S100), a risk factor selection step (S200), an unsafe behavior analysis step (S300), It is desirable to include a risk rating evaluation step (S400) and a report generation step (S500).
평가 방법에 관한 프레임워크에 대해서는 도 2 내지 도 22를 참조하여 후술하는 구체적인 사례에 더 논의하기로 한다.The framework for the evaluation method will be further discussed in specific examples described later with reference to FIGS. 2 to 22.
또한, 다음에 작성되는 사용자는 1명일 수 있고, 각 단계별로 서로 다른 사용자일 수도 있으며, 단말기 또는 컴퓨터일 수도 있다.Additionally, the user created next may be one person, may be a different user at each stage, or may be a terminal or computer.
도 2에서 도시된 바에 의하면, 모든 웹페이지는 반응형 웹페이지로 구성될 수 있으며 해상도는 FHD(1920*1080)인 것이 바람직하다.As shown in Figure 2, all web pages can be configured as responsive web pages, and the resolution is preferably FHD (1920*1080).
또한, 색상 스타일은 전체적으로 군청색 톤으로 구성될 수 있으며, 알림과 같은 경고 메시지를 포함해서 상기 웹페이지의 모든 언어는 영어로 구성되는 것이 바람직하다.Additionally, the color style may be comprised of an overall navy blue tone, and it is desirable that all languages on the web page, including warning messages such as notifications, be comprised of English.
또한, 아이디와 비밀번호는 암호화해서 전송 및 DB에 저장되는 것이 바람직하다.Additionally, it is advisable to encrypt the ID and password before transmitting and storing them in the DB.
또한, 회원가입은 이메일 인증 및 관리자의 승인이 필요할 수 있으며, 별도의 관리자 페이지가 필요한 것이 바람직하다.Additionally, membership registration may require email authentication and administrator approval, and it is desirable to have a separate administrator page.
도 3에서 도시된 바에 의하면, New Project 버튼 생성시 프로젝트 생성 화면이 출력될 수 있으며, 생성화면은 프로젝트 이름만 입력하면 생성되는 것이 바람직하다.As shown in Figure 3, when the New Project button is created, a project creation screen can be displayed, and it is preferable that the creation screen is created by simply entering the project name.
또한, 화면에서 프로젝트 목록은 카드 형태로 보여지는 것이 바람직하다.Additionally, it is desirable for the project list to be displayed in card form on the screen.
또한, 프로젝트 이름의 변경 또는 삭제가 가능하도록 아이콘으로 표시되는 것이 바람직하다.Additionally, it is desirable for the project name to be displayed as an icon so that it can be changed or deleted.
다음 후술되는 도 4 및 도 5는 도 1의 예상 위험 정의 단계(S100)에 따른 프레임워크의 일 실시예에 대해 논한다.Figures 4 and 5, described below, discuss one embodiment of the framework according to the expected risk definition step (S100) of Figure 1.
예상 위험 정의 단계(S100)에 따른 도 4에서 도시된 바에 의하면, 다음으로 기재되는 도면들은 진행되는 단계별로 위쪽의 화살표 형태의 메뉴가 나타날 수 있으며, 해당 메뉴를 클릭하면 그 페이지로 이동하는 것이 바람직하다.As shown in FIG. 4 according to the expected risk definition step (S100), in the drawings described next, a menu in the form of an arrow at the top may appear at each step, and it is desirable to move to the page by clicking the menu. do.
또한, 페이지 전환시 변경된 내용이 있다면, 저장할 것이냐고 묻는 알림창이 뜨는 것이 바람직하다.Additionally, if there are any changes when switching pages, it is desirable to have a notification window appear asking if you want to save them.
또한, 사용자가 작성하는 화면은 엑셀과 같은 표 형태를 취할 수 있으며, 작성한 문자에 대해 복사, 붙여넣기, 잘라내기, 및 되돌리기 등이 가능한 것이 바람직하다.Additionally, the screen created by the user may take the form of a table like Excel, and it is desirable to be able to copy, paste, cut, and restore the created text.
또한, 표 안의 내용은 엔터를 포함한 여러 줄을 입력(멀티라인)하도록 하는 것이 바람직하다.Additionally, it is desirable to enter the contents of the table in multiple lines including the Enter key (multi-line).
또한, 멀티라인으로 입력할 경우 해당 행의 높이는 자동으로 늘어나는 것이 바람직하다.Additionally, when inputting in multiple lines, it is desirable for the height of the line to automatically increase.
또한, 각 컬럼을 누를 경우 해당 열의 내용이 오름차순 또는 내림차순으로 정렬될 수 있으며, 정렬이 바뀔 시 경고창이 뜨는 것이 바람직하다.Additionally, when you click on each column, the contents of that column can be sorted in ascending or descending order, and it is desirable for a warning window to appear when the sorting changes.
또한, 해당 행의 순서를 바꿀 수 있도록 표 오른쪽에 위치한 위, 아래를 향한 화살표 버튼을 사용하는 것이 바람직하다.Additionally, it is advisable to use the up and down arrow buttons located on the right side of the table to change the order of the rows.
더불어, 도 4는 관리할 규정 식별자(Rule ID), 규정의 내용(Description), 규정의 출처 정보(Reference)를 사용자로부터 입력받는 것이 바람직하다.In addition, in Figure 4, it is desirable to input the rule identifier to be managed (Rule ID), the content of the rule (Description), and the source information of the rule (Reference) from the user.
또한, 입력될 수 있는 규정은 국제 해사안전 협약에 관한 것으로 해양 충돌 방지에 관한 국제 규정인 ‘COLREG’, 국제해양인명안전협약 ‘SOLAS’, 선원의 훈련·자격증명 및 당직근무의 기준에 관한 국제협약인 ‘STCW협약’, 국제선박보안인 ‘ISPS code’ 등을 포함하는 것이 바람직하다.In addition, regulations that can be entered are related to the International Maritime Safety Convention, including 'COLREG', the international regulation on prevention of collisions at sea, 'SOLAS', the International Convention for the Safety of Life at Sea, and the international standards for training and certification of seafarers and watchkeeping. It is desirable to include the 'STCW Convention', which is a convention, and the 'ISPS code', which is an international ship security agreement.
도 5에서 도시된 바에 의하면 Rule 컬럼은 도 3에서 도시된 관리할 규정 식별자(Rule ID)와 규정의 출처 정보(Reference)의 조합으로 사용자가 선택할 수 있도록 콤보박스로 이루어진 것이 바람직하다.As shown in FIG. 5, the Rule column is preferably composed of a combo box so that the user can select a combination of the rule identifier to be managed (Rule ID) and the source information (Reference) of the rule shown in FIG. 3.
또한, 테이블의 셀을 선택하면 테이블 상단의 Rule 부분에 선택된 Rule의 규정의 내용(Description)을 표시하는 것이 바람직하다.Additionally, when a table cell is selected, it is desirable to display the description of the selected rule in the Rule section at the top of the table.
또한, Harm, Hazard, Hazard ID 항목은 사용자가 직접 입력하는 것이 바람직하다.Additionally, it is desirable for the user to enter the Harm, Hazard, and Hazard ID items directly.
다음 후술되는 도 6 내지 도 11은 도 1의 위험 요인 선택 단계(S200)에 따른 프레임워크의 일 실시예에 대해 논한다.Figures 6 to 11 described below discuss one embodiment of the framework according to the risk factor selection step (S200) of Figure 1.
도 6에서 도시된 바에 의하면, 시스템의 제어 구조를 도식화 하기 위한 기본 예제 전자파일이 있을 수 있으며, 전자파일에는 평가하고자하는 시스템의 구조도 그림이 있는 1장의 슬라이드로 구성되는 것이 바람직하다.As shown in FIG. 6, there may be a basic example electronic file for diagramming the control structure of the system, and the electronic file preferably consists of one slide with a diagram of the structure of the system to be evaluated.
그 다음, 해당 전자파일의 내용을 기본적으로 보여질 수 있으며, 사용자가 다운로드 받을 수 있고, 수정된 전자파일을 업로드하면 해당 그림을 화면에 보여지도록 하는 것이 바람직하다.Next, the contents of the electronic file can be displayed by default, and the user can download it, and when the modified electronic file is uploaded, it is desirable to display the corresponding picture on the screen.
도 7에서 도시된 바에 의하면, DB에 미리 준비된 값의 리스트를 읽어와 이해관계자 후보군(Stakeholder candidate pool) 컬럼에 표시되는 것이 바람직하다.As shown in FIG. 7, it is desirable to read a list of values prepared in advance in the DB and display them in the stakeholder candidate pool column.
또한, 사용자가 Stakeholder candidate pool의 값을 추가, 수정 또는 삭제할 수 있도록 하는 것이 바람직하다.Additionally, it is desirable to allow users to add, modify, or delete values in the stakeholder candidate pool.
또한, Stakeholder candidate pool, Selected Candidate 컬럼의 리스트는 엑셀형태로 Import 또는 Export 할 수 있는 것이 바람직하다.Additionally, it is desirable that the list of Stakeholder candidate pool and Selected Candidate columns can be imported or exported in Excel format.
또한, 도 7의 좌우 화살표를 통해 Selected Candidate 리스트에 있는 값을 추가 또는 삭제할 수 있는 것이 바람직하다.Additionally, it is desirable to be able to add or delete values in the Selected Candidate list through the left and right arrows in FIG. 7.
또한, 이해관계자 후보군은 선장, 인공지능 모델, 제어 모델, 인공지능 모델 수명주기 관리 시스템 등을 포함하는 것이 바람직하다.In addition, it is desirable that the stakeholder candidate group includes the captain, artificial intelligence model, control model, artificial intelligence model life cycle management system, etc.
도 8에서 도시된 바에 의하면, DB에 미리 준비된 값의 리스트를 읽어와 시스템 기능 후보군(System function candidate pool) 컬럼에 표시되는 것이 바람직하다.As shown in FIG. 8, it is desirable to read a list of values prepared in advance in the DB and display them in the system function candidate pool column.
또한, 사용자가 System function candidate pool의 값을 추가, 수정 또는 삭제할 수 있도록 하는 것이 바람직하다.Additionally, it is desirable to allow users to add, modify, or delete values in the system function candidate pool.
또한, System function candidate pool, Selected Candidate 컬럼의 리스트는 엑셀형태로 Import 또는 Export 할 수 있는 것이 바람직하다.Additionally, it is desirable that the list of System function candidate pool and Selected Candidate columns can be imported or exported in Excel format.
또한, 도 8의 좌우 화살표를 통해 Selected Candidate 리스트에 있는 값을 추가 또는 삭제할 수 있는 것이 바람직하다.Additionally, it is desirable to be able to add or delete values in the Selected Candidate list through the left and right arrows in FIG. 8.
또한, 시스템 기능 후보군은 데이터 측정, 데이터 수집, 상황 인식, 상황 판단, 추진 명령, 조타 명령, 오류 표시 등을 포함하는 것이 바람직하다.In addition, the system function candidates preferably include data measurement, data collection, situational awareness, situational judgment, propulsion command, steering command, error indication, etc.
도 9에서 도시된 바에 의하면, DB에 미리 준비된 값의 리스트를 읽어와 인공지능 기능 후보군(AI function candidate pool) 컬럼에 표시되는 것이 바람직하다.As shown in FIG. 9, it is desirable to read a list of values prepared in advance in the DB and display them in the AI function candidate pool column.
또한, 사용자가 AI function candidate pool의 값을 추가, 수정 또는 삭제할 수 있도록 하는 것이 바람직하다.Additionally, it is desirable to allow users to add, modify, or delete values in the AI function candidate pool.
또한, AI function candidate pool, Selected Candidate 컬럼의 리스트는 엑셀형태로 Import 또는 Export 할 수 있는 것이 바람직하다.Additionally, it is desirable that the list of AI function candidate pool and Selected Candidate columns can be imported or exported in Excel format.
또한, 도 9의 좌우 화살표를 통해 Selected Candidate 리스트에 있는 값을 추가 또는 삭제할 수 있는 것이 바람직하다.Additionally, it is desirable to be able to add or delete values in the Selected Candidate list through the left and right arrows in FIG. 9.
또한, 인공지능 기능 후보군은 데이터의 품질, AI 성능, 예측 가능성과 제어 가능성과 같은 AI 신뢰성 등을 포함하는 것이 바람직하다.In addition, it is desirable that the candidates for artificial intelligence functions include data quality, AI performance, and AI reliability such as predictability and controllability.
도 10에서 도시된 바에 의하면, DB에 미리 준비된 값의 리스트를 읽어와 행동 방식 후보군(Behavior type candidate pool) 컬럼에 표시되는 것이 바람직하다.As shown in FIG. 10, it is desirable to read a list of values prepared in advance in the DB and display them in the behavior type candidate pool column.
또한, 사용자가 Behavior type candidate pool의 값을 추가, 수정 또는 삭제할 수 있도록 하는 것이 바람직하다.Additionally, it is desirable to allow users to add, modify, or delete values in the Behavior type candidate pool.
또한, Behavior type candidate pool, Selected Candidate 컬럼의 리스트는 엑셀형태로 Import 또는 Export 할 수 있는 것이 바람직하다.Additionally, it is desirable that the list of Behavior type candidate pool and Selected Candidate columns can be imported or exported in Excel format.
또한, 도 10의 좌우 화살표를 통해 Selected Candidate 리스트에 있는 값을 추가 또는 삭제할 수 있는 것이 바람직하다.Additionally, it is desirable to be able to add or delete values in the Selected Candidate list through the left and right arrows in FIG. 10.
또한, 행동 방식 후보군은 제공하지 않았다, 너무 늦게 제공했다, 잘못 이해했다, 없다, 너무 많다, 너무 적다와 같은 형용사 또는 동사 등을 포함하는 것이 바람직하다.Additionally, it is advisable to include adjectives or verbs such as not provided, provided too late, misunderstood, none, too much, too little, etc. as candidates for action.
도 11에서 도시된 바에 의하면, DB에 미리 준비된 값의 리스트를 읽어와 환경 또는 상황 조건 후보군(Environment/Situation condition candidate pool) 컬럼에 표시되는 것이 바람직하다.As shown in FIG. 11, it is desirable to read a list of values prepared in advance in the DB and display them in the Environment/Situation condition candidate pool column.
또한, 사용자가 Environment/Situation condition candidate pool의 값을 추가, 수정 또는 삭제할 수 있도록 하는 것이 바람직하다.Additionally, it is desirable to allow users to add, modify, or delete values in the Environment/Situation condition candidate pool.
또한, Environment/Situation condition candidate pool, Selected Candidate 컬럼의 리스트는 엑셀형태로 Import 또는 Export 할 수 있는 것이 바람직하다.In addition, it is desirable that the list of Environment/Situation condition candidate pool and Selected Candidate columns can be imported or exported in Excel format.
또한, 도 11의 좌우 화살표를 통해 Selected Candidate 리스트에 있는 값을 추가 또는 삭제할 수 있는 것이 바람직하다.Additionally, it is desirable to be able to add or delete values in the Selected Candidate list through the left and right arrows in FIG. 11.
또한, 환경 또는 상황 조건 후보군은 날씨, 자선의 상태, 타선과의 상태, 해상 물체, 데이터 교란, 인공지능 생명주기 등을 포함하는 것이 바람직하다.In addition, the candidate group of environmental or situational conditions preferably includes weather, ship's condition, status with other ships, maritime objects, data disturbance, artificial intelligence life cycle, etc.
다음 후술되는 도 12 내지 도 15는 도 1의 불안전 행동 분석 단계(S300)에 따른 프레임워크의 일 실시예에 대해 논한다.Figures 12 to 15 described below discuss one embodiment of the framework according to the unsafe behavior analysis step (S300) of Figure 1.
도 12에서 도시된 바에 의하면, 도 5에서 입력한 Hazard ID를 불러와 사용자가 콤보박스로 선택하는 것이 바람직하다.As shown in FIG. 12, it is desirable for the user to retrieve the Hazard ID entered in FIG. 5 and select it using the combo box.
그 다음, 도 7에서 선택된 Stakeholder candidate 값을 불러와 사용자가 콤보박스로 선택하는 것이 바람직하다.Next, it is desirable for the user to load the stakeholder candidate value selected in FIG. 7 and select it using a combo box.
또한, Action의 첫 번째 값은 System function candidate를 불러와 콤보박스로 선택할 수 있으며, Action의 두 번째 값은 Behavior type candidate를 불러와 콤보박스로 선택하는 것이 바람직하다.Additionally, the first value of Action can be selected using a combo box by calling up the System function candidate, and it is desirable to select the second value of Action using a combo box by calling up the Behavior type candidate.
또한, Action의 세 번째 값은 사용자가 입력하는 것이 바람직하다.Additionally, it is desirable for the user to enter the third value of Action.
도 13에서 도시된 바에 의하면, 도 5에서 입력한 Hazard ID를 불러와 사용자가 콤보박스로 선택하는 것이 바람직하다.As shown in FIG. 13, it is desirable for the user to retrieve the Hazard ID entered in FIG. 5 and select it using a combo box.
그 다음, 도 7에서 선택된 Stakeholder candidate 값을 불러와 사용자가 콤보박스로 선택하는 것이 바람직하다.Next, it is desirable for the user to load the stakeholder candidate value selected in FIG. 7 and select it using a combo box.
또한, Action의 첫 번째 값은 AI function candidate를 불러와 콤보박스로 선택할 수 있으며, Action의 두 번째 값은 Behavior type candidate를 불러와 콤보박스로 선택하는 것이 바람직하다.Additionally, the first value of Action can be selected using a combo box by calling an AI function candidate, and the second value of Action should be selected by calling a Behavior type candidate and using a combo box.
또한, Action의 세 번째 값은 사용자가 입력하는 것이 바람직하다.Additionally, it is desirable for the user to enter the third value of Action.
도 14에서 도시된 바에 의하면, 도 12과 도 13에서 선택한 Hazard ID와 Stakeholder candidate 및 Action의 값을 각각의 셀에 미리 채워지는 것이 바람직하다.As shown in FIG. 14, it is desirable to pre-fill each cell with the Hazard ID, Stakeholder candidate, and Action values selected in FIGS. 12 and 13.
이 때, 선택된 Stakeholder candidate는 Stakeholder 리스트에 채워지는 것이 바람직하다.At this time, it is desirable that the selected stakeholder candidate be filled in the stakeholder list.
그 다음, Condition에 관한 셀은 환경 또는 상황 조건 후보군(Environment/Situation condition candidate pool)의 내용을 콤보박스로 선택하는 것이 바람직하다.Next, it is desirable to select the contents of the environment/situation condition candidate pool in the cell regarding Condition using a combo box.
여기서, Condition 컬럼 각각 셀의 값은 하나 이상으로 표현될 수 있으며, 콤보박스는 가변적으로 늘어나는 것이 바람직하다.Here, the value of each cell of the Condition column can be expressed as one or more values, and it is desirable for the combo box to grow variably.
또한, UA ID는 사용자로부터 입력받아 각각의 행에 대한 불안전 행동 식별자를 부여하는 것이 바람직하다.Additionally, it is desirable to receive the UA ID from the user and assign an unsafe behavior identifier to each row.
도 15에서 도시된 바에 의하면, 도 14에서 식별된 불안전 행동(UA)에 대한 원인을 파악하는 것으로, 도 14에서 부여된 UA ID를 그대로 가져올 수 있으며, 불안전 행동 원인(UA Cause)을 사용자로부터 입력받는 것이 바람직하다.As shown in FIG. 15, by identifying the cause of the unsafe behavior (UA) identified in FIG. 14, the UA ID assigned in FIG. 14 can be retrieved as is, and the cause of the unsafe behavior (UA Cause) can be entered by the user. It is desirable to receive it.
다음 후술되는 도 16 내지 도 18은 도 1의 위험 등급 평가 단계(S400)에 따른 프레임워크의 일 실시예에 대해 논한다.Figures 16 to 18 described below discuss one embodiment of the framework according to the risk rating step (S400) of Figure 1.
도 16에서 도시된 바에 의하면, 도 14에서 부여된 UA ID를 그대로 가져와 미리 입력되는 것이 바람직하다.As shown in FIG. 16, it is desirable to take the UA ID assigned in FIG. 14 and input it in advance.
또한, 발생 가능도(Likelihood)는 1~5 사이의 점수를 사용자가 선택하여 입력할 수 있으며, 피해 영향도(Impact)도 1~5 사이의 점수를 사용자가 선택하여 입력하는 것이 바람직하다.In addition, the user can select and enter a score between 1 and 5 for the likelihood of occurrence, and it is desirable for the user to select and enter a score between 1 and 5 for the impact.
그 다음, 위험도(Risk Score)는 해당하는 행의 Likelihood의 값과 Impact의 값의 곱으로 자동 계산되어 입력되는 것이 바람직하다.Next, it is desirable that the risk score is automatically calculated and entered as the product of the Likelihood value and the Impact value of the corresponding row.
도 17와 같이 위험 등급(UA risk degree)은 Risk Score 값에 따라 자동 계산될 수 있으며, 1~5점이면 Low Risk, 6~10점이면 Medium Risk, 11~19점이면 High Risk, 20~25점이면 Extreme Risk로 입력되는 것이 바람직하다.As shown in Figure 17, the UA risk degree can be automatically calculated according to the Risk Score value, with 1 to 5 points being Low Risk, 6 to 10 points being Medium Risk, 11 to 19 points being High Risk, and 20 to 25 points being Low Risk. If it is a point, it is desirable to enter it as Extreme Risk.
도 18에서 도시된 바에 의하면, 도 5에서 부여된 Hazard ID와 도 14에서 부여된 UA ID 값이 미리 채워질 수 있으며, 해당하는 안전 요구사항(Safety requirement)에 대해 사용자가 직접 입력하는 것이 바람직하다.As shown in FIG. 18, the Hazard ID assigned in FIG. 5 and the UA ID value assigned in FIG. 14 can be pre-filled, and it is desirable for the user to directly input the corresponding safety requirements.
또한, 해당하는 셀을 선택할 시 사용자가 내용을 알아야 Safety requirement를 입력할 수 있으므로, 연관된 위험(Hazard)와 불안전 행동(UA)를 테이블 상단에 표시되는 것이 바람직하다.In addition, since the user needs to know the contents when selecting the corresponding cell to enter safety requirements, it is desirable to display the associated hazards and unsafe actions (UA) at the top of the table.
다음 후술되는 도 19 내지 도 22는 도 1의 리포트 생성 단계(S500)에 따른 프레임워크의 일 실시예에 대해 논한다.FIGS. 19 to 22 described below discuss an embodiment of the framework according to the report generation step (S500) of FIG. 1.
도 19 내지 도 22에서 도시된 바에 의하면, 도 4 내지 도 16 및 도 18에서 도출된 값들에 의해 표로 만들어 지는 리포트로 위해와 위험(Harm and hazard), 불안전 행동(UA), 불안전 행동 원인(UA cause), 불안전 행동 위험 등급(UA risk degree), 및 위험 요구사항(Risk requirement)에 대한 리포트를 생성하는 것이 바람직하다.As shown in FIGS. 19 to 22, a report tabulated by the values derived from FIGS. 4 to 16 and 18 reports harm and hazard, unsafe behavior (UA), and cause of unsafe behavior (UA). It is desirable to generate reports on cause, unsafe behavior risk degree (UA risk degree), and risk requirement.
이상과 같이 본 발명에서는 구체적인 구성 소자 등과 같은 특정 사항들과 한정된 실시예 도면에 의해 설명되었으나 이는 본 발명의 보다 전반적인 이해를 돕기 위해서 제공된 것일 뿐, 본 발명은 상기의 또 다른 실시예에 한정되는 것이 아니며, 본 발명이 속하는 분야에서 통상의 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다.As described above, the present invention has been described with reference to specific details such as specific components and drawings of limited embodiments, but this is only provided to facilitate a more general understanding of the present invention, and the present invention is not limited to the other embodiments described above. No, those skilled in the art can make various modifications and variations from this description.
따라서, 본 발명의 사상은 설명된 실시예에 국한되어 정해져서는 아니 되며, 후술하는 특허 청구 범위뿐 아니라 이 특허 청구 범위와 균등하거나 등가적 변형이 있는 모든 것들은 본 발명 사상의 범주에 속한다고 할 것이다.Therefore, the spirit of the present invention should not be limited to the described embodiments, and all matters that are equivalent or equivalent to the claims of this patent as well as the claims described below shall fall within the scope of the spirit of the present invention. .

Claims (7)

  1. 평가 대상 시스템에 대한 위험성 평가 방법에 있어서,In the risk assessment method for the system being evaluated,
    연산장치가,The computing device,
    (a) 위험 규정(Rule), 상기 위험 규정에 해당하는 위해(Harm), 위험(Hazard), 및 위험 식별자(Hazard ID)를 입력받아 저장하는 예상 위험 정의 단계;(a) An expected risk definition step in which a risk rule (Rule), a hazard (Harm), a hazard (Hazard), and a hazard identifier (Hazard ID) corresponding to the risk rule are entered and stored;
    (b) 사전에 저장된 또는 사용자로부터 입력 받은 상기 평가 대상 시스템의 제어 구조를 디스플레이하고, 사전에 저장된 복수의 분류별 위험 요인 후보에 대한 리스트를 표시하며, 사용자로부터 선택받아, 선택된 상기 위험 요인 후보가 포함된 위험 요인 후보 리스트를 생성하여 저장하는 위험 요인 선택 단계;(b) Displays the control structure of the evaluation target system stored in advance or input from the user, displays a list of risk factor candidates by multiple categories stored in advance, and includes the risk factor candidates selected by the user. A risk factor selection step of generating and storing a list of candidate risk factors;
    (c) 상기 단계(a)에서 저장된 상기 위험 식별자(Hazard ID), 및 상기 단계(b)에서 저장된 상기 위험 요인 후보 리스트 중 적어도 일부를 표시하고, 사용자로부터 선택 및/또는 입력 받아 위험 행동(Action)을 정의하고, 상기 정의된 위험 행동에 대한 조건(Condition)을 사용자로부터 선택 및/또는 입력 받아 불안전 행동(UA)을 정의하며, 상기 불안전 행동(UA)의 원인을 사용자로부터 입력받아 저장하는 불안전 행동 분석 단계; (c) Displaying the hazard identifier (Hazard ID) stored in step (a) and at least part of the risk factor candidate list stored in step (b), selecting and/or inputting from the user, and performing a risk action (Action) ), defines unsafe behavior (UA) by selecting and/or inputting conditions for the defined risk behavior from the user, and receives and stores the cause of the unsafe behavior (UA) from the user. Behavior analysis phase;
    (d) 사용자로부터 상기 불안전 행동별로 발생 가능도와 피해 영향도를 입력받고, 상기 발생 가능도 및 피해 영향도에 기초하여 위험도 및 위험 등급을 산출하여 표시하고, 사용자로부터 안전 요구사항을 입력받아 저장하는 위험 등급 평가 단계;(d) Receives input from the user on the probability of occurrence and impact of damage for each of the unsafe actions, calculates and displays the risk and risk level based on the probability of occurrence and impact of damage, and receives and stores safety requirements from the user. risk rating stage;
    (e) 상기 단계(a) 내지 단계(d)에서 저장된 데이터를 기초로 리포트를 생성하는 리포트 생성 단계;를 포함하는 것(e) a report generation step of generating a report based on the data stored in steps (a) to (d);
    을 특징으로 하는 해양 AI 시스템 안전을 위한 위험성 평가 방법.A risk assessment method for marine AI system safety characterized by .
  2. 제 1항에 있어서,According to clause 1,
    상기 위험 규정(Rule)은,The above risk rule is,
    관리할 규정 식별자(Rule ID), 규정의 내용(Description) 및 규정의 출처 정보(Reference)를 포함하는 것Contains the identifier of the rule to be managed (Rule ID), the content of the rule (Description), and the source information of the rule (Reference)
    을 특징으로 하는 해양 AI 시스템 안전을 위한 위험성 평가 방법.A risk assessment method for marine AI system safety characterized by .
  3. 제 1항에 있어서,According to clause 1,
    상기 연산장치는, The computing device is,
    이해관계자, 시스템 기능, 인공지능 기능, 행동방식, 및 환경 또는 상황 조건 각각에 대하여 사용자로부터 선택받아, 이해관계자 후보군, 시스템 기능 후보군, 인공지능 기능 후보군, 행동 방식 후보군, 및 환경 또는 상황 조건 후보군을 포함하는 위험 요인 후보 리스트를 생성하는 것Each stakeholder, system function, artificial intelligence function, behavior method, and environment or situation condition is selected by the user, and a stakeholder candidate group, a system function candidate group, an artificial intelligence function candidate group, a behavior method candidate group, and an environment or situation condition candidate group are selected. Generating a list of candidate risk factors that include
    을 특징으로 하는 해양 AI 시스템 안전을 위한 위험성 평가 방법.A risk assessment method for marine AI system safety characterized by .
  4. 제 3항에 있어서,According to clause 3,
    상기 (c) 단계에서 상기 위험 행동(Action)은 시스템 기능 기반 위험 행동을 포함하고,In step (c), the risk action includes a risk action based on system function,
    상기 연산장치가, The computing device,
    상기 이해관계자 후보군, 상기 시스템 기능 후보군, 상기 행동 방식 후보군, 및 상기 저장된 위험 식별자(Hazard ID) 각각에서 사용자로부터 선택받은 이해관계자, 시스템 기능, 행동 방식 및 위험 식별자(Hazard ID)에 기초해서 상기 시스템 기능 기반 위험 행동을 생성하여 저장하는 것The system based on the stakeholder, system function, action mode, and hazard identifier (Hazard ID) selected by the user from each of the stakeholder candidate group, the system function candidate group, the action mode candidate group, and the stored hazard identifier (Hazard ID). Generating and storing function-based risk behaviors
    을 특징으로 하는 해양 AI 시스템 안전을 위한 위험성 평가 방법.A risk assessment method for marine AI system safety characterized by .
  5. 제 3항에 있어서,According to clause 3,
    상기 (c) 단계에서 상기 위험 행동(Action)은 인공지능 기능 기반 위험 행동을 포함하고,In step (c), the risky action includes risky behavior based on artificial intelligence functions,
    상기 연산장치가, The computing device,
    상기 이해관계자 후보군, 상기 인공지능 기능 후보군, 상기 행동 방식 후보군, 및 상기 저장된 위험 식별자(Hazard ID) 각각에서 사용자로부터 선택받은 이해관계자, 인공지능 기능, 행동 방식 및 위험 식별자(Hazard ID)에 기초해서 상기 인공지능 기능 기반 위험 행동을 생성하여 저장하는 것Based on the stakeholder, artificial intelligence function, action method, and risk identifier (Hazard ID) selected by the user from each of the stakeholder candidate group, the artificial intelligence function candidate group, the behavior method candidate group, and the stored hazard identifier (Hazard ID). Creating and storing risky behaviors based on the above artificial intelligence functions
    을 특징으로 하는 해양 AI 시스템 안전을 위한 위험성 평가 방법.A risk assessment method for marine AI system safety characterized by .
  6. 제 1항에 있어서,According to clause 1,
    상기 (d)단계는,In step (d),
    입력받은 상기 발생 가능도의 수치 값과 상기 피해 영향도의 수치 값을 곱하여 산출된 값으로 위험도를 산출하고, 산출된 상기 위험도 및 사전에 정의된 위험 등급 산정 기준에 기초하여 위험 등급을 산출하는 것Calculating the risk level with the value calculated by multiplying the input numerical value of the probability of occurrence and the numerical value of the damage impact, and calculating the risk level based on the calculated risk level and predefined risk rating calculation standards.
    을 특징으로 하는 해양 AI 시스템 안전을 위한 위험성 평가 방법.A risk assessment method for marine AI system safety characterized by .
  7. 제 1항에 있어서,According to clause 1,
    상기 (e)단계는,In step (e),
    위해와 위험(Harm and hazard), 불안전 행동(UA), 불안전 행동 원인(UA cause), 불안전 행동 위험 등급(UA risk degree), 및 위험 요구사항(Risk requirement)이 포함된 리포트를 생성하는 것Generating a report containing Harm and Hazard, Unsafe Action (UA), Unsafe Action Cause (UA cause), Unsafe Action Risk Degree, and Risk Requirement
    을 특징으로 하는 해양 AI 시스템 안전을 위한 위험성 평가 방법.A risk assessment method for marine AI system safety characterized by .
PCT/KR2022/016082 2022-08-30 2022-10-20 Hazard evaluation method for safety of marine ai system WO2024048839A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2022-0108995 2022-08-30
KR1020220108995A KR102520837B1 (en) 2022-08-30 2022-08-30 Risk assessment method thereof for maritime AI system safety

Publications (1)

Publication Number Publication Date
WO2024048839A1 true WO2024048839A1 (en) 2024-03-07

Family

ID=85978772

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2022/016082 WO2024048839A1 (en) 2022-08-30 2022-10-20 Hazard evaluation method for safety of marine ai system

Country Status (2)

Country Link
KR (1) KR102520837B1 (en)
WO (1) WO2024048839A1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170140753A (en) * 2016-06-13 2017-12-21 (주)씽크포비엘 Method and apparatus for analyzing safety of software
KR20180069971A (en) * 2016-12-15 2018-06-26 주식회사 진앤현시큐리티서비스 System for integrating security management
KR101873340B1 (en) * 2017-04-17 2018-07-02 아주대학교산학협력단 Method and Apparatus for Generating Safety Requirement Checklist
KR102399597B1 (en) * 2020-11-26 2022-05-19 주식회사 브이웨이 Intelligent safety analysis technology using AI

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101794506B1 (en) 2016-10-19 2017-11-07 상명대학교산학협력단 Method and apparatus for analyzing hazard, and computer readable recording medium
KR101987319B1 (en) * 2017-12-21 2019-06-10 한국수력원자력 주식회사 SYSTEM FOR ANALYSING HAZID(Hazard Identification Study) EMP EFFECT OF NUCLEAR POWER PLANT
CN114091644A (en) * 2020-08-24 2022-02-25 中国科学院软件研究所 Technical risk assessment method and system for artificial intelligence product

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170140753A (en) * 2016-06-13 2017-12-21 (주)씽크포비엘 Method and apparatus for analyzing safety of software
KR20180069971A (en) * 2016-12-15 2018-06-26 주식회사 진앤현시큐리티서비스 System for integrating security management
KR101873340B1 (en) * 2017-04-17 2018-07-02 아주대학교산학협력단 Method and Apparatus for Generating Safety Requirement Checklist
KR102399597B1 (en) * 2020-11-26 2022-05-19 주식회사 브이웨이 Intelligent safety analysis technology using AI

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
LIM SANG-WOO, LEE SEOJEONG, YANG HOI-SEOK: "Study on Risk Analysis for Software Functional Safety of Marine Navigational Equipment", JOURNAL OF DIGITAL CONTENTS SOCIETY, 한국디지털콘텐츠학회, vol. 18, no. 2, 30 April 2017 (2017-04-30), pages 393 - 401, XP093145006, ISSN: 1598-2009, DOI: 10.9728/dcs.2017.18.2.393 *

Also Published As

Publication number Publication date
KR102520837B1 (en) 2023-04-13

Similar Documents

Publication Publication Date Title
WO2021040124A1 (en) Artificial intelligence-based legal document analysis system and method
WO2021060920A1 (en) System and method for solving text sensitivity based bias in language model
EP4022517A1 (en) Methods and systems for predicting keystrokes using a unified neural network
WO2023191129A1 (en) Monitoring method for bill and legal regulation and program therefor
WO2020233060A1 (en) Event notification method and apparatus, event notification server, and storage medium
WO2024096146A1 (en) User recommendation method using production data and use data, and apparatus therefor
CN109347698A (en) User terminal operations order and echo message monitoring method under a kind of linux system
CN111813929A (en) Information processing method and device and electronic equipment
WO2023090864A1 (en) Apparatus and method for automatically analyzing malicious event log
WO2024048839A1 (en) Hazard evaluation method for safety of marine ai system
WO2022270768A1 (en) Method and apparatus for providing intelligent pharmacovigilance platform
WO2016195220A1 (en) Sns platform-based work management system
WO2019045441A1 (en) Method for providing cognitive semiotics based multimodal predictions and electronic device thereof
CN109543166A (en) Generation method, server and the computer readable storage medium of house property poster template
Bratthall et al. Is it possible to decorate graphical software design and architecture models with qualitative information?-An experiment
WO2015108229A1 (en) Terminal operation method for correcting electronic document
KR101108594B1 (en) Method For Determining Deviations Of An End-System Message From A Reference Message
Rosenthal The design of technological displays (tutorial paper)
WO2023182616A1 (en) Fire safety management method and system
JP2019211941A (en) Manual processing device, manual processing method, and manual processing program
WO2022149674A1 (en) Electronic apparatus and controlling method thereof
WO2023048479A1 (en) Method for generating document code for displaying attribute of document, program for performing same method, and computer-readable recording medium having same program recorded therein
WO2023106650A1 (en) Operation process analysis method
WO2024058295A1 (en) Method and device for providing report about page
US11263482B2 (en) AI image recognition training tool sets

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22957517

Country of ref document: EP

Kind code of ref document: A1