컴퓨팅 기술의 발전은 인간의 지능적인 행동을 모방하는 단계에 이르렀으며, 이를 인공지능이라고 부르고 있다. 인간의 지능이 갖는 특징인 사고, 학습, 자유의지, 자아에 대해 살펴보았으며 당분간 이러한 특징을 모두 갖춘 인공지능이 출현하는 것은 어렵다는 것을 예측하였다. 현재, 인공지능의 정의 및 개념은 다소 혼란스럽게 사용되고 있으며, 인간 지능의 구성요소를 감안하여 인공지능이 갖춘 요소에 의하여 4단계에 의한 인공지능 분류를 제안하였다. 기술적 AI (level 1), 기능적 AI (level 2), 범용 AI (level 3)의 발전은 향후 지속적으로 이루어질 것이며 인류의 삶의 질을 향상시키고 과학기술의 영역을 확대시킬 것이다. 인류에 위협이 될 수 있는 진정한 인공지능 (level 4)의 출현은 당분간 출현하기는 어려워 보인다. 인공지능의 레벨이 높아지고 사용영역의 민감성이 증가함에 따라 인공지능 윤리에 대한 많은 문제들이 제기될 것이며, 인공지능 시스템의 윤리를 담보하기 위해서 필요한 3가지 요소를 제안하였다.
The development of computing technology has reached a stage that mimic human intelligent behavior, and it is called artificial intelligence (AI). Thinking, learning, and free will are typical characteristics of human intelligence and it is expected that AI having all of these are typical characteristics are quite impossible for the time being. Currently, the definition and concept of AI is being used to confuse. Considering the characteristics of human intelligence, artificial intelligence was defined as 4-levels in this study. The development of technical AI (level 1), functional AI (level 2), and general AI (level 3) will take place continuously in the future and improve the quality of human life. The emergence of real AI (level 4) that can be a threat to humanity seems difficult for the time being. As the level of AI increases, a number of problems of AI ethics will be raised. Three elements needed to ensure the ethics of AI system will be discussed.