과거의 전쟁은 승자와 패자가 분명했다. 한쪽은 점령했고, 다른 한쪽은 무너졌다. 전쟁이 끝나면 결과도 명확했다. 그러나 오늘의 전쟁은 다르다. 전쟁이 끝나도 일방적 승자는 없고, 일방적 패자만 남는 것도 아니다. 다만 서로 다른 방식으로 상처를 입은 국가와 국민들만 남는다. 최근 미국과 이스라엘, 그리고 이란을 축으로 한 전쟁은 이러한 변화를 극명하게 보여준다. 이 갈등은 단순한 국가 간 충돌을 넘어 레바논, 시리아, 이라크, 예멘 등으로 확산되며 중동 전체를 흔들고 있다. 전면전이라는 선언은 없지만, 실질적으로는 전면전에 가까운 긴장이 지속되고 있다. 이제 전쟁은 하나의 전선에서만 벌어지지 않는다. 여러 층위의 충돌이 동시에 전개되는 다층적 전쟁이다. 국가 간 충돌, 대리전, 해상 위협, 경제 압박이 동시에 작동하며 전쟁의 범위는 끊임없이 확장하고 있다. 미사일과 드론이 바꾼 전쟁의 경제학 이번 전쟁의 가장 두드러진 특징은 미사일과 드론이다. 미사일은 국경의 의미를 무력화했다. 수천 킬로미터 밖에서도 상대를 타격할 수 있는 능력은 전쟁의 공간적 개념을 근본적으로 바꾸어 놓았다. 그러나 더 중요한 변화는 드론에서 나타난다. 드론은 전쟁의 비용 구조를 뒤집고
최근 몇 년 사이 인공지능(AI)은 산업의 도구를 넘어 사회의 구조를 바꾸는 힘으로 등장했다. 전쟁에서는 자율 드론이 인간의 판단을 대신하고, 기업에서는 알고리즘이 투자와 생산을 결정한다. 이제 AI는 더 이상 보조 기술이 아니라, 인간의 의사결정을 대체하는 ‘체계’로 진입하고 있다. 그러나 이 거대한 전환 속에서 우리는 중요한 질문을 놓치고 있다. AI가 얼마나 빠르게 발전하는가가 아니라, '그 AI가 누구를 위해 작동하는가?'라는 질문이다. 지금의 AI는 소수의 빅테크 기업과 국가 권력에 집중되어 있다. 데이터와 연산 능력, 알고리즘이 결합된 이 구조는 과거 산업혁명기의 자본 집중보다 훨씬 강력한 권력 구조를 형성하고 있다. 문제는 이 권력 구조에 대한 사회적 통제 장치가 아직 충분히 마련되지 않았다는 점이다. AI는 기술이 아니라 권력이다. 그리고 권력은 언제나 책임의 문제를 동반한다. AI 시대에 ESG 역할 가능한가 ? 이 지점에서 ESG의 의미를 다시 묻지 않을 수 없다. 그동안 ESG는 기업의 책임을 평가하고 보고하는 체계로 발전해 왔다. 환경(E), 사회(S), 거버넌스(G)를 기준으로, 기업 활동을 점검하고 공시하는 것이 중심이었다. 그러나
평화의 기술, 드론 드론은 원래 전쟁을 위한 기술이 아니었다. 오히려 드론은 인간의 삶을 편리하게 만드는 평화의 기술이었다. 오늘날 농업에서는 드론으로 씨앗을 뿌리고 비료와 농약을 살포하며 작물 상태를 분석해 농업 생산성을 높이는 도구로 활용되고 있다. 물류 분야에서는 산간 지역이나 도서 지역에 의약품과 생필품을 배송하는 새로운 수단으로 발전하고 있으며, 도시에서는 교통 관리와 도시계획을 위한 항공 데이터를 수집하는 데 활용된다. 산불 감시와 진화, 재난 구조, 실종자 수색 등에서도 드론은 중요한 역할을 한다. 특히 대형 산불이 발생했을 때 드론은 화재 확산 경로를 실시간으로 파악해 효과적인 진화 전략을 세우는 데 큰 도움을 주고 있다. 이처럼 드론은 인간의 삶을 돕는 평화적 기술로 빠르게 확산되고 있다. 그러나 최근 몇 년 동안 벌어진 러시아-우크라이나 전쟁과 미국-이스라엘-이란 전쟁에서는 드론의 또 다른 면모를 보여주고 있다. 드론이 바꾸어 놓은 전쟁의 양상 우크라이나 전쟁에서 가장 상징적인 장면 중 하나는 소형 드론이 전차와 장갑차를 공격해 파괴하는 모습이었다. 보통 전차 한 대의 가격은 100억 원 안팎인데, 전장에서 사용되는 자폭 드론은 100만 원
지난 주 미국의 공격으로 촉발된 미국-이란-이스라엘 전쟁은 여러 가지 면에서 충격적이다. 아무리 마음에 안 든다고 하더라도 한 나라의 지도자를 정치 외교적 방법이 아니라, 살상무기 공격으로 무참히 살해하는 것이 21세기 문명시대에 맞는지 의문이고, 실수든 오작동이든 이란의 어느 초등학교를 공격하여 165명이 어린이를 사망케 한 것도 아연실색하게 한다. 전쟁에 깊숙이 개입하는 AI 또 다른 전쟁 양상의 큰 변화는 AI 기술이 전쟁에 깊숙이 연결되고 있다는 점이다. 최근 미국에서는 AI 정책 결정에서 상징적인 사건이 벌어졌다. AI 안전을 핵심 가치로 내세워 온 앤트로픽(Anthropic)사와 트럼프 행정부 사이의 갈등이다. 앤트로픽사는 자사 모델 클로드(Claude)의 사용 범위를 두고 대량감시나 완전 자율살상무기 체계에 활용되는 것에 강한 제한을 두려 했고, 정부는 국가안보 목적의 폭넓은 활용 가능성을 열어두는 정책을 시행하려고 한 것이다. 급기야, 트럼프 행정부는 앤트로픽사를 배제하고, OpenAI와 계약을 하면서 AI 기술을 군사적으로 적극 활용하는 쪽으로 정책을 결정했다. 이 사건은 단순한 기업 간 경쟁이 아니다. AI 기술을 어디까지 허용할 것인가를
[엔트로피타임즈 = 황상규 칼럼니스트] 최근 인공지능(AI)은 또 한 번의 도약 국면에 들어섰다. 생성형 AI는 문서를 작성하고, 코드를 설계하며, 영상과 음성을 만들어낸다. 기업은 전략 수립에 AI를 활용하고, 정부는 행정 효율화를 논의한다. 여기에 덧붙여 에이전트 AI 개발에 이어 피지컬(physical) AI 시대를 앞두고 있다. AI 구동에 필요한 에너지와 반도체, 데이터센터, 클라우드 인프라는 국가 안보의 영역으로 편입되었다. AI는 더 이상 기술 혁신의 문제가 아니라, 권력 구조와 문명 질서의 문제로 이동하고 있다. AI가 몰고 온 기술혁신과 위기 AI가 몰고 온 기술혁신에 대하여 여러 석학들은 경고를 던지고 있다. 작고한 천체 물리학자 스티븐 호킹(Stephen Hawking)은 일찍이 완전한 인공지능이 인류의 통제를 벗어날 가능성을 우려했고, 인류의 종말까지 경고했다. AI 딥러닝 방법론을 개발한 2024년 노벨물리학상 수상자 제프리 힌튼(Geoffrey Hinton) 교수는 AI의 초지능이 인간의 지능의 합을 곧 넘어설 수 있다고 지적하며, 기술 낙관론에 제동을 걸었다. 유발 하라리(Yuval Noah Harari)는 AI가 ‘이야기 생성 능
[엔트로피타임즈 = 황상규 칼럼니스트] 인공지능(AI) 시대에 인공지능과 로봇을 다룬 논의에서 가장 자주 인용되는 원칙 가운데 하나는 ‘로봇은 인간의 명령에 복종해야 한다’는 말이다. 이 문장은 오래전부터 기술 윤리의 상식처럼 받아들여져 왔다. 인간이 주체이고, 로봇은 도구라는 위계를 명확히 하는 선언처럼 보이기 때문이다. 그러나 인공지능이 사회의 의사결정 과정 깊숙이 들어온 오늘의 현실에서 이 문장은 더 이상 문제를 해결하지 못한다. 오히려 아무 말도 하지 않는 문장, 혹은 모순을 은폐하는 선언에 가깝다. 현실은 그렇게 단순하지 않다 현실의 인간 사회는 그렇게 단순하지 않다. 인간의 명령은 언제나 하나가 아니며, 언제나 일치하지도 않는다. 같은 명령이라도 그 맥락에 따라 그 의미가 다르기도 하다. 다수의 판단과 소수의 권리는 끊임없이 충돌하고, 현재의 안전과 미래의 위험은 서로 다른 방향을 가리키기도 한다. 자유를 지키는 선택이 불안을 키우기도 하고, 안전을 확보하는 선택이 권리를 침해하기도 한다. 이 복잡한 갈등이 바로 인간 사회의 본질이다. 그런데 “로봇은 인간의 명령에 복종해야 한다”는 문장은 이 복잡성을 전혀 다루지 않는다. 가장 먼저 드러나는 문제