Posts

Showing posts from October, 2025

AI에 인간의 개입 형태 : 인간적 역량이 핵심적

Image
  “ Humans in the loop (인간이 개입하는 구조) ” AI 시스템에서 인간이 개입하는 전형적인 세 가지 형태 1. AI가 인간을 보조하는 형태 ( AI 보조형) 인간이 주도하고, AI는 조언자나 도구로서 돕는다. 예시: Slack, Intuit Mailchimp 등은 AI를 통해 업무 효율을 높이지만, 여전히 인간이 결정권을 쥐고 있다. 2. AI가 자동으로 처리하다가 특정 순간 인간에게 넘기는 형태 ( AI→인간 전환형) AI가 대부분의 작업을 수행하되, 중요한 판단 구간(결제, 인증, 윤리적 판단 등)에서 인간의 개입이 필요하다. 예시: OpenAI의 ‘Operator’ 에이전트는 많은 일을 자동으로 처리하다가 필요한 시점에 인간으로 제어권을 넘긴다. 3. AI의 결과를 인간이 검토·감독하는 형태 ( AI 결과 검토형) AI가 작성한 최종 산출물을 사람이 다시 검증한다. 특히 생성형 AI의 ‘환각(hallucination)’ 오류를 막기 위해 품질 점검이나 교정 단계에서 인간의 역할이 중요하다. # 인간의 개입은? “인간이 개입하면 안전하다”는 가정은 위험하다. 인간도 편향되거나 실수할 수 있으며, 맹목적 신뢰(automation bias) 문제도 발생한다. AI가 고도화될수록 인간 개입의 경계가 모호해진다. 예를 들어, 군사용 AI의 의사결정처럼 ‘어디까지 AI가 판단하고, 언제 인간이 개입해야 하는가’는 여전히 불명확하다. 인간의 ‘고유한 능력’의 중요성은 부각된다. AI와 협업하는 노동 구조에서는 맥락 이해, 창의력, 공감, 판단력 같은 인간적 역량이 더욱 핵심적이 될 것이다.

일상에 들어오는 AI에 대한 우려 수준 / Pew Research Center 보고서

Image
How People Around the World View AI   (Pew Research Center, 2025.10.15) 일상에 들어오는 AI에 대한 우려 수준을 보면 미국이 50%로 가장 크고, 한국이 16%로 가장 낮다. # 사람들이 AI에 대해 우려하는 이유는, AI가 일상생활에 빠르게 퍼지는 것 에 대한 막연한 또는 구체적인 걱정 AI가 인간의 창의성, 관계, 능력 등에 미치는 부정적 영향 가능성 AI 기술을 제어하고 규제할 능력을 갖춘 제도적 신뢰 부족 기술 변화가 교육·소득·세대별로 격차를 확대할 수 있다는 우려 기대보다는 리스크와 불확실성 이 더 크게 느껴진다는 인식 AI에 대해 우려하는 사람들의 공통 심리는  AI가 자신을 도와주기를 바랄 수도 있고, 원하지 않거나 예상하지 못한 방식으로 사용될 때 분노할 수도 있다는 양면성 을 갖고 있다. # 왜 우리나라 사람은 우려보다 기대를 더 많이 할까? 기술 친화적 사회와 빠른 디지털 수용성 : 기술이 낯설지 않다 = 두려움이 적다. 경제·산업 발전의 연장선으로 보는 인식 : 기술 = 생존 수단, 경쟁력, 미래 산업 교육 수준과 정보 접근성의 영향 : 무지에서 오는 두려움보다, 지식에서 오는 자신감이 더 크다. AI를 ‘인간 대체’가 아니라 ‘보조 도구’로 보는 관점 : AI = 경쟁자가 아니라 조력자 * 이 보고서에 의하면,    AI에 대해 “많이 들어봤다(heard a lot)”고 답한 사람일수록    “더 기대한다” 쪽 응답을 할 가능성이 높다고 밝혔다. ***

데이터 분석, 어떻게 배울 것인가?

Image
  데이터 분석, 어떻게 배울 것인가? 데이터 분석을 처음 배울 때 대부분의 사람이 “튜토리얼로 배우기 → 도구 익히기 → 정답 찾기”의 순서를 따른다. 이해하기 쉽고 성취감도 빠르지만, 실제 업무에서는 금방 한계를 드러낸다. 그러므로 보다 깊이 이해하고, 자기 주도의 학습을 원하면 그 순서를 “문제 → 데이터 → (필요 시) 검색 → 해결”로 뒤집는 역방향 학습 이 효과적이다. 즉,  실제 문제 로 시작하고 → 데이터를 직접 찾아서 → 질문을 세우고 → 시행착오하며 해결을 시도하고 → 부족하거나 막히는 부분이 있을 때만 검색하면서 보완하는 방식이  분석가처럼 생각하는 법은 배우는 기회가 된다. 1) 왜 순서를 뒤집어야 하는가 튜토리얼의 착시  : 단계별로 따라 하면 ‘할 줄 아는’ 느낌이 들지만, 맥락 없이 외운 기능은 새로운 문제 앞에서 쉽게 무력화된다. 도구 중심의 함정  : SQL, 파이썬, BI 툴은 수단일 뿐이다. 핵심은 “무엇을 왜 분석하는가”라는 문제 정의 능력이다. 현실은 비정형  : 실제 데이터는 누락·이상치·불일치가 흔하며, 정답지가 없다. 정형화된 예제만 반복하면 적응력이 떨어진다. 2) 역방향 학습의 네 단계 (A) 문제로 시작한다 좋은 출발 질문 : “무엇이 변했는가?”, “왜 그렇게 보이는가?”, “그래서 무엇을 결정할 것인가?” 문제를 측정 가능한 가설 로 바꾼다. 예) “3분기 매출 하락 원인은 신규 고객 유입 감소일 것이다.” 필요한 지표와 비교군을 함께 적는다. (B) 데이터를 붙잡는다 가설 검증할 최소 데이터셋 을 찾는다 : 기간, 단위, 식별자, 조인 키를 먼저 확정한다. 데이터 건강검진 체크 : 결측, 이상치, 중복, 시간대 불일치, 조인 누락. 전처리는 “보고서 스토리”에 영향을 준다. 결측을 평균으로 채울지, 행을 제외할지, 모델링으로 보간할지의 선택이 결론을 바꿀 수 있다. (C) 필요한 순간에만 검색한다 검색은 막힌 지점을 뚫는 목적...

생성형 AI 사용, 어떻게? - “무엇을 할까?”보다 “왜 하려는가?”를 먼저 묻자

Image
  생성형 AI 사용, 어떻게? - “무엇을 할까?”보다 “왜 하려는가?”를 먼저 묻자 “요즘 다들 생성형 AI 쓴다는데, 우리도 뭔가 해야 하지 않을까?” 많은 이들이 이렇게 묻는다. 마이크로소프트의 과학자 바이런 쿡(Byron Cook)은 이런 질문에 이렇게 되묻는다고 한다.      “그 질문을 왜 하셨습니까?” 그의 되물음은 단순하지만 핵심을 찌르고 있다. 실제로 많은 경우 연구자가 AI를 ‘써야 한다’고 느끼는 이유는 구체적인 연구 문제 때문이 아니라 ‘뒤처질까 봐 불안해서(FOMO, the fear of missing out)’ 이기 때문이다. 1. ‘불안형 도입’의 함정 지금 연구 현장에서는 AI 논문 정리 자동화, 데이터 분석 보조, 논문 초안 작성 등 다양한 시도가 이루어지고 있다. 그러나 이런 시도 가운데 상당수는 명확한 목적보다 막연한 필요감 에서 출발한다. 이런 접근은 일시적인 흥미는 줄 수 있으나, 연구 생산성의 구조적 개선으로 이어지지 않는다. AI는 ‘연구의 본질’을 대신할 수 없다. 문제 정의가 흐릿한 상태에서 도입한 AI는 오히려 새로운 혼란을 낳는다. ‘AI를 쓴다’는 행위 자체가 목표가 되어버리면, 기술은 방향을 잃는다. 2. “왜 AI인가?”를 먼저 묻자 AI 도입과 활용의 출발점은 기술이 아니라 연구 목표 이다. 생성형 AI는 ‘모든 문제의 만능 해법’이 아니라 ‘연구 과정의 특정 구간을 도와주는 도구’이다. 따라서 연구자에게 필요한 첫 질문은 이것이다. “내 연구에서 어떤 부분이 가장 많은 시간을 소모하는가?” “AI를 활용하면 그 부분의 효율이나 통찰이 실제로 개선될 수 있는가?” 이 질문에 대한 답이 명확해질 때, AI는 비로소 연구 도구로 자리 잡는다. 그렇지 않다면, AI는 자칫 또 하나의 ‘유행하는 기술’에 불과할 수 있다. 3. 연구자에게 필요한 세 가지 관점 AI를 연구 현장에 적용하려는 이들에게 다음 세 가지 관점을 제안한다. 문제 중심...

미국 OSTP의 “AI에 관한 규제개혁 요청 정보(Request for Information; RFI)”

Image
https://www.federalregister.gov/documents/2025/09/26/2025-18737/notice-of-request-for-information-regulatory-reform-on-artificial-intelligence 미국 연방정부 기관인 Office of Science and Technology Policy(OSTP)가 2025년 9월 26일 발표한 “Artificial Intelligence에 관한 규제개혁 요청 정보(Request for Information; RFI)” (문서 번호 2025-18737) 의 요약입니다.  1. 문서 개요 발표일 : 2025년 9월 26일 제목 : Notice of Request for Information; Regulatory Reform on Artificial Intelligence (인공지능에 관한 규제개혁 요청ㆍ정보) 목적 : 연방정부의 법률·규제·정책 중에서 현재의 인공지능(AI) 기술 개발·배포·도입을 저해하거나 지연시키는 요소가 있는지를 조사하고, 개선 가능한 규제개혁 방향을 모색함.  대상 : 일반 기업, 학계, 산업계, 시민 사회 등 다양한 이해관계자에게 의견 제출을 요청.  의견 제출 마감 : 2025년 10월 27일.  2. 요청서의 배경 및 중요성 AI 기술이 빠르게 발전하고 있고, 기존의 규제들은 “사람이 중심이 되는 체계(human-centred)”에 맞춰 설계된 경우가 많아 인공지능의 기능·운영 방식과 잘 맞지 않는다는 인식이 있음.  미 행정부는 자국이 AI 분야에서 선도적 위치를 유지하길 원하며, 규제장벽을 낮추면서 기술 혁신을 촉진하고자 함.  많은 기존 규제가 ‘전통적인 시스템/절차’를 전제로 설계되어 있어서, AI가 갖는 자동화·데이터중심·비인간적(processes without direct human involvement) 특성과 충돌할 가능성이 있다는 지적이 나옴....

생성형 AI가 못 하는 것이 바로 ‘인간이 여전히 필요한 이유’ : AI의 한계는 인간의 가치를 증명한다.

Image
AI의 한계는 인간의 가치를 증명한다. 1)  생성형 AI (Generative AI) 의 본질 챗GPT와 같은 생성형 AI는 느끼거나  사유 하지 않고 단어를  예측한 다. 즉, 인간이 이미 만들어낸 지식의 패턴을 재조합하는 도구에 불과하다. 완벽한 문장을 쓰나  감정·두려움·기쁨·사랑 같은 ‘인간적 경험’은 담을 수 없다. 생성형 AI는 정체성이 없는 지능이다. 2) 인간과 AI의 차이 – “The Human Gap” 인간의 지성은 감정적이고 비합리적이며 모순적 이다. 그러나 바로 그 “불완전함”이 창의력과 의미를 만든다. 분석가는 ‘느낌상 이상하다’는 직관으로 이상치를 잡고, 작가는 독자의 감정을 찌를 단어 하나를 고르고, 디자이너는 논리가 아니라 감정에 맞춰 색을 조정한다. AI는 논리를 확장하고, 인간은 의미를 확장한다. 3) 생성형 AI가 할 수 없는 것들 맥락의 이해 :  데이터는 알아도 조직문화, 인 간관계, 암묵적 감정은 모른다. 욕망의 창조 :  아이디어는 낼 수 있지만, ‘무엇이 진 짜 중요한가’를 선택하는 감각과 타이밍은 없다. 호기심 :  “만약에?”라는 질문이 없다. 상상과 호기심은 불만족에서 오지만, AI는 불만을 느끼지 않는다. 책임 :  인간은 실패를 통해 성장하지만 , AI는 그냥 재계산만한다. 열정 :  AI는 최적화를 배우지만, ‘일 에 사랑을 느끼는 법’과 노력의 숭고함을 모른다. 4) 역설 : AI의 한계가 곧 장점 감정이 없으므로 지치지 않고, 판단하지 않으므로 편견이 없다. 의미를 만들지 않기에 인간이 그 공간을 채울 수 있다. 생성형 AI는 인간의 구조적 작업(80%)을 맡고, 인간은 의미와 감정(20%)을 담당할 때 최상의 협업이 된다. 생성형 AI는 ‘대체자’가 아니라 ‘확장자’이므로  “AI와 경쟁하지 말고, 협력하라.” 5) 나를 잃지 않는 실제적 활용 방법 아이디어 확장 : 여러 방향 제...