Posts

Showing posts from February, 2025

OpenAI의 Deep Research에 대한 문제점 분석

Image
The Deep Research problem   에 수록된 내용입니다. OpenAI의 Deep Research에 대한 분석이 굉장히 날카롭습니다. 연구와 분석을 주된 업무로 하는 입장에서 보면, 현재 LLM(대형 언어 모델)이 가지고 있는 한계를 정확하게 짚어낸 것 같습니다. 특히 확률적 모델이 결정론적 질문에 적용될 때 발생하는 문제 가 핵심이라는 점이 인상적입니다. 핵심적인 문제점 정리 1. 신뢰의 문제 모델이 대부분 맞는 답을 내놓지만, "대부분"이란 표현이 문제가 됩니다. 연구와 분석에서는 정확성(accuracy)이 핵심 이기 때문에 일부라도 틀린 데이터가 포함되면 전체 결과를 신뢰하기 어렵습니다. 만약 연구자가 모든 데이터를 직접 검증해야 한다면, 결국 시간을 절약할 수 없고, 오히려 신뢰할 수 없는 데이터가 포함될 위험이 커집니다. 따라서 이런 모델을 사용할 때는 사람이 철저히 검증하는 프로세스가 필요 합니다. 2. 출처(Source)의 문제 Deep Research는 데이터를 제시할 때 신뢰도가 떨어지는 출처를 사용하기도 합니다. 예를 들어, Statcounter는 "사용 비율"을 기준으로 데이터를 산출하는데, 이를 "시장 점유율"로 해석하면 오류가 발생 합니다. 또한, Statista는 원 데이터를 제공하는 것이 아니라 다른 자료를 모아 놓은 형태이기 때문에 원 출처가 불분명하고 신뢰도가 낮을 수 있음 을 고려해야 합니다. 결국, 연구자는 어떤 출처를 신뢰할 것인가 에 대한 판단이 필요하며, 현재 AI는 이 부분에서 제대로 작동하지 않습니다. 3. 확률적 vs. 결정론적 문제 LLM은 요약(Summarization), 개념적 통합(Synthesis), 추론(Inference) 등의 작업에는 강하지만, 정확한 데이터 검색(Deterministic Retrieval)에는 취약 합니다. 예를 들어, "일본 스마트폰 시장 점유율"을 찾을 때, LLM은 다양한 소스를 활용하여 ...

[인사이트 ] AI와 인간이 공존하는 사회를 만들기 위해

Image
인공지능(AI)의 급격한 발전은 사회 전반에 걸쳐 다양한 변화를 예고하고 있다. 이러한 변화에 대한 시각은 크게 낙관론과 비관론으로 나뉜다. 낙관론자 들은 AI가 생산성 향상, 새로운 일자리 창출, 삶의 질 개선 등 긍정적인 영향을 미칠 것으로 기대하는 반면, 비관론자 들은 일자리 감소, 경제적 불평등 심화, 프라이버시 침해 등의 부정적 결과를 우려한다. ​ 기술 발전을 멈추거나 거부할 수 없는 현실 에서, 우리는 비관론에서 제시하는 위험과 우려를 최소화하고 낙관론의 긍정적 비전을 현실화하기 위한 구체적인 방안을 모색해야 한다. 이를 위해 다음과 같은 접근이 필요하다.​ 1. 윤리적 AI 개발 및 활용 AI 시스템의 설계, 개발, 배포, 사용에 있어 윤리적 원칙과 가치를 실현하는 ' 책임감 있는 AI(Responsible AI) '를 추구해야 한다. 이는 공정성, 투명성, 설명 가능성, 견고성, 프라이버시 보호, 안전성 등을 고려하여 사회에 이로운 AI를 개발하는 것을 의미한다. 이를 통해 AI 기술에 대한 신뢰를 확보하고 부작용을 최소화할 수 있다. ​ 2. 법적·제도적 장치 마련 AI 기술의 발전과 함께 발생하는 윤리적, 사회적 문제를 해결하기 위해서는 법과 제도의 정비가 필수적이다. 정부는 AI 기술의 혁신을 촉진하면서도 부작용을 최소화하기 위한 규제 체계를 구축해야 한다. 예를 들어, 개인정보 보호를 위한 법적 장치를 강화하고, AI 시스템의 투명성과 책임성을 높이기 위한 제도를 마련해야 한다. ​ 3. AI 인재 양성 및 교육 AI 기술의 발전에 따라 새로운 일자리와 산업이 창출될 것으로 예상된다. 이를 대비하기 위해서는 AI 분야의 인재를 양성하고, 기존 노동자들의 재교육을 통해 기술 변화에 적응할 수 있도록 지원해야 한다. 이는 일자리 감소에 대한 우려를 해소하고, 경제적 불평등을 완화하는 데 기여할 것이다. ​ 4. 사회적 합의와 공론화 AI 기술의 개발과 활용에 대한 사회적 합의가 필요하다. 이를 위해 다양한 ...

염재호 국가AI위원회 부위원장, "통계청을 빅데이터청으로 전환해야"

Image
* 이 내용은 염재호 국가인공지능(AI)위원회 부위원장이 세계일보와의 인터뷰 에서 발언한 내용을 중심으로 정리한 것이다. ~~~~~ 염재호 국가인공지능(AI)위원회 부위원장은 AI의 급격한 발전을 신대륙의 발견에 비유하며, 이제 막 사람들이 AI라는 새로운 영역으로 진입하는 단계라고 설명했다. 그는 한국의 AI 경쟁력이 세계 6위 수준이며, 특히 반도체, IT 산업의 실행력, 그리고 제조업 기반이라는 세 가지 강점이 있다고 분석했다. 그는 전 세계적으로 AI 기술 개발에 대한 경쟁이 치열해지는 가운데, 한국도 적극적인 투자와 지원이 필요하다고 강조했다. 최근 최상목 대통령 권한대행이 3차 국가AI위원회 전체회의를 주재하며 한국형 챗GPT 개발과 AI 인프라 조성을 위해 6조 원을 투자하겠다고 발표한 것도 이러한 필요성에 따른 조치라고 설명했다. 특히 AI 인력 양성 시스템의 한계를 지적하며, 중국 베이징대가 공대 정원을 40% 늘린 반면, 한국은 수도권 정비계획법 등의 제약으로 인해 정원을 거의 확대하지 못했다고 비판했다. 그는 미국 스탠퍼드대가 20년 전 100명이던 컴퓨터공학과 정원을 800명으로 늘린 반면, 서울대는 같은 기간 동안 55명에서 64명으로 소폭 증가하는 데 그친 현실을 지적하며, 정부의 적극적인 개입이 필요하다고 주장했다. 이어 AI 시대에 맞는 정부 조직 개편의 필요성도 강조했다. 한국의 의료 데이터는 세계적으로 경쟁력이 높지만, 개인정보 보호 문제로 인해 제대로 활용되지 못하고 있다는 점을 지적하며, 이를 해결하기 위해 통계청을 ‘빅데이터청’으로 전환하고 익명화된 데이터를 적극적으로 활용할 수 있는 체계를 만들어야 한다고 제안했다. 또한 AI 인재 양성을 위해 이스라엘의 군사·기술 엘리트 양성 프로그램인 ‘탈피오트(Talpiot)’를 한국에 도입할 필요성을 언급했다. 그는 우수한 이공계 인재를 선발해 AI 분야 연구·개발(R&D)에 집중하도록 하고, 병역 혜택과 같은 유인책을 제공하면 의대 쏠림 현상을 완화하는 부수적인 효과도 기...

딥시크(DeepSeek)가 AI 업계에 던진 교훈

Image
  딥시크(DeepSeek)가 AI 업계에 던진 교훈 1. 오픈소스 통한 개방형 혁신 딥시크는 자체 개발한 DeepSeek-Coder (코딩 특화 LLM)와 DeepSeek-V2 (범용 LLM) 등 강력한 모델을 오픈소스로 공개하여 AI 생태계에서 중요한 역할을 하고 있다. 이는 OpenAI, Anthropic 등 일부 기업이 폐쇄적인 정책을 강화하는 가운데, AI의 민주화 와 개방형 혁신 의 가치를 다시금 강조하는 사례가 되고 있다. Meta의 LLaMA 시리즈 와 함께 AI 커뮤니티에서 오픈소스 경쟁을 더욱 촉진하는 계기가 되고 있다. 2. 중국의 AI 기술 역량 과시 딥시크의 모델은 성능 면에서 상당한 수준을 보이며, 이는 중국이 자체적으로 AI 대형 언어 모델(LLM) 개발 역량을 갖추고 있음을 입증 한 사례이다. 미국의 반도체 규제 속에서도 AI 모델을 자체적으로 발전시키는 전략적 접근 을 보여주고 있다. 이는 단순한 기술적 성과를 넘어, 중국 AI 업계가 글로벌 AI 시장에서 점점 더 중요한 역할을 하게 될 것임 을 시사하고 있다. 3. 폐쇄형 vs. 개방형 AI 경쟁 심화 OpenAI, Google DeepMind, Anthropic 등 주요 AI 기업들이 점점 더 폐쇄적인 모델 전략을 취하는 반면 , 딥시크와 같은 오픈소스 AI 프로젝트는 점점 더 활발해지고 있다. 이는 AI 생태계에서 **"폐쇄형(proprietary) vs. 개방형(open-source)"**의 경쟁 구도가 더욱 명확해지고 있음을 의미한다. 많은 연구자 및 기업들은 폐쇄형 모델이 안전성과 수익성 측면에서 유리하다 고 주장하지만, 딥시크는 개방형 모델을 통해 더 많은 혁신과 협력이 가능하다 는 점을 증명하고 있다. 4. 비용 효율적인 AI 모델 개발 가능성 딥시크는 상대적으로 적은 비용과 제한된 인프라를 활용하면서도 상당한 성능의 AI 모델을 만들어내고 있다. 이는 빅테크 기업이 아닌 새로운 플레이어들도 충분히 강력한 AI 모델을 개발할 수 있다는 점을 보여준...

암호화폐 역사상 최대 규모 해킹··· 북한 개입 정황 확인

Image
  바이비트 15억 달러 암호화폐 해킹 사건 개요 및 분석 1. 사건 개요 거래소: 바이비트(Bybit), 전 세계 거래량 기준 2위 암호화폐 거래소 피해 규모: 약 15억 달러(2조 원) 상당의 이더리움(ETH) 및 stETH 자산이 도난 해킹 시점: 2025년 2월 21일(UTC 기준) 해커 조직: 북한 연계 해킹 조직 라자루스 그룹과 관련 있음 연관 거래소: 동일한 그룹이 빙엑스(BingX) 및 페멕스(Phemex) 해킹에도 개입한 것으로 확인됨 2. 해킹 과정 사전 테스트 거래: 해커들은 보안 시스템 탐지를 피하기 위해 소규모 테스트 거래를 수행 콜드월렛 접근: 인터넷과 분리된 콜드월렛에서 비정상적인 활동이 감지됨 스마트 계약 조작: 콜드월렛 서명자가 정상적인 주소로 보도록 속이면서, 실제로는 조작된 거래를 승인하도록 함 거래소 자금 유출: 총 40만 ETH 및 stETH가 미확인된 지갑으로 이동 3. 사건 조사 및 대응 조사 과정: 블록체인 분석 전문가 '잭XBT(ZachXBT)'가 해킹 조직 연루 증거 제출 포렌식 분석: 블록체인 보안 기업 '아캄 인텔리전스(Arkham Intelligence)'가 이를 공식 인정 출금 요청 급증: 사건 직후 사용자들의 대규모 출금 요청이 이어졌으나, 현재 70% 이상 처리 완료됨 거래소 대응 200억 달러(28조 원) 규모의 자산 보유를 강조하며, 필요 시 임시 단기 대출(bridge loan) 활용 계획 발표 블록체인 포렌식 전문가들과 협력하여 도난 자금 추적 중 4. 암호화폐 시장 영향 보안 문제 부각: 암호화폐 거래소의 보안 체계 강화 필요성이 다시 대두됨. 라자루스 그룹 활동 확대: 북한 연계 해킹 조직이 여러 거래소를 대상으로 정교한 공격을 감행하고 있음. 거래소 신뢰 문제: 대형 거래소조차 안전하지 않다는 인식이 확산되며, 보안이 중요한 경쟁력으로 작용할 전망 5. 전문가 의견 /  산티아고 폰티롤리(보안 기업 아크로니스 연구원) "이번 사건은 암호화폐 역사상 최대 ...

AI 도입을 성공적으로 진행하는 방법

Image
What’s involved in implementing AI in your business? (이 itdaily.com의 기사 내용을 요약 정리한 것입니다.) AI 도입을 성공적으로 진행하는 방법 점점 더 다양한 산업에서 인공지능(AI)을 활용하고 있다. 그러나 AI를 효과적으로 도입하려면 여러 요소를 고려해야 하며, 올바른 전략이 필요하다. AI 도입이 원활하게 이루어지기 위해서는 다음과 같은 핵심 요소를 점검해야 한다. 1. 적절한 인프라 구축 AI 시스템을 원활하게 운영하려면 강력한 IT 인프라 가 필요하다. 하드웨어 및 소프트웨어 뿐만 아니라 안정적인 네트워크 연결과 충분한 데이터 저장 공간(클라우드 또는 온프레미스 서버)도 확보해야 한다. 기존 IT 시스템과 AI 시스템의 호환성을 점검하여, 필요하면 업그레이드하거나 교체하는 것이 바람직하다. 2. 개인정보 보호 및 사이버 보안 AI를 활용할 때는 데이터 보호 및 보안 전략 을 철저히 마련해야 한다. 유럽의 AI Act, NIS2 법률 과 같은 개인정보 보호 규정을 준수 하는 것이 중요하며, 그렇지 않으면 큰 벌금에 처할 수 있다. AI 시스템은 사이버 공격의 주요 대상이 될 수 있으므로, 데이터 프라이버시 보호 및 보안 체계 강화 가 필수적이다. 안전한 AI 운영을 통해 고객의 신뢰 확보 도 가능하다. 3. 오류 관리 및 지속적인 모니터링 AI 시스템은 여전히 발전 중이며, 오류를 범할 가능성이 존재 한다. 기업은 소프트웨어의 한계를 명확히 설정하고, 오류가 발생했을 때 빠르게 대응할 수 있는 전략 을 마련해야 한다. AI 성능을 지속적으로 모니터링하고 정기적으로 업데이트 및 유지 보수 하는 것이 필수적이다. 오류를 최소화하고 위험을 관리하기 위한 '사전 대응 매뉴얼(playbook)'을 마련하여, 발생 가능한 리스크를 효과적으로 줄여야 한다. 4. 직원 교육 및 AI 활용 능력 강화 AI 시스템을 도입하더라도 직원들이 이를 효과적으로 활용할 수 있어야 한다. 직원들이 AI 기술을 ...

[ AI 활용사례 ] 10년 걸린 연구를 AI로 단 2일 만에 해결

Image
AI cracks superbug problem in two days that took scientists years ( BBC 보도 내용 요약 ) AI가 10년 걸린 연구를 단 2일 만에 해결 1. 연구 배경 및 문제 해결 영국 임페리얼 칼리지 런던의 호세 R. 페나다스(José R. Penadés) 교수 와 연구팀은 슈퍼박테리아(superbugs)가 어떻게 항생제에 내성을 갖게 되는지 연구해왔음. 기존 연구에 따르면, 일부 박테리아는 다른 바이러스의 "꼬리"를 조합하여 새로운 형태로 진화 할 수 있으며, 이를 통해 종을 넘나들며 확산될 수 있음. 이 연구는 아직 공개되지 않은 독창적인 가설 이었으며, 외부에 유출된 적이 없었음. 2. AI 공동 과학자의 역할 구글이 개발한 "AI Co-Scientist" 도구에 해당 연구의 핵심 문제를 간단한 프롬프트(prompt)로 입력 AI는 단 48시간 만에 연구팀이 수년간 연구해온 결과와 동일한 결론 을 도출 연구팀이 미처 고려하지 못했던 추가적인 4개의 가설 도 제안, 그중 하나는 현재 연구팀이 새롭게 연구 중 3. 연구팀의 반응 페나다스 교수는 AI가 연구 결과를 정확히 재현한 것에 충격을 받음 연구가 공개되지 않았는데 AI가 이를 어떻게 찾았는지 의심 , 구글에 이메일을 보내 "내 컴퓨터에 접근한 것이냐"고 문의 구글 측은 AI가 연구팀의 데이터를 전혀 사용하지 않았음 을 확인 4. AI가 과학 연구를 바꿀 것인가? 연구팀은 "AI Co-Scientist"가 연구 과정에서 초기 가설을 신속하게 생성 하는 데 유용하다고 평가 만약 연구 초기부터 올바른 가설을 알고 있었다면, 실험 및 검증 과정을 크게 단축 할 수 있었을 것 페나다스 교수는 이를 두고 "과학을 변화시킬 기술"이라며 매우 긍정적인 전망 을 밝힘 5. AI와 과학 연구의 미래 AI의 발전에 대한 논란이 있음: 일부는 과학적 혁신을 촉진할 것이라 기대 일자리 감소와...

구글의 "AI Co-Scientist"로 과학적 혁신 가속화

Image
Accelerating scientific breakthroughs with an AI co-scientist (2025년 2월 19일, Google Research 블로그 요약 + 일부 보충) "AI Co-Scientist" 소개 및 연구 가속화 "AI Co-Scientist" 는  과학 연구의 속도를 높이고, 새로운 연구 방향을 탐색하는 도구 로서 가능성을 보여준다. AI가 과학자와 협력하여  대규모 연구 문제를 해결하는 데 기여 할 것으로 기대된다. 1.  "AI Co-Scientist" 란? Google이 개발한 다중 에이전트 AI 시스템으로,  Gemini 2.0 기반의 가상 과학 협력자  역할을 수행 과학자들이  새로운 연구 가설을 생성하고 연구 제안을 도출 하는 데 도움을 주며, 과학 및 생의학 연구의 속도를 높이는 것을 목표로 함 AI가 연구 논문 및 문헌을 분석하고, 전문가의 통찰력을 보완하여 혁신적인 연구 방향을 제시 2.  "AI Co-Scientist" 의 핵심 기능  (1) 과학적 연구 가설 생성 연구자가 자연어로 연구 목표를 입력하면 , AI Co-Scientist 는 이를 기반으로 연구에 필요한 새로운 가설을 생성 기존 문헌 및 데이터 기반으로 분석하며 , 기존 연구 기반으로 독창적인 연구 방향을 제안  (2) 실험 계획 및 연구 설계 AI Co-Scientist 는 연구자가 설정한 목표를 구체적 실험 프로토콜로 변환하는 기능을 제공 실험 방법론을 정의하고 , 실험 설계에 필요한 데이터 및 변수들을 제안  (3) 자동 가설 평가 및 개선 생성된 가설을 평가하는 다중 에이전트 시스템이 적용 가설을 반복적으로 검토하고 평가하여 더 정교한 연구 방향을 도출(self-improving cycle) 3. AI Co-Scientist 의 구조 : 다중 에이전트 시스템 AI Co-Scientist 는 단일 AI 모델이 아니라 , 서로 다른 역할을 수행하는 여러...

생성형 AI(Generative AI)의 특허 및 연구 동향 분석 (WIPO)

Image
WIPO의 생성형 AI 특허 동향 보고서(2024)   세계지식재산권기구(WIPO)가 발간한(2024년) 이 보고서는 생성형 AI(Generative AI, GenAI)의 특허 및 연구 동향을 분석 하였다.   이 보고서는 생성형 AI 기술과 관련된 특허와 연구 활동은 급속도로 증가하고 있으며, 국가별로는 중국이 특허 출원 및 논문 발표에서 압도적 1위를 차지하고, 주요 기업(텐센트, 바이두, 구글, IBM 등)이 시장을 선도하는 것으로 분석하였다. 향후 법적 규제와 기술 혁신의 균형이 중요하나는 점을 언급하였다. ① 생성형 AI 개요 생성형 AI는 새로운 콘텐츠(텍스트, 이미지, 오디오, 비디오 등)를 생성하는 기술 최근 대규모 언어 모델(LLMs), 생성적 적대 신경망(GANs), 변분 오토인코더(VAEs), 확산 모델(Diffusion Models) 등의 발전이 핵심 OpenAI의 ChatGPT(2022년 11월 출시)는 생성형 AI 확산을 촉진하는 ‘아이폰 순간(iPhone moment, 특정 기술이 대중에게 인지되기 시작하면서 시장의 패러다임이 바뀌는 순간)’을 만들었음 ② 생성형 AI 특허 출원 동향 2014년: 733건의 특허 출원 2023년: 14,000건 이상 출원 → 10년 동안 800% 증가 특허 증가 요인: 강력한 컴퓨팅 능력, 대규모 데이터세트 활용, 딥러닝 기술 발전 주요 특허 보유 기관: 텐센트(Tencent) 핑안보험(Ping An Insurance) 바이두(Baidu) 중국과학원(Chinese Academy of Sciences) IBM 알리바바, ByteDance, Alphabet/Google, Microsoft 등 포함 ③ 국가별 특허 출원 현황 1위: 중국 (38,210건, 전체의 약 70%) 2위: 미국 (6,276건) 3위: 한국 (4,155건) 4위: 일본 (3,409건) 5위: 인도 (1,350건) 6위~7위: 영국(714건), 독일(708건) ④ 주요 생성형 AI 모델 특허 ...

AI가 고품질 연구 논문을 만들 수 있나? (AI가 연구자들에게 주는 기회)

Image
* 이 내용은 " AI가 출판 가능한 고품질 연구 논문을 만들 수 있을까? "라는 기사이다. Research Information의 이 기사(2025.1.16)는 AI의 학술 논문 작성 가능성과 그 한계 및 윤리적 고려사항에 대해 논의했다. 결론은 AI를 올바르게 활용하면 학술 연구의 효율성과 생산성을 높이는 데 기여할 수 있다는 것이다. AI 가 연구자들에게 주는 기회   1. 연구 논문 작성의 질과 속도 향상   AI 는 연구자의 글쓰기 과정에서 논리적 흐름을 정리하고 명확성을 높이는 데 도움을 줄 수 있음 . 데이터 , 연구 방법 , 결론 및 분석을 작성하는 과정에서 창의성을 해치지 않으면서도 속도를 높이는 데 기여할 수 있음 .   2. 비영어권 연구자의 논문 작성 지원   영어가 모국어가 아닌 연구자들이 더 나은 논문을 작성할 수 있도록 도와 , 국제 학술 커뮤니티에 접근할 기회를 확대할 수 있음 .   3. AI 는 보조 도구이며 , 인간의 감독이 필수적   AI 가 많은 기회를 제공하지만 , 사람의 개입 없이 완벽한 연구 논문을 작성할 수 없음 . 인간 연구자의 감독이 없으면 논문의 논리적 완결성 , 정확성 및 신뢰성을 보장하기 어려움 .