DeepSeek, Perplexity, 그리고 AI 시장의 새로운 도전
값비싼 AI 독점의 시대가 저물고 있습니다. 지난 2년간 업계는 최고 수준의 성능을 내려면 수십억 달러의 컴퓨팅 자원과 막대한 에너지가 필요하다고 믿어왔습니다. 하지만 DeepSeek와 Perplexity는 효율성이 단순한 규모의 경제를 압도할 수 있음을 증명하고 있습니다. DeepSeek는 업계 선두 주자들과 대등한 성능을 내면서도 훨씬 적은 비용으로 모델을 학습시켜 시장에 충격을 주었습니다. 한편, Perplexity는 전통적인 링크 목록 대신 직접적이고 출처가 명시된 답변을 제공함으로써 사람들이 인터넷을 활용하는 방식을 근본적으로 바꾸고 있습니다. 이는 단순한 새 도구의 등장이 아니라, 지능의 경제학이 근본적으로 변화하고 있음을 의미합니다. 이제는 모델의 크기가 아니라 ‘얼마나 저렴하게 운영할 수 있는가’가 핵심입니다. 이러한 도전자들이 입지를 넓히면서, 기존 거대 기업들은 거품보다는 실용성을 앞세운 효율적이고 전문화된 경쟁자들에 맞서 고수익 비즈니스 모델을 방어해야 하는 처지에 놓였습니다.
지능형 시장에 닥친 효율성 충격
DeepSeek는 AI 업계의 제품 현실을 완전히 뒤바꿔 놓았습니다. 많은 기업이 가능한 한 큰 신경망을 만드는 데 집중할 때, 이 팀은 아키텍처 최적화에 몰두했습니다. DeepSeek-V3 모델은 ‘Mixture of Experts(전문가 혼합)’ 방식을 사용하여 특정 작업에 필요한 파라미터만 활성화합니다. 이를 통해 모델은 높은 성능을 유지하면서도 단어 생성에 필요한 연산 능력을 획기적으로 줄였습니다. 이 회사의 낮은 학습 비용(보고된 바에 따르면 600만 달러 미만)은 부유한 국가나 대기업만이 최첨단 모델을 만들 수 있다는 통념을 깨뜨렸습니다. 이는 머신러닝의 진입 장벽이 생각보다 훨씬 낮다는 것을 시사합니다.
Perplexity는 사용자 인터페이스 관점에서 문제에 접근합니다. 기존 검색 엔진이 아닌 ‘답변 엔진’을 지향하죠. 이들은 기존의 대규모 언어 모델을 활용해 실시간 웹을 스캔하고, 관련 정보를 추출하여 각주가 달린 응답으로 제시합니다. 이러한 설계는 기존 AI 모델의 고질적인 문제인 ‘오래되거나 완전히 지어낸 정보’를 제공하는 약점을 해결합니다. 실시간 웹 데이터에 기반을 둔 응답을 제공함으로써, Perplexity는 일반 챗봇보다 전문적인 연구에 훨씬 신뢰할 수 있는 도구가 되었습니다. 제품의 본질은 모델 그 자체가 아니라 그 주변을 감싸는 검색 및 인용 시스템에 있습니다. 이러한 방식은 검색 결과 페이지를 여러 번 클릭하게 하여 광고 수익을 얻는 기존 검색 제공업체들에게 엄청난 압박을 가합니다.
BotNews.today는 AI 도구를 사용하여 콘텐츠를 조사, 작성, 편집 및 번역합니다. 저희 팀은 정보가 유용하고 명확하며 신뢰할 수 있도록 프로세스를 검토하고 감독합니다.
저렴한 컴퓨팅의 지정학
이러한 도전자들이 전 세계에 미치는 영향은 고성능 추론의 대중화에 뿌리를 두고 있습니다. 모델 운영 비용이 90% 하락하면 일상적인 소프트웨어에 통합될 가능성이 기하급수적으로 커집니다. 이전에는 비싼 API 비용 때문에 엄두도 못 냈던 신흥 시장의 개발자들이 이제는 정교한 애플리케이션을 구축할 수 있게 되었습니다. 이는 업계 전체의 무게 중심을 옮겨놓고 있습니다. 실리콘밸리의 전통적인 허브 밖에서 가장 효율적인 모델이 나온다면, 거대한 자체 서버 팜(server farm)이 갖는 전략적 이점은 줄어들기 시작합니다. 이는 모델 주권에 대한 논의를 촉발하며, 국가들이 소수의 중앙 집중식 제공업체에 의존할지 아니면 자체적인 효율적 아키텍처에 투자할지를 고민하게 만듭니다. 이는 업계가 ‘승자 독식’ 구조에서 벗어나 더 파편화되고 경쟁적인 시장으로 나아가고 있다는 신호이기에 주목할 가치가 있습니다.
기업 고객들도 이러한 변화를 수익성 측면에서 체감하기 시작했습니다. 낮은 추론 비용이라는 이야기는 기업들이 장기적인 기술 스택을 계획하는 방식을 바꾸고 있습니다. DeepSeek와 같은 모델이 더 비싼 경쟁사 모델의 80% 성능을 10% 가격에 제공할 수 있다면, 대부분의 일상적인 업무에서 더 비싼 옵션을 선택할 명분은 사라집니다. 이는 가장 비싼 모델은 고도의 복잡한 추론에만 사용하고, 대다수의 작업은 효율적인 도전자 모델이 처리하는 계층화된 시장을 만듭니다. 이러한 경제적 현실은 광고 시장에도 영향을 미칩니다. Perplexity는 광고를 연구 과정의 방해 요소가 아닌 통합된 요소로 실험하고 있습니다. 이는 사람들이 더 이상 홈페이지를 방문하거나 검색 결과를 스크롤하지 않는 시대에 브랜드가 소비자와 만나는 방식을 재정의할 수 있습니다. API를 선택하는 소프트웨어 엔지니어부터 즉각적인 답변의 세계에서 잠재 고객을 찾으려는 마케팅 임원까지, 모두가 이 변화를 느끼고 있습니다.
답변 엔진과 함께하는 화요일
실제 영향력을 이해하기 위해 금융 분석가 사라의 하루를 살펴봅시다. 과거의 사라는 아침마다 10개의 탭을 열어 시장 동향과 뉴스 보고서를 확인했습니다. 데이터를 종합해 아침 보고서를 만드는 데만 몇 시간이 걸렸죠. 하지만 오늘날 그녀는 답변 엔진을 사용하여 여러 소스의 데이터를 동시에 쿼리합니다. 세 가지 분기별 보고서를 비교해달라고 요청하면 몇 초 만에 출처가 명시된 요약본을 받습니다. 시스템이 원문에서 직접 정보를 가져오기 때문에 데이터의 정확성도 높습니다. 그녀는 이제 정보를 찾는 데 시간을 쓰지 않습니다. 대신 정보를 검증하고 이를 바탕으로 의사결정을 내리는 데 집중합니다. 이것이 바로 검색 배포의 실체입니다. 인터페이스가 연구원이 되었고, 사라는 편집자가 되었습니다. 그녀의 업무 흐름은 빨라졌지만, 동시에 엔진이 제공하는 인용문의 정확성에 더 의존하게 되었습니다.
하루 중 나중에 사라는 데이터 입력 작업을 자동화하기 위한 맞춤형 스크립트가 필요해졌습니다. 비싼 범용 어시스턴트를 사용하는 대신, DeepSeek와 같은 도전자의 전문 코딩 모델을 사용합니다. 모델은 즉시 코드를 제공하며, 추론 비용이 매우 낮기 때문에 회사에서는 예산 걱정 없이 하루에도 수천 번씩 작은 작업에 이 모델을 사용하게 합니다. 이것이 바로 모델 시장이 변하는 방식입니다. 모델은 이제 소중한 자원이 아니라 배경에서 작동하는 유틸리티가 되고 있습니다. 사라가 지난 3일 동안 표준 검색창을 한 번도 사용하지 않았다는 사실을 깨달았을 때, 기존 검색 방식에 가해지는 압박은 분명해집니다. 구조화된 문서를 얻을 수 있는데 굳이 링크 목록을 볼 이유가 없으니까요. 다음은 그녀의 일상 변화를 보여주는 몇 가지 포인트입니다:
- 사라는 수동 뉴스 취합을 실시간으로 업데이트되는 자동 인용 요약으로 대체했습니다.
- 이전에는 자동화하기 너무 비쌌던 반복적인 코딩 작업에 저비용 모델을 사용합니다.
- 직접적인 답변에서 더 큰 가치를 발견함에 따라 기존 광고 기반 검색 엔진에 대한 의존도가 거의 0에 가까워졌습니다.
- 절약된 시간 덕분에 데이터 사냥보다는 고수준 전략과 고객 관계 관리에 집중할 수 있게 되었습니다.
무료 지능의 숨겨진 대가
소크라테스적 회의론은 우리가 이 효율성을 얻기 위해 무엇을 포기하고 있는지 묻게 합니다. 모델의 학습 및 운영 비용이 현저히 낮다면, 그 절감분은 어디서 온 것일까요? 이 효율적인 모델을 학습시키는 데 사용된 데이터가 더 비싼 모델들과 동일한 수준의 검증을 거쳤는지 물어야 합니다. 가격 경쟁이 데이터 프라이버시와 지적 재산권에 대한 경쟁으로 이어질 위험이 있습니다. 만약 기업이 모델 사용료를 거의 받지 않는다면, 사용자가 입력하는 데이터를 수익화하고 있는 것은 아닐까요? 또한 답변 엔진 모델의 숨겨진 비용도 고려해야 합니다. Perplexity가 웹사이트를 요약하면, 해당 웹사이트는 방문자를 잃습니다. 원본 콘텐츠 제작자가 보상을 받지 못한다면, 이 엔진들이 의존하는 정보 자체가 결국 사라질지도 모릅니다. 독자들이 원문을 방문하지 않는다면 2026의 저널리즘과 연구는 누가 자금을 지원할까요?
또 다른 어려운 질문은 이러한 저비용 아키텍처의 신뢰성에 관한 것입니다. ‘전문가 혼합’ 방식이 감지하기 어려운 새로운 유형의 오류를 만들어내지는 않을까요? 속도를 위해 깊이를 희생하고 있는 것은 아닌지 물어야 합니다. 사용자가 원문 문맥을 확인하지 않고 요약된 인용문에만 과도하게 의존할 위험이 있습니다. 이는 복잡한 주제의 뉘앙스를 잃고 얕은 이해에 머물게 할 수 있습니다. 학습 비용에 대한 주장도 회의적으로 바라봐야 합니다. 이 수치들은 완전히 투명할까요, 아니면 인건비와 하드웨어의 환경적 영향은 제외된 것일까요? 저렴한 지능의 시대로 나아가면서, 우리는 우리가 통합하는 시스템의 품질과 윤리에 대해 경계심을 늦춰서는 안 됩니다. 신제품 출시의 소음은 종종 장기적인 결과라는 신호를 덮어버리곤 합니다.
새로운 도전자들의 내부 들여다보기
파워 유저에게 이 도전자들의 매력은 기술적 유연성과 통합 기능에 있습니다. DeepSeek-V3는 FP8 정밀도를 최적화하는 학습 프레임워크를 사용하여 정확도 손실 없이 더 빠른 연산을 가능하게 합니다. 이는 비용 효율성을 설명하는 중요한 기술적 이정표입니다. 이들의 ‘Multi-head Latent Attention’ 메커니즘은 추론 중 모델의 메모리 점유율을 줄여주는데, 이는 자체 하드웨어에서 모델을 호스팅하려는 개발자에게 매우 중요한 요소입니다. 이러한 새로운 모델 중 다수는 가중치가 공개되어 있어 로컬이나 프라이빗 클라우드 인스턴스에서 실행할 수 있습니다. 이는 민감한 데이터를 제3자 API로 보내는 것을 위험하게 여기는 기업들에게 큰 이점입니다. 특정 데이터셋에 대해 이 모델들을 미세 조정(fine-tuning)할 수 있는 능력은 법률, 의료, 금융 분야의 틈새 애플리케이션에서 모델의 가치를 더욱 높여줍니다.
저희가 다루어야 할 AI 스토리, 도구, 트렌드 또는 질문이 있으신가요? 기사 아이디어를 보내주세요 — 기꺼이 듣겠습니다.Perplexity는 API를 통해 개발자가 자체 애플리케이션에 검색 기능을 직접 구축할 수 있도록 함으로써 또 다른 기술적 가치를 제공합니다. 이는 별도의 검색 인덱스와 언어 모델이 필요 없게 만듭니다. 시스템이 자동으로 근거를 찾고 인용을 처리합니다. 하지만 고려해야 할 한계도 있습니다. API 속도 제한과 실시간 웹 검색의 지연 시간은 대규모 애플리케이션에서 병목 현상이 될 수 있습니다. 사용자는 검색 속도와 분석 깊이 사이의 균형도 관리해야 합니다. 정보의 출처를 추적해야 하는 파워 유저에게는 검색 결과를 로컬에 저장하는 것 또한 고려 사항입니다. 현재 이 도구들의 경쟁력을 결정짓는 기술적 요소는 다음과 같습니다:
- 긴 문맥 작업 시 KV 캐시 메모리 사용량을 줄이기 위한 Multi-head Latent Attention 사용.
- 최신 GPU 하드웨어의 처리량을 극대화하기 위한 FP8 학습 및 추론 지원.
- 수천 개의 동시 웹 쿼리를 처리할 수 있는 실시간 RAG 파이프라인 통합.
- 보안 환경에서의 로컬 배포를 위한 가중치 공개.
선택적 지능의 미래
DeepSeek와 Perplexity의 부상은 더 성숙한 AI 시장의 시작을 알립니다. 우리는 단순히 말만 잘하는 모델의 참신함에서 벗어나, 효율적으로 일할 수 있는 모델의 실용성으로 나아가고 있습니다. 무게 중심은 지속 가능한 가격으로 고품질 결과를 제공할 수 있는 제공업체로 이동 중입니다. 이는 현재 2026를 위한 일시적인 유행이 아니라, 우리가 디지털 서비스를 구축하고 소비하는 방식의 장기적인 변화입니다. 이러한 도전자들이 제품을 개선함에 따라 기존 검색 및 고비용 모델 제공업체에 가해지는 압박은 더욱 거세질 것입니다. 사용자에게는 더 많은 선택지와 더 나은 도구를 의미합니다. 업계에는 무차별적인 연산보다는 엔지니어링의 탁월함에 다시 집중하게 되는 계기가 될 것입니다. 진정한 승자는 하이프 사이클의 소음과 기술 경제의 구조적 변화라는 신호를 구분할 수 있는 이들이 될 것입니다.
편집자 주: 저희는 컴퓨터 전문가가 아니지만 인공지능을 이해하고, 더 자신감 있게 사용하며, 이미 다가오고 있는 미래를 따라가고 싶은 사람들을 위한 다국어 AI 뉴스 및 가이드 허브로 이 사이트를 만들었습니다.
오류나 수정할 사항을 발견하셨나요? 알려주세요.