class="color-gray post-type-text paging-view-more">
본문 바로가기

AI tools

Make.com에서 ChatGPT, Gemini 모듈 비교 분석 (성능, 가격, 설정 등)

 

AI 자동화, 선택이 아닌 필수

"매일 반복되는 업무, AI로 자동화하고 싶은데… ChatGPT와 Gemini 중 무엇이 더 나을까?" 2025년, Make.com을 통한 자동화는 더 이상 IT 전문가만의 영역이 아닙니다. 누구든 손쉽게 인공지능(AI)을 업무에 접목할 수 있지만, 어떤 AI 모델을 선택하느냐에 따라 결과와 비용, 유지관리의 난이도까지 크게 달라집니다. 특히 OpenAI의 ChatGPT와 Google의 Gemini는 현재 가장 주목받는 대형 언어 모델(LLM)로, Make.com과의 연동을 통해 자동화 시나리오를 구현할 수 있게 해줍니다. 하지만 어떤 모델이 내 상황에 더 적합할지, 설정은 어떻게 다르고 비용은 얼마나 나올지 명확하게 파악하기는 쉽지 않습니다.

이 글에서는 Make.com을 활용하여 ChatGPT와 Gemini를 연동할 때 성능, 가격, 설정의 미묘한 차이점뿐만 아니라 각 AI 모델의 장단점, 주의사항, 그리고 실용적인 팁까지 정리했습니다.


목차

  1. Make.com: AI 자동화 플랫폼의 핵심
  2. ChatGPT와 Gemini
  3. Make.com 연동 핵심 비교: ChatGPT vs Gemini 모듈
    • 3.1 모듈 설정 및 연동 과정의 차이점
    • 3.2 지원하는 모델 파라미터 및 기능
    • 3.3 각 모델의 강점과 약점
  4. 성능 심층 비교: 실전 워크플로우에서의 AI 모델 선택
  5. 가장 중요한 질문: 가격 및 비용 효율성 분석
  6. Make.com 연동 시 유의사항 및 트러블 슈팅
  7. 개인적인 시각
  8. 자주 묻는 질문 (FAQ)

1. Make.com: AI 자동화 플랫폼의 핵심

Make.com (구 Integromat)은 다양한 웹 서비스와 애플리케이션을 시각적으로 연결하여 복잡한 워크플로우를 자동화할 수 있는 강력한 노코드(No-code) 플랫폼입니다. 코딩 지식이 없어도 드래그 앤 드롭 방식으로 시나리오를 구성할 수 있어, 개인 사용자부터 대기업까지 폭넓게 활용되고 있습니다.

Make.com은 마치 레고 블록처럼 다양한 '모듈'들을 연결하여 '시나리오'를 만듭니다. 예를 들어, "특정 이메일을 받으면 → 첨부 파일을 Google Drive에 저장하고 → Slack으로 알림을 보내는" 시나리오를 코딩 없이 만들 수 있습니다. AI 모듈(예: ChatGPT, Gemini)과 연동하면 텍스트 생성, 요약, 번역, 이미지 분석 등 고도화된 자동화가 가능하며, 이는 Make.com의 강력함을 극대화하는 핵심 요소입니다. 텍스트를 생성하고, 요약하고, 번역하고, 분류하는 등의 복잡한 AI 작업을 워크플로우 내에서 자동으로 처리함으로써, 상상 이상의 생산성 향상을 이끌어낼 수 있기 때문입니다.


2. ChatGPT와 Gemini

Make.com에 연동할 AI 모델을 선택하기 전에, 먼저 ChatGPT와 Gemini 각각의 특징을 간략히 이해하는 것이 중요합니다. 이 두 모델은 현재 AI 분야에서 가장 강력하고 널리 사용되는 대규모 언어 모델입니다.

항목 ChatGPT (OpenAI) Gemini (Google)
대표 모델 GPT-3.5 Turbo, GPT-4, GPT-4o, GPT-4.1/mini, o1, o3, o4 Gemini 1.0 Pro, 1.5 Pro, 1.5 Flash, 2.5 Pro, 2.5 Flash
주요 특징 창의성, 추론, 코드 생성, Function Calling, 멀티모달 (GPT-4o) 초대용량 컨텍스트, 멀티모달(텍스트/이미지/음성/영상), Google 생태계 연동
멀티모달 GPT-4o (텍스트/이미지/오디오 입력), DALL·E (이미지 생성), Whisper (음성 인식) Gemini 1.5/2.5 Pro/Flash (텍스트, 이미지, 오디오, 비디오 동시 입력/출력)
최대 컨텍스트 GPT-4o: 128K, GPT-4.1/mini: 1M Gemini 1.5 Pro/2.5 Pro: 1M, 1.5 Flash/2.5 Flash: 128K~1M
개발사 OpenAI Google DeepMind
시장성 대중적 인지도 높음, 방대한 커뮤니티 및 자료 Google 서비스와의 긴밀한 연동성, 최신 기술 도입

 

OpenAI의 ChatGPT (GPT-3.5, GPT-4, GPT-4o) 특징

  • GPT-3.5 Turbo: 빠르고 저렴하며, 간단한 텍스트 생성 및 요약에 효율적입니다. 대량의 작업을 처리할 때 주로 사용됩니다.
  • GPT-4 (및 GPT-4 Turbo): 뛰어난 추론 능력과 긴 컨텍스트 윈도우를 제공하여 복잡한 문제 해결, 코드 생성, 창의적인 글쓰기 등 고품질의 결과물이 필요할 때 활용됩니다.
  • GPT-4o (Omni): 최신 '옴니모달' 모델로, 텍스트, 오디오, 이미지 등 다양한 모달리티를 동시에 처리할 수 있는 기능을 제공합니다. GPT-4 Turbo보다 빠르고 비용 효율적이며, 인간과 유사한 상호작용이 가능합니다. DALL·E를 통한 이미지 생성과 Whisper를 통한 음성 인식 기능도 Make.com 내 OpenAI 모듈을 통해 활용할 수 있습니다.
  • 강점: 광범위한 일반 지식, 뛰어난 논리적 추론 능력 (특히 GPT-4 이상), 창의적인 글쓰기, 우수한 코딩 능력. Function Calling 기능을 통해 외부 도구 연동이 매우 강력하다는 특징이 있습니다.
  • 약점: 상대적으로 높은 비용 (고급 모델의 경우), 일부 모델의 긴 응답 시간.

Google의 Gemini (Gemini 1.0 Pro, 1.5 Pro, 1.5 Flash, 2.5 Pro, 2.5 Flash) 특징

  • Gemini 1.0 Pro: 강력한 성능과 함께 합리적인 가격으로 범용적인 사용에 적합합니다. Make.com의 Gemini 모듈에서 기본적으로 사용됩니다.
  • Gemini 1.5 Pro: 혁신적인 100만 토큰 (최대 100만) 컨텍스트 윈도우를 지원하여, 대용량의 문서, 코드베이스, 또는 영상/음성 데이터를 한 번에 처리할 수 있습니다. 멀티모달 입력(텍스트, 이미지, 오디오, 비디오)이 강력한 특징이며, 긴 문서 요약, 복잡한 데이터 분석에 최적화되어 있습니다.
  • Gemini 1.5 Flash: Gemini 1.5 Pro의 경량 버전으로, 매우 빠른 응답 속도와 뛰어난 비용 효율성을 자랑합니다. 실시간 대화나 대량의 빠른 응답이 필요한 시나리오에 적합합니다.
  • Gemini 2.5 Pro & Flash: 2025년 새로 공개된 최신 모델로, 2.5 Pro는 향상된 추론 및 코딩 능력, 새로운 Deep Think 모드를 제공합니다. 2.5 Flash는 1.5 Flash보다 더욱 효율적이고 빠르며, 20-30% 적은 토큰으로도 향상된 성능을 보여줍니다. 두 모델 모두 네이티브 오디오 출력 및 향상된 보안 기능을 지원합니다. 2.5 Pro와 Flash의 일반적인 가용성은 2025년 6월로 예정되어 있습니다.
  • 강점: 탁월한 멀티모달 능력 (이미지, 오디오, 비디오 입력 처리), 매우 긴 컨텍스트 윈도우 (1.5 Pro/2.5 Pro), 빠른 응답 속도 (1.5 Flash/2.5 Flash), Google 생태계와의 자연스러운 연동 (Google Drive, Gmail 등).
  • 약점: 비교적 새로운 모델로, 특정 전문 분야에서는 학습 데이터 부족이 느껴질 수 있음 (시간이 지나며 개선될 부분).

3. Make.com 연동 핵심 비교: ChatGPT vs Gemini 모듈

이제 Make.com에서 ChatGPT (OpenAI) 모듈과 Gemini (Google AI) 모듈을 연동할 때의 실질적인 차이점을 자세히 살펴보겠습니다.

3.1 모듈 설정 및 연동 과정의 차이점

Make.com에서 두 AI 모델을 연동하는 과정은 기본적으로 유사하지만, 세부적인 설정과 요구되는 API 키가 다릅니다.

항목 ChatGPT (OpenAI) 모듈 Gemini (Google AI) 모듈
API Key 발급 OpenAI 플랫폼 (platform.openai.com)에서 생성 Google AI Studio (ai.google.dev) 또는 Google Cloud Platform에서 생성
Make.com 연결 "OpenAI" 앱 검색 → Create a Connection → API Key 입력 "Google AI (Gemini)" 또는 "Google Vertex AI" 앱 검색 → Create a Connection →
API Key 및 필요시 Project ID 입력
주요 사용 모듈 Create a Chat Completion, DALL·E (이미지 생성), Whisper (음성 인식),
Message an Assistant, Add Files to a Vector Store 등
Generate Content with Gemini Pro/Flash, Make an API Call, Upload a File 등
모델 선택 모듈 내 "Model" 항목에서 gpt-4o, gpt-4-turbo, gpt-3.5-turbo,
o1, o3, o4 등 구체적 ID 선택
모듈 내 "Model" 항목에서 gemini-1.5-pro-latest, gemini-1.5-flash-latest,
gemini-2.5-pro-preview, gemini-2.5-flash-preview 등 선택

 

실전 팁:

  • ChatGPT: Create a Chat Completion 모듈이 현재 가장 범용적이고 강력합니다. System 역할 메시지를 통해 AI의 페르소나나 답변 방향을 미리 설정하면 일관성 있는 결과를 얻기 좋습니다. 예를 들어, "당신은 항상 친절하게 사용자에게 답변하는 전문 마케터입니다." 와 같이 말이죠. Make.com의 OpenAI 모듈은 총 22개(트리거 1, 액션 19, 검색 2)의 모듈을 제공하여 다양한 고급 기능을 활용할 수 있습니다.
  • Gemini: gemini-1.5-flash-latest 모델은 빠른 속도와 합리적인 비용으로 간단한 텍스트 생성이나 분류 작업에 매우 유용합니다. 이미지 분석이 필요하다면 멀티모달 모델을 선택해야 합니다. Make.com의 Google AI 모듈은 현재 3개(액션만 제공)로 기능 수는 제한적이지만, Make an API Call 모듈을 통해 필요한 경우 HTTP 요청으로 확장할 수 있습니다.

3.2 지원하는 모델 파라미터 및 기능

두 모듈 모두 AI 모델의 핵심 기능을 충분히 활용할 수 있도록 다양한 파라미터들을 지원합니다.

파라미터/기능 ChatGPT (OpenAI) 모듈 Gemini (Google AI) 모듈
대화 구조 Messages: system, user, assistant 역할 및 content로 구성된 대화 배열 Contents: user, model 역할 및 text/inlineData(이미지 등) 파트 기반
생성 옵션 Temperature, Max Tokens, Top P, Function Calling Generation Config (Temperature, Max Output Tokens, Top P, Top K 등)
멀티모달 입력 GPT-4o: 이미지/오디오 입력 (Messages 내 URL 또는 Base64) Gemini 1.5/2.5 Pro/Flash: 텍스트, 이미지, 오디오, 비디오 동시 입력 (Contents 내 Base64 또는 GCS URI)
Function Calling
/ Tool Usage
Function Calling 지원. JSON 스키마를 통해 외부 도구 정의 및 호출. 강력함. Tool Usage 지원. 함수 정의 방식 유사.
컨텍스트 윈도우 GPT-3.5 Turbo (16K), GPT-4 Turbo (128K), GPT-4o (128K).
GPT-4.1/mini (1M)
Gemini 1.0 Pro (32K), Gemini 1.5 Pro/2.5 Pro (1M).
Gemini 1.5 Flash/2.5 Flash (128K~1M).
스트리밍 (Streaming) 지원 (Stream results 옵션) 지원 (Stream 옵션)
안전 설정 자체 필터링 적용 Safety settings를 통해 유해 콘텐츠 수위 조절 가능

 

Parameter (파라미터) 상세 설명:

  • Messages vs Contents: OpenAI의 Messages는 (역할: 메시지 내용)의 배열 형태로, 대화의 맥락을 주고받는 데 최적화되어 있습니다. Gemini의 Contentsusermodel의 대화 파트(Part)로 구성되며, 이미지나 오디오와 같은 inlineData를 포함할 수 있어 직관적인 멀티모달 입력에 강점을 보입니다.
  • Temperature: AI 응답의 창의성(무작위성)을 조절하는 파라미터입니다. 0에 가까울수록 보수적이고 일관된 응답을, 1에 가까울수록 더 창의적이고 예측 불가능한 응답을 생성합니다.
  • Max Tokens / Max Output Tokens: AI가 생성할 수 있는 최대 토큰 수를 지정합니다. 이 값을 적절히 설정하여 불필요한 비용 소모를 막고 응답 시간을 단축할 수 있습니다.
  • Function Calling / Tool Usage: AI 모델이 외부 시스템의 함수를 호출하거나 특정 도구를 사용하도록 지시할 수 있는 강력한 기능입니다. JSON 스키마를 통해 함수의 이름과 파라미터를 정의하면, AI가 필요에 따라 해당 함수를 호출하기 위한 인자를 생성해 줍니다. 이는 Make.com에서 AI를 외부 서비스와 연동하여 자동화 워크플로우를 구축할 때 필수적인 기능입니다.

3.3 각 모델의 강점과 약점: 어떤 시나리오에 적합할까?

구분 ChatGPT (OpenAI) Gemini (Google AI)
강점 - 높은 창의성과 논리력: 시나리오 작성, 복잡한 문제 해결, 창의적인 글쓰기.
- 강력한 코딩 능력: 코드 생성, 디버깅, 최적화에 탁월.
- 뛰어난 Function Calling: 외부 서비스 연동 및 자동화 워크플로우 구축에 유리.
- 높은 사용자 인지도: 방대한 커뮤니티 및 자료.
- 압도적인 컨텍스트 윈도우: Gemini 1.5/2.5 Pro의 1M 토큰은 긴 문서 요약, 대규모 코드 분석 등에 혁신적.
- 탁월한 멀티모달리티: 이미지, 음성, 비디오 등 다양한 형태의 데이터를 동시에 이해하고 처리 (특히 1.5/2.5 Pro).
- 뛰어난 속도와 비용 효율성: Gemini 1.5/2.5 Flash는 실시간 응답이 필요한 채팅, 대량 작업 처리에 최적.
- Google 생태계 연동: Google Drive, Gmail 등 Google 서비스와 시너지 효과.
약점 - 상대적으로 높은 비용: 특히 GPT-4o 이상의 고급 모델 사용 시 비용 부담 증가.
- 최대 컨텍스트 윈도우: Gemini 1.5/2.5 Pro에 비해 긴 문서 처리 시 한계 (하지만 GPT-4o 128K도 대부분 충분).
- 비교적 새로운 모델: ChatGPT에 비해 사용자 커뮤니티나 자료가 적을 수 있음 (빠르게 증가 중).
- 정교한 프롬프트 필요: 때때로 ChatGPT만큼 즉각적으로 만족스러운 답변을 얻기 위해 더 정교한 프롬프트 필요.
적합한 시나리오 - 고품질 콘텐츠 생성: 블로그 글, 마케팅 문구, 소셜 미디어 포스팅.
- 복잡한 데이터 분석 및 요약: 보고서 초안, 복잡한 이메일 응답.
- 고급 챗봇 및 비서: 고객 상담, 내부 업무 지원.
- 코드 자동화: 개발 지원, 스크립트 작성.
- 외부 서비스 복합 연동 자동화.
- 대용량 문서/데이터 처리: 긴 회의록 요약, 법률 문서 분석, 연구 논문 요약.
- 멀티미디어 콘텐츠 분석: 이미지 설명 생성, 동영상 스크립트 기반 요약.
- 빠른 응답이 필요한 챗봇/대화 시스템: 고객 문의 실시간 응답.
- 코드베이스 분석 및 리팩토링: 대규모 프로젝트 코드 분석.
- 시각적 정보 처리 기반 자동화 (예: 영수증 분석).

4. 성능 심층 비교: 실전 워크플로우에서의 AI 모델 선택

텍스트 생성 및 요약 성능 비교: GPT-4o vs Gemini 1.5 Pro/2.5 Pro

  • 짧은 텍스트 생성 (SNS 게시물, 짧은 이메일): 두 모델 모두 매우 뛰어납니다. 차이점을 느끼기 어렵습니다. GPT-3.5 Turbo나 Gemini 1.0 Pro/1.5 Flash로도 충분히 만족스러운 결과를 얻을 수 있습니다.
  • 긴 텍스트 생성 (블로그 글, 보고서 초안):
    • GPT-4o: 여전히 탁월한 성능을 보여줍니다. 논리적 일관성과 자연스러운 문체, 그리고 창의적인 발상을 제시하는 데 강점이 있습니다. 프롬프트에 따라 주제 이탈 없이 깊이 있는 내용을 생성합니다. 비용이 조금 더 들더라도 고품질의 결과물을 원할 때 선택합니다.
    • Gemini 1.5/2.5 Pro: 긴 컨텍스트 윈도우 덕분에 엄청난 분량의 참고 자료를 제공해도 이를 잘 소화하여 요약하거나 새로운 내용을 생성합니다. 정보의 누락이 적고, 참조한 원문의 내용을 정확하게 반영하는 데 강점이 있습니다. 여러 문서를 동시에 참조하여 보고서를 작성하는 작업에 매우 유용했습니다. 제가 100페이지 이상 되는 PDF 문서를 모두 붙여 넣고 요약 및 키워드 추출을 시도했을 때, Gemini 1.5 Pro는 이를 무리 없이 소화해냈지만, GPT-4o는 컨텍스트 한계를 넘기거나 비용 부담이 훨씬 커지는 경험을 했습니다.
  • 요약 성능:
    • GPT-4o: 핵심을 잘 파악하고 요약합니다. 비즈니스 보고서 등 필요한 핵심 정보를 뽑아내는 데 좋습니다.
    • Gemini 1.5/2.5 Pro: 광범위한 원문을 처리하는 요약에서는 압도적입니다. 영상 스크립트, 대규모 회의록 등 긴 분량의 내용을 간결하고 정확하게 요약하는 데 있어 Gemini Pro 모델은 현존하는 최고의 선택 중 하나입니다.

복잡한 추론 및 코드 생성 능력

  • 복잡한 추론 (문제 해결, 의사 결정 지원):
    • GPT-4o: 복잡한 논리적 문제 해결에서 뛰어난 성능을 보입니다. 다양한 시나리오에 대한 조건부 추론이나, 데이터 분석을 통한 인사이트 도출에 강합니다. 제가 실제 비즈니스 로직 설계에 GPT-4o를 활용했을 때, 마치 전문가와 토의하는 느낌을 받았습니다.
    • Gemini 1.5/2.5 Pro: 긴 컨텍스트를 활용하여 코드베이스, 복잡한 시스템 문서 등을 기반으로 한 추론에 매우 강력합니다. 특정 도메인 지식과 관련된 복잡한 질문에 방대한 자료를 학습하여 답변하는 데 유리합니다.
  • 코드 생성 및 디버깅:
    • GPT-4o: 다양한 프로그래밍 언어와 프레임워크에 대한 깊은 이해를 바탕으로 깔끔하고 효율적인 코드를 생성합니다. 에러 메시지를 주면 원인을 정확히 파악하고 해결책을 제시하는 능력도 탁월합니다.
    • Gemini 1.5/2.5 Pro: 역시 뛰어난 코드 생성 능력을 가지고 있습니다. 특히 대규모 레거시 코드나 특정 라이브러리의 문서와 함께 프롬프트에 제공했을 때, 그 코드에 대한 이해도가 매우 높았습니다. Google Developers Blog에 따르면 Gemini 2.5 Pro는 코딩 능력과 추론 능력이 더욱 향상된 버전입니다.

멀티모달리티 (Multi-modality) 활용 차이
이 부분은 두 모델의 가장 큰 차이점 중 하나입니다.

  • ChatGPT (GPT-4o): 이미지, 오디오 데이터를 입력으로 받아 처리하는 능력이 뛰어납니다. 예를 들어, Make.com을 통해 이미지를 GPT-4o에 전송하고 이미지 속 내용을 설명하거나, 영수증 이미지를 분석하여 데이터로 추출하는 시나리오를 만들 수 있습니다. 오디오 입력 또한 매우 자연스럽게 처리합니다.
  • Gemini (특히 1.5/2.5 Pro): GPT-4o에 비해 멀티모달 구현의 폭이 더 넓고 강력합니다. 텍스트, 이미지, 오디오, 심지어 비디오 (프레임 기반)까지 단일 입력으로 받아 처리할 수 있습니다. 이는 Make.com을 통해 비디오 파일의 특정 구간을 분석하여 스크립트와 함께 요약하거나, 영상의 분위기를 분석하는 등 복잡한 멀티미디어 분석 자동화가 가능하게 합니다. 예를 들어, 유튜브 영상 링크를 제공하고 해당 영상의 특정 내용에 대한 질문을 하는 워크플로우를 구성할 때 Gemini Pro는 매우 효과적입니다. 최신 Gemini 2.5 Flash 모델도 오디오 입력 지원 및 향상된 멀티모달 능력을 자랑합니다.

실제 사용 경험을 토대로 한 인사이트

  • 대부분의 일반적인 텍스트 작업: GPT-3.5 Turbo 또는 Gemini 1.0 Pro/1.5 Flash/2.5 Flash로 충분합니다. 이들은 빠르고 가성비가 좋습니다.
  • 고품질, 복잡한 추론, 창의성 요구: GPT-4o가 여전히 매력적인 선택지입니다. 특히 외부 도구와 연동하여 복잡한 API 호출 시나리오를 만들 때 강력한 Function Calling 기능은 빛을 발합니다.
  • 긴 컨텍스트, 멀티모달 데이터 처리: Gemini 1.5/2.5 Pro는 대체 불가능한 존재입니다. 대용량 문서 요약, 비디오 분석, 복잡한 데이터가 혼합된 콘텐츠 이해와 같은 작업에서는 Gemini를 선택하는 것이 압도적으로 유리합니다.
  • 속도와 비용이 최우선: Gemini 1.5 Flash/2.5 Flash는 실시간 대화나 대량의 빠른 답변이 필요한 챗봇 시나리오에 매우 적합합니다.

결론적으로, 이상적인 선택은 '혼합 사용'입니다. 워크플로우의 목적과 처리해야 할 데이터의 종류에 따라 최적의 AI 모델을 유연하게 선택하고, 필요에 따라서는 하나의 시나리오 안에서 두 모델을 번갈아 사용하는 것도 좋은 전략입니다. 예를 들어, 긴 문서를 Gemini 1.5 Pro로 요약한 후, 그 요약본을 GPT-4o에게 넘겨 마케팅 문구로 고도화하는 워크플로우 등을 생각해볼 수 있습니다.


5. 가장 중요한 질문: 가격 및 비용 효율성 분석

AI 모델을 Make.com 워크플로우에 통합할 때, 성능만큼이나 중요한 것이 바로 비용입니다. AI 모델의 비용은 주로 '토큰(Token)' 단위로 측정되며, 입력 토큰과 출력 토큰에 따라 가격이 달라집니다. 가격은 수시로 변동될 수 있으므로, 항상 공식 API 문서를 확인하는 것이 중요합니다. (최신 정보 확인일: 2025년 5월 기준)

 

OpenAI API (ChatGPT) 가격 구조
OpenAI의 가격 정책은 지속적으로 업데이트되고 있으며, 2025년에도 새로운 모델과 함께 가격이 변동되었습니다.

모델 입력 (1M 토큰) 출력 (1M 토큰) 특징
GPT-3.5 Turbo $0.50 $1.50 가장 저렴하고 빠름. 간단한 작업에 최적화. (2025년 기준 $0.0010 / 1K 입력, $0.0020 / 1K 출력)
GPT-4o $5.00 $15.00 뛰어난 기능에 비해 효율적인 가격. (2025년 기준 $3.75 / 1M 입력, $15.00 / 1M 출력)
GPT-4 Turbo (128K) $10.00 $30.00 여전히 안정적인 성능. (2025년 기준 $0.01 / 1K 입력, $0.03 / 1K 출력)
o1-preview $15.00 $60.00 2025년 신규 모델.
o3 $10.00 $40.00 2025년 신규 모델, STEM 분야 및 코드 생성에 강점.

 

Google Gemini API 가격 구조
Google Gemini의 가격은 일반적으로 OpenAI 모델보다 저렴하며, 특히 대용량 컨텍스트 처리에서 큰 강점을 보입니다.

모델 입력 (1M 토큰) 출력 (1M 토큰) 멀티모달 (이미지 등) 특징
Gemini 1.5 Flash $0.35 $1.05 이미지 $0.00125/장. 초저가, 실시간, 대량처리 최적.  
Gemini 1.5 Pro $3.50 $10.50 이미지 $0.0025/장. 대용량 컨텍스트 (1M) 강력, 멀티모달, 고품질.  
Gemini 2.5 Flash/Pro (공식가 미정)
(Beta 가격 정책 따름)
(공식가 미정)
(Beta 가격 정책 따름)
(공식가 미정)
(Beta 가격 정책 따름)
2025년 최신 모델, 향상된 성능과 효율. 2.5 Flash는 초고속. 2.5 Pro는 고급 추론.

 

Make.com 작업 비용에 미치는 영향
AI 모델의 토큰 비용은 별개로 지불해야 하는 API 비용이며, Make.com은 이와 별개로 '작업 (Operations)' 단위로 요금을 청구합니다.

  • Make.com 작업: AI 모듈 하나를 호출할 때마다 1회 작업으로 카운트됩니다.
  • 과금 방식: Make.com 요금제에 따라 한 달에 사용할 수 있는 작업 수가 정해져 있습니다.
  • 비용 관리 팁: AI 모델의 API 호출이 많아질수록 Make.com 작업 소모도 증가하므로, 불필요한 호출을 줄이고 효율적인 프롬프트 디자인으로 한 번의 호출로 원하는 결과를 얻는 것이 중요합니다. Make.com의 무료 플랜(Core)에서도 AI 모듈을 사용 가능하지만, 월 1,000 Ops로 제한됩니다.

비용 효율적인 모델 선택 가이드

  • 가장 저렴한 옵션부터 시작: 특별한 요구사항이 없다면, Gemini 1.5 Flash/2.5 Flash 또는 GPT-3.5 Turbo부터 시작하여 충분한지 확인합니다.
  • 컨텍스트 길이와 복잡성 고려:
    • 긴 컨텍스트, 멀티모달: Gemini 1.5/2.5 Pro가 압도적으로 비용 효율적입니다.
    • 복잡한 추론, 정교한 결과물: GPT-4o가 비용과 성능의 균형이 좋습니다.
  • 사용량 예측: 월별 예상 토큰 사용량을 계산하여 각 모델의 비용을 미리 예측해보는 것이 좋습니다. 각 API 제공사의 온라인 계산기 또는 Gemini pricing page를 활용하세요. 2025년 OpenAI의 o3 모델의 경우, 월 20,000건의 요청만으로도 5만 달러가 넘는 비용이 발생할 수 있습니다.

6. Make.com 연동 시 유의사항 및 트러블 슈팅

Rate Limit (요청 제한) 관리
문제: 대부분의 AI API는 일정 시간 동안 보낼 수 있는 요청 수 또는 토큰 양에 제한(Rate Limit)을 둡니다. 이를 초과하면 429 Too Many Requests 에러(OpenAI) 또는 429/409(할당량 초과) 에러(Google)가 발생하여 워크플로우가 중단될 수 있습니다.
해결책:

  • Make.com의 Retry 기능 활용: 에러 발생 시 지정된 시간(예: 5초 후) 이후 재시도하도록 설정합니다.
  • Delay 모듈 활용: 대량의 데이터를 처리할 때 각 AI 호출 사이에 짧은 지연 시간을 두어 Rate Limit에 걸리지 않도록 합니다. 초당 요청 수가 너무 많을 경우 Make.com의 Delay 모듈을 사용하여 요청 사이에 의도적인 지연을 추가하는 것이 필수입니다.
  • Make.com의 Error Handling (에러 핸들링) 경로: 에러가 발생하면 대체 경로로 처리하거나 알림을 받도록 설정하여 시나리오가 비정상적으로 종료되는 것을 방지합니다.
  • API 계정 업그레이드: 더 높은 Rate Limit이 필요한 경우, API 제공사의 유료 플랜으로 업그레이드하거나 할당량 증설을 신청하는 것을 고려합니다.
  • API Key 여러 개 분산: 대량의 작업을 처리해야 할 경우, 여러 개의 API Key를 발급받아 병렬적으로 요청을 분산 처리하는 방법도 있습니다.

API 키 보안 및 관리
문제: API 키는 계정의 권한을 가지므로 유출될 경우 심각한 보안 위협이 될 수 있습니다.
해결책:

  • Make.com Connection을 통한 관리: Make.com에서 API 키를 직접 노출하지 않고 Connection 기능을 활용하여 안전하게 저장합니다.
  • 환경 변수 활용 (권장): 복잡한 시나리오나 민감한 정보는 Make.com의 데이터베이스나 데이터 스토어(Data Store)를 활용하여 암호화된 형태로 저장하거나, AWS Secrets Manager 등 외부 보안 시스템을 연동합니다.
  • 읽기 전용 키 사용 (가능 시): 특정 API는 읽기 전용 키를 제공하기도 하므로, 필요한 최소한의 권한을 가진 키를 사용합니다.
  • 키 주기적 교체: 보안 강화 차원에서 주기적으로 API 키를 변경하는 습관을 들이세요.

에러 처리 및 로그 분석 팁
AI 모델과의 연동은 예상치 못한 에러가 발생할 수 있습니다.

  • 응답 파싱 에러: AI가 생성한 JSON 형식이 올바르지 않거나, Make.com에서 예상하는 데이터 구조와 다를 때 발생합니다. Make.com의 Parse JSON 모듈 전에 Text parser를 이용해 불필요한 공백이나 문자를 제거하는 전처리 과정을 넣는 것이 좋습니다.
  • 토큰 부족 에러: Max tokens 제한을 넘어서는 응답을 생성하려 할 때 발생합니다. Max tokens 값을 충분히 설정하거나, 프롬프트의 길이를 줄여야 합니다.
  • 네트워크 문제: 일시적인 네트워크 불안정으로 인해 발생할 수 있습니다. Make.com의 Retry 설정을 활용하면 재시도를 통해 해결될 수 있습니다.
  • 로그 분석: Make.com 시나리오 실행 이력에서 각 모듈의 입력/출력 값을 꼼꼼히 확인하고, AI 모델 API의 공식 문서를 참조하여 에러 코드를 분석합니다. 문제가 발생하면 Make.com 시나리오를 일시 중지한 후 수정하고 재실행하는 패턴이 효과적입니다.

프롬프트 엔지니어링의 중요성
AI 모델의 성능은 프롬프트(Prompt)의 질에 따라 천차만별로 달라집니다.

  • 명확하고 구체적인 지시: "명확하고 간결하게 500자 이내로 요약해줘"와 같이 구체적인 지시를 내려야 합니다.
  • 역할 부여: "너는 전문 마케터야. 고객의 관심을 끌 만한 문구를 작성해줘."와 같이 AI에게 역할을 부여하면 더 적절한 응답을 유도할 수 있습니다.
  • 예시 (Few-shot learning): 원하는 답변의 형태나 내용을 예시로 제공하면 AI가 더 정확하게 학습하고 따라 할 수 있습니다.
  • 제약 조건 명시: "절대 비속어는 사용하지 마", "항상 JSON 형식으로 응답해줘"와 같이 제약 조건을 명시합니다.
  • 프롬프트 최적화: 동일한 목표에 대해 다양한 프롬프트를 테스트하고, 가장 효과적인 프롬프트를 찾아 저장해두는 것이 좋습니다. 이 과정은 지속적인 개선이 필요하며, 불필요한 토큰 소모를 줄이는 데도 기여합니다.

7. 개인적인 시각

Make.com, ChatGPT, Gemini를 활용한 AI 자동화는 단순한 효율성 증대를 넘어, 비즈니스와 개인의 삶을 혁신하는 강력한 도구입니다. 제가 직접 경험하며 느낀 가장 큰 변화는 "생각하는 시간의 확보"였습니다. 반복적이고 단순한 업무를 AI가 처리해 줌으로써, 사람은 더 가치 있는 일에 집중할 수 있게 됩니다.

 

어떤 상황에서 어떤 모델을 선택해야 하는가?

업무 유형 추천 모델 이유
긴 문서/대용량 데이터 처리 Gemini 1.5/2.5 Pro 1M 토큰의 압도적인 컨텍스트 윈도우. 수백 페이지 분량의 PDF 문서도 한 번에 분석 가능. 멀티모달 입력(비디오 포함)으로 다양한 데이터 소화 유리.
실시간 대량 분류/채팅 Gemini 1.5/2.5 Flash 초저가 정책과 압도적인 속도. 대량의 짧은 질문/응답에 최적화. 비용 효율성 극대화.
창의적 콘텐츠/코딩 ChatGPT (GPT-4o/4.1) 뛰어난 추론 능력, 높은 창의적 글쓰기 품질, 복잡한 코드 생성 및 디버깅에 특화. Function Calling을 통한 외부 서비스 연동이 강력.
이미지+텍스트 동시 분석 Gemini Pro/Flash 설계 단계부터 멀티모달리티를 강력하게 지원. 이미지와 텍스트를 함께 이해하고 처리하는 데 자연스러움. Google 생태계 서비스와의 시너지 효과.
예산 최우선 Gemini 1.5 Flash/2.5 Flash, GPT-3.5 Turbo 저렴한 비용으로 충분한 성능 제공. 빠른 응답이 필요한 간단한 작업이나 대량의 저비용 텍스트 처리에 적합.

 

결론적으로, '하나의 정답'은 없습니다. 워크플로우의 구체적인 목표, 처리해야 할 데이터의 종류, 요구되는 응답의 품질, 그리고 예산을 종합적으로 고려하여 최적의 모델을 선택해야 합니다. 가장 좋은 방법은 소량의 데이터를 가지고 두 모델을 모두 테스트해보는 것입니다.

 

AI 자동화로 인한 수익화 및 비즈니스 기회

  • 개인:
    • 콘텐츠 자동 생산: 블로그, 유튜브 스크립트, 소셜 미디어 게시물 등을 자동으로 생성하여 부업이나 개인 브랜드 강화를 위한 시간을 확보할 수 있습니다.
    • 개인 비서 및 생산성 향상: 이메일 자동 분류, 보고서 초안 작성, 챗봇 기반 일정 관리 등 개인의 생산성을 극대화하여 더 많은 일을 처리하고, 궁극적으로 더 많은 수익을 창출할 수 있습니다.
    • 자동화 프리랜서/컨설턴트: Make.com과 AI 연동 전문가로서 다른 개인이나 소규모 기업의 자동화 솔루션 구축을 돕고 수익을 얻을 수 있습니다.
  • 기업:
    • 고객 서비스 자동화: AI 챗봇을 통한 24시간 고객 응대, FAQ 자동 답변, 고객 문의 분류 및 라우팅으로 인건비 절감 및 고객 만족도 향상.
    • 마케팅 자동화: 개인화된 이메일 마케팅, 소셜 미디어 콘텐츠 자동 발행, 광고 문구 최적화 등으로 마케팅 효율 증대.
    • 내부 업무 자동화: 보고서 자동 생성, 데이터 요약, 내부 문서 검색, 직원 온보딩 프로세스 자동화 등으로 업무 효율성을 극대화하고, 임직원들이 핵심 업무에 집중하도록 지원.
    • 데이터 기반 의사결정 강화: 대규모 데이터를 AI로 분석하여 인사이트를 도출하고, 이를 바탕으로 더 나은 비즈니스 의사결정을 내릴 수 있습니다.

8. 자주 묻는 질문 (FAQ)

Q1: Make.com에서 ChatGPT (OpenAI)와 Gemini (Google AI) 모듈을 동시에 사용할 수 있나요?
A1: 네, 물론입니다. 하나의 Make.com 시나리오 내에서 필요에 따라 OpenAI 모듈과 Google AI 모듈을 조합하여 사용할 수 있습니다. 예를 들어, 긴 문서 요약은 Gemini 1.5 Pro로 처리하고, 그 요약본을 바탕으로 마케팅 문구는 GPT-4o로 생성하는 등 각 모델의 강점을 활용할 수 있습니다.

Q2: AI 모델 API 사용 요금은 Make.com 요금에 포함되나요?
A2: 아니요, AI 모델 API 사용 요금은 Make.com 요금과는 별개로 해당 API 제공사 (OpenAI, Google)에 직접 지불해야 합니다. Make.com은 시나리오 실행 시 발생하는 '작업(Operation)' 비용을 청구합니다. [8장 Q1. 참조]

Q3: 어떤 AI 모델이 한국어 처리 성능이 더 좋은가요?
A3: 두 모델 모두 한국어 처리 성능이 크게 향상되었고 우수합니다. 일반적인 텍스트 생성이나 요약에서는 큰 차이를 느끼기 어렵습니다. 다만, 특정 한국어 관용구나 미묘한 뉘앙스를 필요로 하는 매우 고도화된 작업에서는 직접 테스트하여 최적의 모델을 찾는 것이 좋습니다. 대체로 GPT-4o와 Gemini 1.5/2.5 Pro는 모두 매우 좋은 한국어 성능을 보여줍니다.

Q4: Make.com에서 AI 모델에 이미지를 입력하는 방법은 무엇인가요?
A4: Make.com에서 파일 데이터를 AI 모듈에 전송할 때는 일반적으로 파일 URL, 또는 Base64 인코딩된 문자열 형태로 데이터를 전달합니다. Download a file 모듈 등으로 이미지를 가져온 후, 이를 Base64 인코딩하여 AI 모델의 이미지 입력 필드에 연결하면 됩니다. GPT-4o와 Gemini 1.5/2.5 Pro/Flash 모두 이 기능을 지원합니다.

Q5: Make.com 시나리오가 너무 느리거나 에러가 많아요. 어떻게 개선할 수 있을까요?
A5: 먼저 AI 모델의 Rate Limit (요청 제한)을 확인하고, Make.com의 Delay 모듈을 사용하여 요청 간에 지연 시간을 두어보세요. 또한, 프롬프트를 최적화하여 한 번의 AI 호출로 더 많은 정보를 얻고, 불필요한 AI 호출을 줄이는 것도 중요합니다. Make.com 시나리오의 Error Handling 기능을 설정하여 에러 발생 시 알림을 받거나 재시도하도록 설정하는 것도 권장합니다.

Q6: Gemini 1.5/2.5 Pro의 100만 토큰 컨텍스트는 정말 유용한가요?
A6: 네, 매우 유용합니다. 제가 직접 수백 페이지 분량의 PDF 문서를 통째로 입력하여 핵심 요약, 특정 정보 추출, 질문 답변 등을 시도했을 때, Gemini Pro는 이 거대한 컨텍스트를 놀랍도록 잘 이해하고 활용했습니다. 특히 장문의 문서를 다루는 변호사, 연구원, 작가, 개발자 등에게 혁신적인 기능이 될 것입니다.

Q7: AI 모델의 응답이 기대와 다를 때 어떻게 해야 하나요?
A7: 이것은 프롬프트 엔지니어링의 문제입니다. AI 모델에게 더욱 명확하고 구체적인 지시를 내려야 합니다.

  • "너는 [역할] 이야." 와 같이 AI의 역할을 정의합니다.
  • "나는 [목표]를 원해." 와 같이 원하는 최종 결과물을 명확히 합니다.
  • "다음 규칙을 따라줘: [규칙 목록]" 과 같이 제약 조건을 제시합니다.
  • "예시: [입력] -> [출력]" 과 같이 예시를 제공하여 AI의 학습을 돕습니다.
    프롬프트를 다각도로 수정하고 테스트하는 노력이 필요합니다.

106 메이크닷컴 시나리오 100% 공개 - 직장인 필수🔥 기사만 휴대폰으로 넣으면! 쇼츠 자동 제작!