[카테고리:] AI 트렌드

  • 수많은 수강생들에게 선택받은 업무 자동화 AI Make, 어디까지 가능할까? (ft.2024 패캠 어워즈 베스트강의)

    수많은 수강생들에게 선택받은 업무 자동화 AI Make, 어디까지 가능할까? (ft.2024 패캠 어워즈 베스트강의)

    수많은 수강생들에게
압도적으로 선택받은

    AI 업무 자동화 강의? 얼마나 대단하길래.. 

    (ft. 2024 패스트캠퍼스 어워즈 베스트강의 선정)

    단순 RPA 수준에 머물렀던 AI 자동화 No-Code 툴이 생성형 AI가 발전함에 따라 구현해볼 수 있는 자동화 시나리오 자유도가 많이 높아졌습니다. 다른 AI툴처럼 수십가지 툴 연동하거나 코딩이 쓰이지 않고도, 단 하나의 툴 클릭으로만 해결이 가능하거든요. 그래서 오늘은 바로 그 주인공 업무 자동화 make으로 어디까지 가능한지 무한 확장되는 Make 사용법에 대해 맛보기로 간단하게 소개해 드리고자 합니다.

     

     

    이 AI 자동화 make을 가장 활용도 있게, 자유도 높은 시나리오 구현으로 Make 사용법을 가장 쉽게 설명 해주시는 정호영 강사님입니다.

    2024 패스트캠퍼스 어워즈 월간 베스트강의 TOP에 선정될 정도로 수많은 수강생들에게 압도적으로 선택을 받았었는데요. 강사님께서 RAG 1타 끝판왕 테디노트님 유튜브 채널에 나와 다양한 사례를 보여주셨는데, AI 자동화 Make으로 어디까지 가능한지 한번 살펴보겠습니다.

    AI 업무 자동화 노코드 Tool: Make로 어디까지 가능할까?

    먼저, AI 자동화 make에 대해 생소하신 분들이 많을 것 같아 개념부터 짚고 넘어가겠습니다. 단순 반복 작업을 처리해 주는 rpa 툴이 아닌 상세 컨텍스트를 통한 개인화까지 가능한 업무 자동화 플랫폼입니다. 텍스트 인풋 뿐 아니라 영상, 오디오까지 가능한 멀티 모델이죠. 콘텐츠로는 아래와 같은 모든 것을 할 수 있죠

     

    ✅make 사례

    –  인풋 이미지를 학습한 이미지 모델 (Flux-Dev) 를 바탕으로 유튜브 제목, 썸네일 생성

    –  컨텍스트 > 이미지 프롬프트 생성 > 파인튜닝 이미지 모델 > 이미지 생성

    –  이미지 생성 후 Image2Video Replicate > Runaway API 활용 > 영상 생성

    –  다만 아직까지 영상 생성 Runaway API는 이용 비용이 높은 편

    –  비디오 프롬프트에 따라 영상 품질이 달라짐

     


    ✅업무 자동화 Automation Tool 비교

    최근 업무 자동화 Automation Tool 언급이 가장 많이 되는 애들은 Zapier, n8m, make입니다. Zapier에 비해 make은 1,500개 이상의 다양한 커스텀 모듈을 지원해 주죠. 무료로 활용하기 충분한 구성이고, 선형 시나리오의 경우 복잡하게 문제 정의도 걸 수도 있습니다. n8n의 경우 사용 난이도가 높은 편이지만 무료로 이용 가능하다는 장점을 가지고 있습니다.

    더군다나 AI 자동화 make은, 서버 네트워크 코딩 지식이 없어도 혼자 나름 간단한 개발을 할 수 있다는 점입니다. 예를 들어, 이메일을 받으면 아래 이미지의 동그라미 두 개가 알아서 연결돼서 바로 메일 자동화로 쏴주는 개념입니다. 슬랙에 댓글을 달면 이메일로 답글로 가는 것도 가능하죠.

    그럼 여기서 궁금한 점이 들 수 있습니다. 한 번 반응을 할 때마다 과금이 되는 방식이 아닌지? 할 수 있지만 과금은 거의 안된다고 보시면 될 것 같습니다. 기능들도 조합해서 쓸 수 있는 것뿐만 아니라 기능을 추가해서 쓰는 것도 가능한 게 make이거든요. 결국엔, make은발 비용이 적게 들고 빠르게 반업무 자동화를 구현하여 결과를 볼 수 있다는 것이 장점입니다.

     

     

    업무 자동화 Make의 장점

    1. 프런트와 같은 지식이 필요한 부분을 make 로 대체 후 핵심 코드만 주피터 노트북을 활용 가능

    2. 챗GPT 연동 가능

    3. 프롬프트 입력 및 맥스 토큰 지정 가능

    4. 오픈 AI add 버튼을 통해 pdf 등의 파일 업로드 가능

    5. 만든 파이프라인 공유 또한 가능, 엑셀 문법과 비슷함 (함수, 서메이션 등)

    6. installed apps 들어가면 메이크에서 지원하지 않는 것을 따로 만들 수 있음

    하지만 Make 사용법에 관한 단점도 존재합니다. 대량의 데이터 핸들링에 적절하지 않고, mvp 수준의 개발까지만 가능하여 개인과 같은 소수 사용에는 너무 유리한 점이 있죠. 물론 자동화 시나리오에 모듈이 매우 많다면 유지 보수에 어려움이 있을 수 있습니다. 또한 시나리오 최대 운용 시간은 40분까지이죠.

     

     

    make의 과금 체계 중 오퍼레이션이라는 게 있습니다.

    위 이미지에 있는 동그라미 하나가 실행이 되면 1이 뜨게 됩니다.

    이 1이 오퍼레이션 소요가 하나씩 드는 것을 뜻하는데

    무료로는 천 개의 오퍼레이션 사용이 가능한 것이지요.

    ✅슬랙봇 이용 가능 (슬랙 채널 > 메시지 전송 > 쿼리 메시지 저장 > 웨이트메시지 > 로딩메시지)

    우리가 회사에서 늘 빠질 수 없는 기본 메신저, 슬랙 채널 연동도 가능합니다.

    슬랙 메시지를 전송하면 오픈 AI 어시스턴트 API를 사용하여 벡터 DB 조회를 통해 답변을 주는 업무 자동화 방식으로, 슬랙 채널에 메세지 전송 시 트리거 형태로 받아들여 쿼리 메시지에 저장되는 형태이죠. 그뿐만 아니라, sns콘텐츠(Instagram, Facebook, LinkedIn, 인스타 등), 보고서 등 내가 필요한 콘텐츠에도 자동화 업로드가 가능합니다. 무려 1,600여개가 넘는 서비스와 연동되는 업무 자동화 툴이니까요.

    이를 통해 단순히 효율성을 높이는 것을 넘어, 검색 이상으로 더 많은 업무를 맡기고 내 ‘진짜 업무’에만 집중할 수 있습니다. 이 강의에서는 직장인이라면 누구나 자주 사용하는 툴로 당장 업무에 적용할 수 있는 실전 AI 자동화 Make 사용법을 체계적으로 알려드립니다.

    앞으로도 계속 반복할 업무들, Make 하나만 배우고 평생 클릭 한 번으로 업무 자동화 끝내고 싶다면?

     

     

     

    <AI Make 하나로 끝내는 업무&비즈니스 자동화>

    ▶▶▶https://bit.ly/49dSlqb◀◀◀

  • 옵시디언 300% 사용법: 구요한 교수 추천 Best 5 플러그인, Cursor AI 연동하기

    옵시디언 300% 사용법: 구요한 교수 추천 Best 5 플러그인, Cursor AI 연동하기

    옵시디언, 왜 뜨고 있을까?

    혹시.. 수많은 메모와 자료들 모아놓고 제대로 활용 못하시지 않았나요?
    여기, 최근들어 연구자나 개발자 등 방대한 지식 관리가 필요한 사람들을 대상으로 알음알음 퍼져나가고 있는 노트앱이 있습니다. 바로 인간의 사고 과정을 디지털 환경에 적용해 만들었다는 옵시디언(Obsidian)인데요.

     옵시디언은 ‘네트워크 기반 노트 테이킹 앱’의 한 부류로, 작성자가 작성한 노트들 사이의 관계를 마치 마인드맵처럼 연결하고, 나아가 이를 시각화하여 보여주는 노트앱입니다. 

     

    인간의 사고는 위 GIF처럼 하나의 생각에서 다갈래로 뻗어나가며 연상 결합적 사고를 하는데요. 이를 노트 작성 방식으로 그대로 옮겨와 하나의 노트가 다른 노트들과 연결-연결 되도록 만든 노트앱이 바로 옵시디언입니다. 

    이러한 방식은 내 생각을 시각적으로 보여주며, 지식을 정리하는데 탁월한 방식인데요. 이런 방식은 더 나아가 생각지도 못했던 아이디어 간의 연결을 발견할 수 있기에 지식을 연결하고 확장, 그리고 새로운 결과물을 생성해 내는데 효과적입니다.

    더불어 옵시디언은 마크다운(.md) 형식으로 작성되기에 내 노트를 챗GPT같은 AI가 쉽게 이해할 수 있어 유연한 AI 활용이 가능합니다. 때문에 최근 연구자, 창작자, 개발자 등 방대한 정보를 접하며 이를 체계적으로 연결해야 하는 사람들, 나만의 세컨드 브레인을 만들고 싶은 사람들, AI와의 협업이 필요한 사람들로부터 열렬한 지지를 받고 있습니다.

     

    타칭 ‘옵시디언 엠버서더’ 구요한 교수 추천 Best 5 플러그인

    바로 본론으로 들어가 오늘은 옵시디언을 더욱 다양하게 활용할 수 있는 플러그인을 소개해드리고자 합니다. 옵시디언은 무려 2000여개의 플러그인이 존재하는 만큼 그 활용이 정말 무궁무진한데요.

    이 중, 옵시디언 엠버서더라 칭할 수 있는 구요한 교수님이 추천한 필수 플러그인을 알아보고자 합니다. 옵시디언을 조금이라도 접해본 사람이라면 구요한 교수님의 영상이나 글을 한 번쯤 봤을 텐데요. 옵시디언에 Cursor AI를 처음으로 접목한 분이시기도 하고 옵시디언 관련 커뮤니티, 유튜브 등을 운영하면서 다양한 지식 관리 방법을 공유해주시는 분입니다. 그럼, 구요한 교수님이 추천한 옵시디언 필수 플러그인을 알아볼까요?

     

    1) 데이터뷰(DataView)

    옵시디언의 메타 데이터(작성 일자, 태그 등)를 표, 리스트, 캘린더 등의 형태로 시각화하는 플러그인입니다. 이를 통해 사용자는 노트 내의 특정 정보를 효율적으로 조회하고 정리할 수 있습니다. 예를 들어, 특정 태그가 붙은 노트나 특정 기간 동안 작성된 노트를 쉽게 찾아낼 수 있습니다. 또한 프로젝트 일정, 목표 관리 등 다양한 정보의 체계적인 관리가 가능합니다.

     

    2) 옴니서치(Omnisearch)

    옵시디언의 기본 검색 기능을 뛰어넘는 플러그인으로, 메모, 키워드, 태그, 링크된 파일 등을 빠르게 검색할 수 있습니다. 타 노트앱과 비교하여 월등한 검색 능력을 보여주기에 특히 방대한 데이터베이스에서 원하는 정보를 즉시 찾아야 하는 사용자들에게 필수적입니다.

    주요 기능으로는

    빠른 파일 검색: 노트, 오피스 문서, PDF, 이미지 등 다양한 파일 형식을 즉시 검색 가능합니다.

    오타 저항성: 검색어에 오타가 있더라도 관련 결과를 찾아주는 기능을 제공하여, 정확한 검색어를 입력하지 않아도 원하는 정보를 획득 가능합니다.

    필터링 기능: 파일 경로, 확장자, 특정 단어 포함 여부 등을 기준으로 검색 결과를 필터링할 수 있어, 더욱 정교한 검색이 가능합니다.

    검색 엔진 통합: 옴니서치의 HTTP 서버 기능을 활성화하고, 브라우저에 사용자 스크립트를 설치하면, 구글, DuckDuckGo 등 검색 엔진에서 옵시디언 노트의 검색 결과를 함께 확인 가능합니다.

     

    3) 엑스칼리드로우(Excalidraw)

    옵시디언 내에서 손쉽게 스케치나 다이어그램을 그릴 수 있게 해주는 플러그인입니다. 이를 통해 복잡한 아이디어를 그래픽으로 표현하거나 드로잉, 손글씨 등 쉽게 작성할 수 있습니다. 창의적인 작업과 정보 시각화에 유용합니다.

    이미지출처: 엑스칼리드로우 홈페이지

     

    4) 템플레이터(Templater)

    옵시디언의 템플릿 기능을 확장하여 반복적인 노트 작성 작업을 자동화하고 효율성을 높여주는 플러그인입니다. 개인 일기, 회의록, 연구 노트 등 다양한 포맷을 자동화할 수 있어 워크플로우를 크게 간소화합니다.

     

    5) 스마트 컴포저(Smart Composer)

    AI 기반 자동 완성 플러그인으로, 사용자의 입력을 분석해 자연스럽고 관련성 높은 문장을 추천합니다. 작업 속도를 높이고 초안 작성 시간을 단축하는 데 탁월한 도구입니다.

    몇가지 기능을 살펴보자면,


    ▶AI 편집 기능: 노트 내용을 자동으로 개선하거나 구조를 재조정, 복잡한 아이디어를 다듬어 줍니다.

    아이디어 확장: 노트 간의 연결을 파악하고, 사용자가 놓칠 수 있는 패턴이나 관계를 제안합니다.

     

    이렇게 옵시디언을 사용한다면 꼭! 활용해야 할 Best 플러그인 5개를 뽑아보았는데요. 이 외에도 Perplecity, Genspark 등으로 인터넷에서 수집한 정보를 ‘나만의 포맷에 맞게’ 즉시 정리하는 방식 등, 옵시디언을 제대로 활용하면 기록의 가치를 300%이상 끌어올릴 수 있습니다.

     

    +) AI가 나와 똑 닮은 글을 써 준다고?
    생산성을 극대화할 수 있는 ‘옵시디언 X Cursor AI’ 활용법

    추가로 꼭 알려드리고 싶은 내용이 있어요. 최근 옵시디언 사용자들 사이에서 유행처럼 번지고 있는 생산성 극대화 방식인데요. Cursor AI를 활용하여 옵시디언에 생성형 AI를 연결하는 방식입니다. 

    Cursor AI는 사용자의 메모와 지식을 바탕으로 문서 작성, 자동화, 코딩 보조 등을 수행하는데요. 이를 이용하면 나의 노트 기록과 외부 자료를 기반으로 블로그 글/ 마케팅 글/ 보고서 작성 등등 옵시디언을 마치 자비스처럼 사용 가능합니다.

     

    주요 기능으로는

    ▶사용자 맞춤형 글쓰기 지원: Cursor AI는 사용자의 노트를 분석해 개인적인 어조와 스타일을 반영한 글을 자동으로 작성합니다. 이를 통해 초안 작성이 빨라지고, 보다 자연스러운 결과물을 얻을 수 있습니다.
    즉, 내 모든 자료를 바탕으로 내 어투를 담은 글을 작성할 수 있습니다. 챗GPT처럼 AI에게 PDF로 내 자료를 넣어주거나 학습시킬 필요 없이, @(골뱅이)로 멘션 하나면 내 로컬 자료를 바탕으로 AI 활용이 가능해집니다.

    ▶AI와 지식 연결: 옵시디언의 데이터와 연동해 노트에 기록된 정보를 바탕으로 한층 발전된 통찰력을 제공합니다.

    ▶작업 시간 절약: 코드 자동 완성, 텍스트 정리 등 반복적인 작업을 줄여 효율성을 극대화합니다.

    Cursor AI와 옵시디언의 조합은 내 기록을 단순한 메모를 넘어 실제 생산성 도구로 진화시키는 방식이며, 더 폭넓게 내 자료를 활용할 수 있게 만들어줍니다. 

     


    더 많은 옵시디언 정보가 필요하다면?

    옵시디언은 잘 활용하면 생산성을 굉장히 극대화할 수 있는 툴인데요. 자율성과 다양성이 너무 넓다보니 혼자 시작하기에는 어렵다는 단점이 있습니다.

    때문에 옵시디언 총정리 바이블이 있다면 더 쉬운 접근과 다양한 활용이 가능할 텐데요.
    이를 위해 옵시디언 기초 세팅부터 수십 가지 응용 방법, 다양한 혜택까지 모아놓은 강의가 있어, 강의 소개를 끝으로 글 마무리 하고자 합니다. : )

    더 유익한 다음 게시물로 찾아뵙겠습니다!

     

    🎁BEST 플러그인 30종 추천 & 설명서

    🎁구요한 교수의 옵시디언 웰컴 키트(초기 세팅파일 전부 제공)

    🎁무려 3년간 무료! 매달 옵시디언 활용법 최신 사례 및 지식관리 세미나 진행

    평생 소장과 수강생만을 위한 질문방 운영은 덤!

     

    무한한 지식관리를 원한다면? 평생가는 지식관리 with 옵시디언

    구요한과 함께해보세요!

    ▶강의 보러가기 : https://bit.ly/4i6rXlQ

  • 보수적인 건축 디자인 시장에서 1군 건축 디자이너가 AI를 받아드리게 된 계기ㅣ3D 렌더링, 모델링

    보수적인 건축 디자인 시장에서 1군 건축 디자이너가 AI를 받아드리게 된 계기ㅣ3D 렌더링, 모델링

    최근 건축 및 인테리어 시장에서 AI에 대한 이야기가 자주 등장하고 있습니다. 건축 디자이너와 인테리어 디자이너에게 AI는 생소한 분야이지만, 분명한 점은 AI가 디자이너의 업무를 보조하거나 개선할 수 있는 도구로 점차 자리 잡고 있다는 사실입니다.

    특히 AI가 강력한 도움을 줄 수 있는 분야 중 하나가 바로 3D 렌더링건축 모델링입니다. 기존의 렌더링 방식은 시간이 오래 걸리고 복잡한 작업 과정을 요구했습니다. 반면, AI 기반의 도구는 이를 단축하고 효율성을 극대화하며, 동시에 높은 수준의 결과물을 제공합니다.

    본격적으로  기존의 렌더링 방식과 AI 기반 툴인 Stable DiffusionComfyUI를 비교하고, 현업에서 이 도구들을 활용한 사례와 추천 이유를 구체적으로 설명드리겠습니다.

     

    1. 기존 렌더링 vs Stable Diffusion 및 ComfyUI 기반 렌더링

     

    기존의 3D 렌더링 방식 3D 모델링부터 렌더링까지 모든 과정을 세밀하게 작업해야 했으며, 결과물을 만들기까지 많은 시간이 소요되었습니다. 이를 위해 SketchUp, Rhino, 3ds Max와 같은 프로그램이 사용되었고, 고퀄리티의 결과물을 얻기 위해서는 고사양의 하드웨어와 기술적 숙련도가 필요했습니다.

    이와 비교해 Stable DiffusionComfyUI는 작업의 효율성을 획기적으로 향상시켰습니다. 텍스트 프롬프트 또는 간단한 이미지 레퍼런스만으로 고품질의 3D 렌더링 이미지를 단시간에 생성할 수 있습니다.

    예를 들어, 기존의 방식으로는 건축 도면을 기반으로 공간을 모델링하고, 조명을 배치한 뒤, 렌더링 작업에 수 시간 이상을 투자해야 했습니다. 반면에 Stable Diffusion을 사용하면 “모던 스타일의 리조트 로비”라는 텍스트 입력만으로 몇 분 만에 결과물을 생성할 수 있습니다. 이러한 차이는 시간적, 비용적 관점에서 매우 큰 이점을 제공합니다.

    ComfyUI는 작업 과정을 노드 기반의 인터페이스로 시각화하여 사용자가 각 단계에서 원하는 부분을 제어할 수 있도록 돕습니다. 이를 통해 디자이너는 특정 요소를 세밀하게 조정하거나 창의적인 실험을 진행할 수 있습니다. 이러한 유연성은 기존 툴에서는 경험하기 어려웠던 새로운 접근 방식을 가능하게 합니다.

    2. AI 도구의 유용성과 추천 이유

    제가 Stable Diffusion을 처음 사용했을 때, 가장 크게 느낀 장점은 생산성이었습니다. 일반적으로 고퀄리티의 3D 렌더링 작업은 3~5일 정도의 작업 시간이 필요했지만, Stable Diffusion을 통해 이러한 작업을 단 몇 시간 내에 마칠 수 있었습니다.

    특히 고객의 피드백에 즉각적으로 대응할 수 있다는 점이 인상적이었습니다. 예를 들어, 고객이 원하는 특정 스타일이나 분위기를 텍스트로 설명했을 때, Stable Diffusion은 이를 빠르게 반영하여 시각화된 결과물을 제시할 수 있었습니다.

    Stable Diffusion의 또 다른 장점은 텍스트와 이미지를 결합한 작업 방식을 제공한다는 것입니다. 이를 통해 고객이 추상적으로 표현한 아이디어도 구체화할 수 있었습니다. 또한, ComfyUI의 시각적인 인터페이스는 작업의 진행 상황을 한눈에 파악할 수 있도록 돕고, 각 단계를 세부적으로 조정할 수 있는 유연성을 제공합니다.

     

    Stable Diffusion과 ComfyUI를 추천하는 이유:

    1. 생산성 향상: 반복적이고 시간이 오래 걸리는 작업을 줄이고, 디자이너가 창의적인 디자인에 집중할 수 있는 시간을 확보해줍니다.

    2. 퀄리티 보장: 텍스처, 조명, 디테일이 섬세하게 구현되어 기존의 렌더링 방식 못지않은 품질을 제공합니다.

    3. 비용 절감: 고사양 하드웨어 없이도 뛰어난 결과물을 얻을 수 있어 장비 및 운영 비용이 절감됩니다.

    4. 고객 맞춤화: 트렌디한 디자인 요소를 빠르게 반영하고, 고객의 피드백을 즉각적으로 반영할 수 있습니다.

    5. 창의적 실험 가능: 노드 기반의 ComfyUI를 통해 다양한 디자인 시도를 부담 없이 진행할 수 있습니다.

    현재 1군 건축 및 인테리어 업계에서도 Stable DiffusionComfyUI를 포함한 AI 기반 툴의 사용이 빠르게 증가하고 있습니다. 이러한 변화는 단순히 작업 시간을 단축시키는 데 그치지 않고, 디자이너가 더욱 창의적이고 전략적으로 작업할 수 있도록 돕습니다.

    특히 3D 렌더링건축 모델링 과정에서 AI 도구의 활용은 점차 필수적인 요소로 자리 잡고 있습니다. 기존의 방식에 비해 생산성과 효율성이 뛰어나고, 디자이너가 고객의 요구에 더 빠르고 정확하게 대응할 수 있다는 점에서 큰 강점을 가지고 있습니다.

    건축 및 인테리어 디자이너로서 변화하는 시장에서 경쟁력을 갖추기 위해서는 AI 도구의 활용법을 익히는 것이 필수적입니다. 이를 통해 단순히 효율성을 높이는 것을 넘어, 디자인의 질과 창의성을 함께 향상시킬 수 있습니다.

    저희 강의에서는 건축/인테리어 디자이너를 위해 특별히 설계된 Stable DiffusionComfyUI의 실전 사용법을 체계적으로 알려드립니다. AI와 함께 변화하는 건축 디자인 시장에서 경쟁력을 갖추고 싶다면?

     



    ▶▶▶ https://bit.ly/3V4RdPM 

     
  • 사실성 100% AI 인물 영상 제작, 4단계로 끝!

    사실성 100% AI 인물 영상 제작, 4단계로 끝!

    | 영상 반전 미쳤다 ㄷㄷ

     

    *소리를 켜고 영상을 끝까지 시청해 주세요.

    영상을 끝까지 다 보셨나요?? 영상 마지막 부분에 숨겨져 있던 반전, 정말 놀랍지 않나요? 

     

     

     

     

    | AI 영상, 어디까지 진출해?

     

    최근 생성형 AI에 대한 관심이 증가하고, AI 기술이 빠르게 발전하면서 이미 여러 분야에서 AI 영상을 활용하고 있는데요. 그 예로 올해 7월 개최된 제28회 부천국제판타스영화제에서는 국제 영화제 최초로 ‘AI 영화’ 경쟁 부문을 신설하여 AI로 제작된 영화를 심사하고 상을 수여했어요. ‘부천 초이스: AI 영화’ 부문은 영상 시나리오 사운드 영역에서 AI 테크놀로지를 창의적으로 사용한 작품들을 엄선해 상영했다고 하네요. 뿐만 아니라 10월에 개최된 부산국제영화제는 ACFM(아시아 콘텐츠&필름 마켓)에서 AI 콘퍼런스를 진행하였어요. 이렇게 영화제에 AI 부문을 신설하고, AI 관련 콘퍼런스를 진행하는 등 AI 영상 트렌드를 따르려는 움직임을 확인할 수 있어요.

     

    AI의 영향력이 영화계에만 미치고 있는 것은 아닌데요. KB 국민은행은 국내 금융업계 최초로 생성형 AI를 광고 이미지와 영상에 접목한 광고를 선보였어요. 브랜드 광고 부문에 생성형 AI를 적용하여 광고 포스터 및 영상을 제작한 것인데요. 이렇게 생성형 AI를 도입하여 시간과 비용은 절감하는 동시에 단기간 내에 새로운 관점에서 여러 광고물을 제작하는 큰 이점을 보았다고 하네요. 또한, 경기 화성시는 전국 최초로 AI(인공지능)를 활용한 ‘화성시 AI CF 공모전’을 개최했어요. 공모 주제는 ‘생성형 AI를 활용한 화성특례시의 모든 것’으로, 이번 공모전을 통해 시민들에게 AI 기술을 활용해 창의적인 영상 콘텐츠 제작의 경험을 제공한다고 해요. AI를 활용한 CF 영상 공모전이라니! 신기하지 않나요? 

     

    이처럼 다양한 분야에서 AI를 활용한 영상을 제작하고 활용하고 있답니다! 그러나 실제같이 매우 자연스러운 AI 인물 영상을 제작하는 것은 많은 어려움이 있는데요. 여러분도 인물 움직임이 부자연스럽거나 입싱크가 하나도 맞지 않는 AI 영상을 한 번쯤 보신 적이 있죠? 도대체 어떻게 하면 AI로 누구도 속을만한 감쪽같은 영상을 제작할 수 있을까요?

     

     

     

     

    | 나도 AI 영상 만들 수 있어!

     

    생성형 AI 툴을 활용해 사실성 100%의 인물 영상 제작하기! 4단계만 아시면 됩니다.

     

    1. Flux로 인물 제작

    Midjourney, ComfyUI 등 기존 이미지 AI 툴이 많지만 그중에서 요즘 대세는 Flux! 

    > 높은 퀄리티의 실사 중심 이미지 제작에 탁월한 Flux로 원하는 인물 이미지를 제작해 보아요.

     

    2. Facefusion로 일관성 유지하며 합성

    기존 일관성 유지 기술인 Midjourney와 LoRA만으로는 100% 일관성을 유지하기에는 한계가 있어요.   

    > Facefusion으로 단 1장의 AI 이미지만으로 매번 동일하게 인물의 일관성을 유지해요. 

     

    3. Kling으로 자연스러운 영상화

    일관된 이미지를 제작했으면 이제 영상으로 만들 차례! 

    > Kling으로 원하는 이미지를 자연스럽게 영상으로 생성해 보아요.

     

    4. Live Portrait로 음성과 완벽 일치하는 입모양 구현

    AI 영상 제작의 하이라이트이자 마지막 단계! 움직이는 인물에 목소리를 불어넣어요.

    > 삽입한 음성에 맞춰 Live Portrait를 사용하여 립싱크를 정확하게 구현해요. 

     

    이렇게 글로만 봐서는 아직 잘 모르겠다고요? 혹은 이러한 단계는 알고 있으나 실제로 제작해 보면서 배우고 싶다고요? 

    AI 영상을 혼자 공부하고 제작하며 어려움을 겪고 있는 분들을 위해 준비했습니다!

     

    <Flux, ComfyUI, Gen3로 만드는 일관성 100% 감쪽같은 AI 영상> 강의!

    이 강의와 함께라면 여러분도 위와 같은 영상을 만들 수 있어요~~!






    | 최신 핵심 AI 툴 총 집합!

     

    패스트캠퍼스의 [Flux, ComfyUI, Gen3로 만드는 일관성 100% 감쪽같은 AI 영상] 강의에서는 2D 이미지부터 숏폼, 딥페이크 영상까지! 무한한 카테고리에서 활용 가능한 자연스러운 AI 이미지 및 영상 제작 과정을 배우고 실습할 수 있어요. Flux, ComfyUI, Kling, Gen3 등 최신 핵심 AI 이미지&영상 툴을 활용해 일관성이 100% 유지되고, 음성과 입싱크가 정확하게 일치하는 감쪽같은 인물 영상을 제작하는 법, 하나하나 알기 쉽게 알려 드려요! 거기다 매주, 매달 빠르게 변화하는 AI 트렌드에 발맞춰 새로운 AI 툴 및 프로세스를 반영하여 3년간 강의 무료 업데이트 서비스까지 제공한다고 하니 놓치지 마세요!

     

    <Flux, ComfyUI, Gen3로 만드는 일관성 100% 감쪽같은 AI 영상> 강의, 지금 바로 만나보세요~

     

  • ‘패스트캠퍼스 2024 Gencon AI 컨퍼런스’ 현장 스케치!

    ‘패스트캠퍼스 2024 Gencon AI 컨퍼런스’ 현장 스케치!

    9월 20일에 개최되었던 가장 앞섰던 AI 이야기 Gencon For DEV!

    궂은 날씨에도 많은 분들이 참여해 주신 덕분에 Gencon을 무사히 마무리할 수 있었습니다. 

     

    뜨거웠던 현장 소식을 전해드려요 🙂

     

    오프닝 키노트


     

    첫 번째는 NVIDIA의 김찬란 연사님께서 오프닝 키노트를 맡아주셨는데요,

    ‘NVIDIA NIM’을 기반으로 성능과 비용 효율성을 극대화하는 AI 솔루션의 빠른 배포와 확장이 가능한 기능들을 소개해 주셨습니다.

    ▲: 김찬란님 / NVIDIA / Senior Developer Relations Manager

     

    주요 세션


     

    그 후 본격적인 세션을 알아보실 텐데요,

    첫 번째 세션은 Microsoft의 김대근님께서 SLM 모델 구축에 대한 이야기를 나누셨습니다.

    ▲: 김대근 / Microsoft / Sr Technology Specialist – ML

     

    AI 혁신이 가속화됨에 따라 SLM 모델 구축의 필요성이 그 어느 때보다 높아지고 있는데요, 하지만 현실에는 여러 가지 난제가 존재하고 있습니다. 이러한 난제들을 극복하기 위한 노하우들을 공유해 주셨습니다.

    두 번째 세션으로는 GitHub의 Klaire Baek님께서 AI 도입 트렌드와 전략에 대한 내용을 말씀주셨습니다.

    ▲: Klaire Baek / GitHub / Sr Manager, Engineering Copilot

     

    GitHub의 최근 릴리즈를 기반해 견고하고 신뢰할 수 있는 AI 시스템을 개발하기 위한 실무 팁들을 말씀주셨는데요, 실제 AI 기술을 상품화하고 적용하는 과정에서 겪으셨던 어려움을 토대로 Observabilit  모범 사례를 공유해 주셨습니다. 

    세 번째 세션으로는 AI 투자에 대한 기업과 투자자들의 다양한 관점을 볼 수 있는 시간이었는데요!

    네이버 한재영님, KB 인베스트먼트 김승환님, 스톤브릿지 벤처스 이종현님, 미래에셋벤처투자 조진환님이 참여하셔 AI 투자에 대한 다양한 견해를 들어볼 수 있었습니다.

    ▲: 한재영 / 네이버 / 사업개발 / 파트너쉽 전무

    ▲: 김승환 / KB 인베스트먼트 / Anthropic, Essential AI 투자

    ▲: 이종현 / 스톤브릿지 벤처스 / 상무 , 전) 네이버 D2SF 투자 심사역

    ▲: 조진환 / 미래에셋벤처투자 / 벤처투자본부 이사

     

    다양한 연사분들이 참여해주셨는데요, 아직 반도 소개 안 드렸다는 사실!

    다음 세션들도 이어서 한 번 봐볼까요?

     

    네 번째 세션으로는 한국전자통신연구원 ETRI의 박찬성님께서 LLM 파인튜닝에 대해 이야기하셨습니다.

    ▲: 박찬성 / 한국전자통신연구원 ETRI / Hugging Face Fellow

     

    서비스형 LLM 의존에 따라 데이터 보안, 시세 틈 안정성 등의 문제가 제기되고 있어, 도메인 맞춤형 LLM 파인튜닝의 중요성이 대두되고 있습니다. 해서 이 맞춤형 모델 구축을 위한 전략과 기술적 접근 방법을 말씀해 주셨습니다.

     

    다섯 번째, SNOW의 정태민님께서 생성형 AI를 SNOW에 빠르게 적용한 실무 사례를 공유주셨습니다.

    ▲: 정태민 / SNOW / AI/ML 엔지니어

     

    한 때 엄청 이슈가 되었던 스노우의 생성형 AI 필터! 그 안에 숨겨진 이야기와 서비스 전반에 걸친 다양한 고민들을 말씀주셨습니다.

    여섯 번째로는 테디노트의 이경록님께서 고도의 Modular RAG 기법을 소개하고 실제 활용 방법까지 공유 주셨습니다.

     

    ▲: 이경록 / 테디노트 유튜브 채널 Creator / 브레인크루 CEO

     

    AI 기술의 발전에 따라 기존의 RAG 방식의 한계가 점점 더 부각되고 있는데요, RAG의 세부 단계를 모듈화하여 상황에 따른 대처, 기능 개선, 그리고 에이전트의 런타임 제어가 용이한 Modular RAG에 대한 설명과 사례들을 공유주셨습니다.

    이제 일곱 번째 세션인데요,  Databricks의 김형진님께서 오픈소스 LLM 활용에 대해 발표하셨습니다.

     

    ▲: 김형진 / Databricks / Staff SW Engineer

     

    Gen AI를 실제품에 도입하려면 강력하고 유연한 오픈소스 LLM이 좋은 선택지인데요, 오픈소스 LLM을 제품에 활용할 때 고려해야 할 과정을 살펴보고, 그 과정에서 마주할 문제들과 선택지를 소개해주셨습니다.

    이제 마지막 세션인데요, Coxwave의 이엽님께서 생성형 AI 시대에서의 기회와 적응 전략을 공유해주셨습니다.

    ▲: 이엽 / Coxwave / Head of Product, 전) 뤼이드 B/D

     

    최근 생성형 AI(Generative AI)는 기술 산업의 중심에 서 있으며, 그 예상 시장 규모가 50조 원 이상에 이를 것으로 전망되고 있습니다. 그렇다면 생성형 AI는 무엇이 다르고, 왜 이렇게 많은 관심을 받고 있는 걸까요?의 관점으로 적응 전략을 말씀주셨습니다.

    많은 연사분들이 인사이트와 경험을 아낌없이 공유해 주셨고, 

    꽉 찬 자리에서 개발자분들의 열정을 다시 한 번 느낄 수 있었습니다.

     

    올해도 패스트캠퍼스 AI 컨퍼런스 Gencon이 성황리에 개최되었습니다! 

    매년 열리는 이 컨퍼런스는 AI 분야의 최신 트렌드와 혁신적인 아이디어를 나누는 소중한 자리로, 참석자 모두에게 큰 영감을 주었습니다. 다양한 주제의 세션과 네트워킹 기회를 통해 서로의 경험을 듣고, 새로운 인사이트를 얻을 수 있는 소중한 시간이었습니다.


    다음 Gencon은?


    이렇게나 유익한 Gencon AI 컨퍼런스 내년에도 열릴 예정이에요:)

    앞으로도 많은 관심 부탁드립니다🫡

    지난 젠콘 구경하기 >>

  • 글쓰기 가이드 : 클릭부터 완독까지 빠르게 시선을 끄는 맞춤형 AI 활용법 (ft. sns부터 비즈니스까지)

    글쓰기 가이드 : 클릭부터 완독까지 빠르게 시선을 끄는 맞춤형 AI 활용법 (ft. sns부터 비즈니스까지)

    ✅ 시간 부족이 가장 큰 고민이라면, 이제 접어두세요!

    글쓰기에서 가장 큰 고민 중 하나는 바로 시간 부족입니다. 아이디어는 넘치지만, 이를 실제로 발행하기까지의 과정이 복잡하고 시간이 많이 소요되죠. 그래서 이런 고민을 해결하기 위해, chatGPTXClaude 만으로 아이디어부터 발행까지의 과정을 자동화하는 방법을 알려드리고자 합니다. 

    ✅ 감성적이고 창의적인 표현으로 무한 생산 포스팅도 가능합니다!

    여러 플랫폼을 오가며 글을 작성하느라 힘드셨죠? 이제는 AI글쓰기 툴을 활용하여 하나의 콘텐츠를 다양한 플랫폼에 손쉽게 배포할 수 있습니다. AI글쓰기의 도움을 받아, 각 SNS 플랫폼의 특성에 맞춰 자동으로 대량의 포스팅을 진행할 수 있습니다. 이를 통해 시간과 에너지를 절약하고, 더 많은 콘텐츠를 생산할 수 있는 기회를 얻게 되죠. 특히, Claude를 활용하면 감성적이고 창의적인 표현이 가능합니다.

    [각 sns 플랫폼에 최적화된 표현&설득력있는 비즈니스 문서]

    ✅ 회사에서 가장 잘 쓰게 해드립니다.

    매번 반복되는 데이터 수집, 분석, 그리고 맞춤형 양식까지 필요한 글쓰기도 AI로 자동화해보세요. 이렇게 효율적으로 작업을 진행하면, 진짜 내 업무에 중요한 일에만 바짝 집중할 수 있죠. AI가 시장 트렌드를 분석하고, 이에 필요한 필요한 데이터 분석도 해줍니다. AI가 준비한 답장 초안을 공유할 수 있어 Slack과 같은 협업 도구로  실시간으로 팀원들과 소통도 가능해집니다. 

    [chatGPT 활용 –  만든 양식에 맞춰 쉽게 작성하는, 프로 수준의 사업계획서]

     

    [chatGPT 활용 – 통계 몰라도 클릭 한 번으로 데이터 수집하고, 서베이 완성]

    [chatGPTXClaude 활용 – 전략 프레임워크로 만드는 마케팅 전략서]

    이 밖에도 글을 쉽게 잘 쓸 수 있는 사례는 굉장히 많은데요, 하지만 단순히 이 툴을 쓴다고 해서 뚝딱- 저런 결과물이 나오는 것은 아닙니다. 시간이 부족한 우리는 그 툴을 “잘”사용하는 방법을 알아야 하죠

    하지만, ‘AI 툴을 많이 사용한 경험도 없고 잘 모르는데…’ 하시는 분들이 계시다면 이 강의를 주목해 주세요! 글쓰기의 전 과정을 시간&비용 걱정 없이 몇십 배 빠르게 글쓰기의 퀄리티는 몇백 배 높이고 싶다면? 

     

    이 강의를 통해서 여러분도 하루에 한 개씩 2-3시간 사서 업로드한 SNS글도 

    다양하고 무한히 한 번에 올릴 수 있게 되고, 시장 조사부터 데이터 분석, 전략서, 계획서,

    내게 맞는 맞춤 자동화 워크플로우 설계까지 글쓰기 전 과정의 생산력을 끌어올릴 수 있습니다! 


    또한,  SNS 플랫폼별 특징과 비즈니스 문서에서 즉시 활용 가능한 실무 프롬프트, 글쓰기 모음집까지 전부 제공되고,  링크드인 1% 상위 마케팅 전문가와 3,000명 이상의 뉴스레터 운영자, 4천 명 이상의 이웃을 불러모은 서비스 개발자의 실전 전략까지 알 수 있으니

     더 이상 어려운 글쓰기로 혼자서 고생할 필요가 없어집니다. 🙂

     

     

     

    ▼ 자세한 강의 내용 살펴보기▼

  • LLM Quantization이란? 양자화 방법론 알아보기 (PTQ, QAT, QLoRA)

    LLM Quantization이란? 양자화 방법론 알아보기 (PTQ, QAT, QLoRA)

    | 양자화(Quantization)란 무엇이고 왜 중요할까?

    최근 대형 언어 모델(LLM) 시장에서 양자화(Quantization)가 매우 중요한 기술로 자리 잡고 있습니다. 양자화는 모델의 성능을 유지하면서도 메모리와 연산 리소스를 절감할 수 있는 방법인데요. 간단히 표현하면 LLM 내의 가중치와 활성화를 고정밀 데이터 표현에서 저정밀 데이터 표현으로 변환하는 모델 압축 기술입니다. 즉, 더 많은 정보를 보유할 수 있는 데이터 유형에서 더 적은 정보를 보유할 수 있는 데이터 유형으로 변환하는 것입니다.

     

    LLM은 지능과 복잡성이 증가함에 따라 매개변수 수, 즉 가중치와 활성화, 데이터에서 학습하고 처리하는 용량도 증가했습니다. 예를 들어, GPT-3.5는 약 1,750억 개의 매개변수를 가지고 있는 반면, 현재 최첨단 GPT-4는 1조 개가 넘는 매개 변수를 가지고 있습니다. 그러나 LLM이 클수록 더 많은 메모리가 필요한데요. 다르게 말하면, 필수 GPU 수를 갖춘 고사양 하드웨어에서만 LLM을 실행할 수 있다는 의미입니다. 이는 배포 옵션을 제한하고 결과적으로 LLM 기반 솔루션을 채택할 수 있는지에 영향을 미치게 되는데요. 이에 모델 크기 문제를 해결하기 위해 다양한 솔루션이 고안되었으며, 그 중 가장 두드러진 것이 양자화입니다.

    모델

    원본 크기(FP16)

    양자화된 크기(INT4)

    라마2-7B

    13.5GB

    3.9GB (3.9GB)

    라마2-13B

    26.1GB (26.1GB)

    7.3GB (7.3GB)

    라마2-70B

    138기가바이트

    40.7GB

    *Llama.cpp를 사용한 4비트 양자화의 예. 크기는 방법에 따라 약간 다를 수 있습니다.

    특히, LLM시장이 점점 온디바이스(On-Device) AI 기술에 주목하면서 양자화 기술이 더욱 중요해지고 있습니다. 과거에는 대형 모델들이 주로 클라우드 서버에서만 동작할 수 있었지만, 이제는 모바일 디바이스나 소형 장비에서도 높은 성능의 AI를 구동해야 하는 필요성이 커지면서 양자화가 더욱 주목받고 있습니다.

    양자화는 단순히 모델의 크기를 줄이는 것에 그치지 않고, 이를 통해 연산 속도를 높이며 전력 소비를 줄입니다. 특히, 대규모 자연어 처리 모델의 경우 학습 비용이 매우 크기 때문에 양자화는 비용 효율성을 크게 높이는 중요한 기술입니다. 이에 최근 기업들은 자원을 절감하면서도 더 빠르고 정확한 결과를 제공할 수 있는 LLM 양자화 기술을 경쟁적으로 개발하고 있습니다.

    *글로벌 빅테크 기업들의 Quantization 활용 예시

    | 양자화는 어떻게 모델을 축소하나요?

    양자화는 모델이 사용하는 수치 표현의 정밀도를 낮추어 메모리 사용량을 줄이는 동시에 연산 속도를 개선하는 방법입니다. 특히, FP32(32-bit 부동 소수점) 대신 INT8(8-bit 정수) 또는 4-bit 등으로 모델의 가중치와 연산을 표현함으로써 성능 저하 없이 메모리와 연산 자원을 절감할 수 있습니다. 이는 모델 크기가 매우 큰 LLM에게 필수적인 최적화 방법인데요.이를 통해 모델을 더 저렴한 하드웨어 및/또는 더 빠른 속도 로 실행할 수 있습니다. 가중치의 정밀도를 줄임으로써 LLM의 전반적인 품질도 어느 정도 영향을 받을 수 있습니다.

     

    연구에 따르면 이러한 영향은 사용된 기술에 따라 다르며, 더 큰 모델은 정밀도 변화로 인한 영향이 적습니다. 더 큰 모델(약 70B 이상)은 4비트로 변환하더라도 용량을 유지할 수 있으며, NF4와 같은 일부 기술은 성능에 영향을 미치지 않는 것으로 나타났습니다 . 따라서 이러한 더 큰 모델 의 경우 4비트가 성능과 크기/속도 사이에서 가장 좋은 절충안인 반면, 더 작은 모델의 경우 6비트 또는 8비트가 더 나을 수 있습니다.

    | 양자화의 주요 기술들

    양자화에는 다양한 방법이 있지만, 대표적으로 사후 양자화(PTQ), 학습 중 양자화(QAT), 그리고 최근 주목받는 QLoRA(Quantized Low-Rank Adaptation)가 있습니다.

    • 사후 양자화(PTQ, Post-Training Quantization): PTQ는 사전 훈련된 모델을 사용한 후 양자화를 적용하는 방식으로, 추가 학습이 필요하지 않아 빠르게 적용할 수 있습니다. PTQ는 주로 메모리 사용량을 줄이고 연산 속도를 높이는 데 사용되며, 모델의 정확도 손실을 최소화하면서 리소스를 줄일 수 있는 방법입니다. 

    예를 들어, 32-bit로 표현된 가중치를 8-bit로 변환하여 모델 크기를 줄이는 방식이 사용됩니다. 하지만, PTQ는 특히 정밀도가 중요한 작업에서 정확도 손실이 발생할 수 있다는 단점이 있습니다.

    • 학습 중 양자화(QAT, Quantization-Aware Training): QAT는 훈련 과정에서부터 양자화를 적용하는 방식으로, 낮은 정밀도로 모델을 학습 시키면서도 높은 정확도를 유지할 수 있는 방법입니다. 이 방법은 훈련 중에 양자화를 고려하여 모델이 적응하도록 하기 때문에 성능 손실이 적지만, PTQ에 비해 더 많은 계산 자원이 필요합니다. QAT는 주로 매우 높은 성능이 요구되는 응용 프로그램에서 사용되며, 정확도와 리소스 절감을 균형 있게 달성할 수 있는 기술입니다.

    • QLoRA(Quantized Low-Rank Adaptation): 최근에 주목받고 있는 QLoRA는 양자화된 가중치로 대형 모델을 적은 메모리로 미세 조정(fine-tuning)하는 기술입니다. 이는 주로 매우 큰 언어 모델을 적은 자원으로 개인화하거나 특정 작업에 맞게 조정할 때 사용됩니다. 

    QLoRA는 특히 대형 모델의 성능을 유지하면서도 메모리 요구 사항을 크게 줄일 수 있는 것이 강점입니다. QLoRA는 INT4(4-bit) 양자화를 사용하며, 이를 통해 모델의 메모리 사용량을 최소화하면서도 높은 정확도를 유지할 수 있습니다. 이 방법은 모델이 매우 큰 상황에서도 학습 비용을 낮출 수 있어 많은 연구와 개발자들에게 주목받고 있습니다

    | 양자화의 장점과 단점

    양자화는 LLM의 성능을 최적화하는 데 필수적인 기술로, 특히 리소스가 제한된 환경에서 모델을 효과적으로 운영하는 데 도움이 됩니다. 주요 장점으로는 메모리 사용량 감소, 연산 속도 향상, 그리고 전력 소비 절감 등이 있습니다. 이를 통해 대형 모델도 모바일 장치나 엣지 디바이스에서 효율적으로 사용할 수 있습니다.

     

    하지만 양자화에는 몇 가지 단점도 존재하는데요. 가장 큰 문제는 양자화 과정에서 발생할 수 있는 정확도 손실입니다. 특히, 아주 세밀한 작업에서는 32-bit 부동 소수점 연산을 대체하기 어려운 경우도 있습니다. 또한 QAT처럼 추가적인 연산 자원이 필요한 양자화 방식은 초기 비용이 높을 수 있습니다. 이러한 단점에도 불구하고, 양자화는 장기적인 관점에서 LLM의 성능을 극대화하는 중요한 기술입니다.

    | 마무리하며

    양자화는 우리가 LLM을 인식하고 활용하는 방식에 가히 혁명을 일으켰는데요. Llama 30B와 같은 거대한 모델을 일상적인 기기에 맞게 압축함으로써 본질적으로 인공 지능에 대한 접근성을 크게 높일 수 있었습니다. 이러한 발전으로 사용자는 크기에 대한 성능을 희생할 필요가 없으므로 성능이 비교적 떨어지는 하드웨어에서도 빠르고 효율적인 언어 처리가 가능해지며 LLM의 온디바이스 화에도 박차를 가하고있습니다.

    양자화와 관련된 더 자세한 내용을 배우고, 실전에서 활용할 수 있는 기술까지 익히고 싶다면 GPU 최적화와 Fine-Tuning 기술로 자체 LLM 모델을 개발하여
Open-Ko LLM & Open LLM Leaderboard 최장기간 1위를 달성한 이승유님의 강의를 확인해보세요.

    LLM 모델을 활용하여 AI 서비스를 개발하면서 발생하는 2가지 대표 문제상황인 모델 학습 시 Fine-Tuning에서 발생하는 메모리 리소스 제약, Inference를 할 때 발생하는 Latency 증가 문제를 해결해줄 수 있는 LLM Quantization 강의입니다.

    기적의 GPU 최적화 기법, 그 2탄!
    더 극한의 메모리 환경에서 모델 학습, 양자화, 배포하는 방법까지!

    ‘Quantization 진행시 성능 저하와 연산 속도의 균형을 찾는 핵심’
    Open LLM Leaderboard 최장기간 1위, 이승유 엔지니어가 알려드려요.

    ✅Latency & Outliar 문제 해결
    ✅PTQ로 LLM Inference 효율 극대화
    ✅SFT & QLoRA를 활용한 프로젝트 실습까지!

    ➕ 24/11/15까지 구매한 수강생 대상 한정, LLM 모델 특별 웨비나 진행!
    ➕ 이승유 강사님께 직접 질의응답 가능한 수강생 전용 강의 커뮤니티 제공

    RTX3090만으로도 NVIDIA A100 수준의 컴퓨팅 파워를 낼 수 있는 방법
    이승유 강사님의 LLM Quantization 노하우를 지금 바로 확인하세요!

     

    강의 바로가기▶https://bit.ly/4hfczmL 

     

     

     

     

    • 참고자료

    • Symbl.ai, A Guide to Quantization in LLMs

    • TensorOps, What are Quantized LLMs?

  • 2024년 고성능 RAG 주요 패러다임 & 프레임워크 총정리! feat. LLM, 라마인덱스

    2024년 고성능 RAG 주요 패러다임 & 프레임워크 총정리! feat. LLM, 라마인덱스

    LLM은 최근 몇 년간 많은 큰 주목을 받고 있는데요, 하지만 LLM의 많은 장점에도 몇 가지 단점이 존재합니다. 예를 들어, LLM은 지식 업데이트 속도가 느리고, 에러 발생 시 신뢰성 부족으로 인해 환각 현상이 발생할 수 있습니다. 이러한 문제를 해결하기 위해 RAG 기술이 떠오르고 있습니다.

     

    RAG하면 랭체인부터 생각하실텐데요! 랭체인은 여러 데이터 소스를 연결하여 사용자가 다양한 정보에 쉽게 접근할 수 있도록 도와줍니다. 예를 들어, 웹 페이지, 데이터베이스, API 등 다양한 출처의 데이터를 통합하여 보다 풍부한 정보를 제공합니다. 이를 통해 사용자는 하나의 시스템 내에서 여러 출처의 데이터를 검색하고 활용할 수 있습니다.

    하지만 이 랭체인도 한계점이 있습니다. 데이터 처리 속도에 한계가 있어 대량의 데이터를 실시간으로 처리하는 데 어려움이 있을 수 있으며, 다양한 데이터 소스를 통합할 수 있지만, 정보의 정확성과 신뢰성을 보장하는 데 한계가 있습니다.

    또 이러한 한계점을 보완할 수 있는 라마인덱스라는 프레임워크가 있습니다. 라마인덱스는 고속 검색 기능을 제공하여 데이터 처리 속도를 크게 향상시킵니다. 이를 통해 사용자는 필요한 정보를 빠르게 찾을 수 있으며, 전체 시스템의 응답 시간을 단축할 수 있습니다. 또한, 라마인덱스는 검색 결과의 정확도를 높이는 알고리즘을 사용하여 불필요한 데이터나 오류를 필터링합니다. 이로 인해 정보의 신뢰성이 높아져, LLM이 보다 정확한 데이터를 기반으로 응답을 생성할 수 있게 됩니다.


    그래서 요즘 실무와 고성능 RAG를 구현해본 개발자들은 상황에 따라 랭체인과 라마인덱스를 번갈아가며 사용하고 있습니다. 그 외 LLM, RAG 기술은 워낙 빠르게 변하고 성장하다보니 발 바삐 따라갈 필요가 있습니다.

     

     

    2024년 고성능 RAG의 주요 패러다임을 한 번 알아볼까요?

     

     

    [2024년 RAG의 주요 패러다임]

     

    1. Naive RAG

    ▶️ 개념 ◀

    가장 기본적인 형태의 RAG로, 단순히 외부 데이터베이스에서 정보를 검색한 후 이를 바탕으로 텍스트를 생성하는 방식입니다.

     

    ▶️  주요 특징 ◀

    – 사용자가 입력한 질문에 대해 관련된 문서를 검색하고, 그 정보를 결합하여 응답을 생성합니다.

    – 검색된 정보의 품질이 전체 성능에 큰 영향을 미칩니다.

    – 복잡한 처리 없이 직관적으로 구현할 수 있지만, 정보의 깊이나 정확성이 떨어질 수 있습니다.

     

    2. Advanced RAG

    ▶️ 개념 ◀

    Naive RAG의 한계를 극복하기 위해 발전된 형태로, 더 정교한 검색 및 생성 메커니즘을 사용합니다.

     

    ▶️  주요 특징 ◀

    – 검색 과정에서 고급 자연어 처리(NLP) 기법을 활용하여 관련성 높은 정보를 더 효과적으로 추출합니다.

    – 생성 과정에서도 문맥을 더 잘 이해하고, 다양한 정보를 통합하여 보다 풍부하고 일관된 응답을 생성합니다.

    – 사용자 피드백을 통해 계속해서 학습하고 개선되는 기능이 포함될 수 있습니다.

     

    3. Modular RAG

    ▶️ 개념 ◀ 

    모듈화된 접근 방식으로, 검색과 생성 과정이 독립적인 모듈로 구성되어 상호작용합니다.

     

    ▶️  주요 특징 ◀

    – 각 모듈이 특정 기능에 최적화되어, 검색 알고리즘과 생성 모델이 분리되어 있어 유연성과 확장성이 뛰어납니다.

    – 다양한 데이터 소스와 알고리즘을 쉽게 통합할 수 있어, 특정 도메인이나 요구에 맞춘 맞춤형 솔루션이 가능합니다.

    – 모듈 간의 협업을 통해 더욱 정교한 결과를 도출할 수 있습니다.

     

     

    이 세 가지 RAG 유형은 각각의 특징에 따라 다양한 응용 분야에서 활용될 수 있으며, 특히 Advanced RAG와 Modular RAG는 높은 성능과 유연성을 제공합니다.

     

     

    이러한 최신 RAG의 패러다임과 라마인덱스 실무 실습을 담은 강의가 나왔습니다! 

     

     

    실무 그대로를 옮긴 라마인덱스 기반 RAG 강의!

    📌 Advanced, Modular RAG 등 최신 RAG 16가지 실습

    📌 RAG 종류별 사례, 실습, 성능 평가까지

    📌 현업 시나리오에서 챗봇 & 검색 봇 구현 프로젝트

     

    ▼ 강의 보러가기 (문구 클릭) ▼

  • LLM 서빙 프레임워크 비교 분석 (ft. vLLM)

    LLM 서빙 프레임워크 비교 분석 (ft. vLLM)

    최근 AI 기술은 다양한 산업에 걸쳐 빠르게 도입되고 있는데요.

    특히 대규모 언어 모델 (LLM)은 자연어 처리, 고객 서비스 자동화, 데이터 분석 등에서 큰 성과를 내며 큰 주목을 받고 있습니다. 

    AI 모델이 급격히 커지면서, 대형 언어 모델 (LLM)을 효과적으로 서빙하는 방법이 중요해지고 있는데요.

    본문에서는 LLM 서빙에 중요한 역할을 하는 LLM 최적화 프레임워크를 비교 분석하려고 합니다.

     

     | vLLM

    vLLM은 대규모 언어 모델의 추론을 최적화하기 위해 설계된 LLM 서빙 프레임워크로, 효율적인 메모리 관리와 낮은 지연 시간이 가장 큰 장점인데요. 특히 가상 메모리 페이지 파이핑(Page-Piping) 기술을 사용해, GPU 메모리 사용을 줄이면서도 성능을 유지합니다. 이는 대규모 모델을 운영해야 하지만 자원이 한정된 환경에서 매우 유리하고, 비동기 추론을 지원해 다중 요청을 동시에 처리하면서도 응답 시간이 짧아 실시간 애플리케이션에 적합합니다.

    반면, vLLM은 대규모 운영 시 추가적인 최적화가 필요할 수 있습니다. 특히 LLM을 다양한 환경에서 배포하고 추론 성능을 극대화하려면 고급 설정과 튜닝이 필수적입니다. 그리고 vLLM은 학습이 끝난 모델을 추론하는 데만 집중하기 때문에, 학습 단계에서는 별도의 프레임워크가 필요하다는 단점을 가지고 있습니다.

     

     | TensorRT-LLM

     NVIDIA TensorRT-LLM은 NVIDIA의 GPU 최적화 소프트웨어인 TensorRT를 기반으로 LLM 추론 성능을 극대화하는 프레임워크입니다. 이 프레임워크의 가장 큰 강점은 GPU 성능을 극대화하는 최적화가 가능하다는 점입니다. TensorRT-LLM은 NVIDIA의 하드웨어와 최적화된 소프트웨어를 함께 사용할 때 성능이 극대화되며, 특히 FP16 또는 INT8 정밀도 모델을 사용해 성능을 가속할 수 있습니다. 이는 고성능 GPU 리소스를 활용해 대규모 모델을 매우 빠르게 추론할 수 있게 해주죠.

    그러나 이 TensorRT는 NVIDIA GPU에 의존적이며, 다른 하드웨어에서는 그 성능을 온전히 발휘하지 못할 수 있습니다. 또한 모델 최적화와 설정 과정이 복잡할 수 있어, 사전에 충분한 GPU 최적화 지식이 필요합니다. 그렇기에 LLM 서빙시, GPU 환경에 익숙한 데이터 과학자나 머신러닝 엔지니어에게 적합합니다.



     

     | TGI (Text Generation Inference)

    TGI는 Hugging Face에서 개발한 LLM 서빙 프레임워크로, 특히 텍스트 생성과 관련된 모델에 최적화되어 있습니다. 오픈 소스로 제공되기 때문에 누구나 쉽게 접근할 수 있으며, Hugging Face의 Transformers 라이브러리와 완벽하게 통합된다는 점이 장점이죠. TGI는 다양한 모델을 지원하며, 추론 성능을 효율적으로 관리할 수 있는 고급 설정 옵션을 제공합니다. 특히 텍스트 생성 모델을 서빙하려는 경우, Hugging Face의 방대한 모델 허브를 통해 쉽게 모델을 가져와 LLM을 서빙할 수 있습니다.

    하지만, 텍스트 생성에 초점을 맞춘 프레임워크이므로 다른 종류의 LLM 작업에는 최적화되어 있지 않을 수 있는데요. 그리고 GPU 최적화가 제한적이어서 TensorRT-LLM처럼 GPU 성능을 극대화하는 데는 한계가 있습니다. 따라서 텍스트 생성 AI 서비스에 특화된 프로젝트나 중소규모의 LLM 서빙 환경에 적합하죠.

     

     

     | Ollama

    Ollama는 LLM 모델을 손쉽게 배포하고 서빙할 수 있는 플랫폼으로, 특히 로컬 환경에서의 LLM 서빙을 강조합니다. 클라우드에 의존하지 않고 자체 인프라에서 LLM을 운영할 수 있다는 점에서, 데이터 보안과 개인 정보 보호를 중요한 이슈로 삼는 기업들에 유리합니다. 그리고 Ollama는 오프라인 서빙 환경에서도 높은 성능을 유지할 수 있으며, 모델을 로컬에서 실행하는 간단한 툴을 제공한다는 장점을 가지고 있습니다.

    반면, Ollama는 클라우드 기반 인프라와의 연결성이 부족합니다. 오프라인 서빙에 특화된 만큼 클라우드 리소스를 활용한 확장성이나 성능 최적화 기능이 제한적일 수 있는 것이죠. 그리고 복잡한 분산 환경에서의 사용은 다소 어려울 수 있습니다. 따라서 데이터 보호가 중요한 금융, 의료, 정부 기관 등에서 자체 인프라에 LLM을 배포하려는 경우에 적합합니다.

     

    정리해보자면,  vLLM은 대규모 언어 모델을 추론하면서도 메모리 효율성과 처리 성능을 유지하는 데 강점이 있으며, TensorRT-LLM은 NVIDIA GPU를 적극 활용하는 환경에서 최고 성능을 발휘하고, TGI는 텍스트 생성 AI 서비스에 특화되어 있으며, Ollama는 로컬 환경에서 데이터 보호를 중시하는 기업들에게 적합한 프레임워크로 작용합니다.

    각 서빙 프레임워크는 고유의 장단점을 가지고 있으며 프로젝트와 사용 환경에 따라 적합한 선택지가 달라질 수 있는데요.

     

     

     

     

    | 고성능 저비용의 LLM 서빙을 할 수 있는 vLLM!

    앞서 살펴봤던 LLM 서빙 프레임워크 중 vLLM은 특히 대규모 언어 모델을 고성능으로 운영하려는 엔지니어들에게 중요한 선택지가 될 수 있습니다.

    효율적인 메모리 관리와 낮은 지연 시간, 그리고 높은 처리량을 통해 대규모 언어 모델을 서빙하는 데 있어 뛰어난 성능을 자랑하면서도, 자원 소비를 최소화할 수 있기 때문이죠. 그리고, 대규모 환경에서도 유연한 확장성을 제공하기에 스타트업이나 대규모 기업에 다니는 엔지니어 모두에게 가장 적합한 프레임워크입니다.

    vLLM의 실행은 간단할 수 있지만, 실제로 이를 비즈니스 환경에 맞게 최적화하고 효과적으로 적용하기 위해서는 많은 노하우와 경험이 요구되는데요. 

    하지만, 아직까지 국내에서는 vLLM을 활용한 LLM 서빙 방법에 대해 자세히 다룬 곳이 없다고 합니다.

     

    그래서 준비한 <vLLM을 활용한 고성능 저비용 LLM 서빙의 모든 것> 강의!

    패스트캠퍼스의 [vLLM을 활용한 고성능 저비용 LLM 서빙의 모든 것] 강의에서는 국내 최초로  vLLM을 활용한 LLM 서빙 최적화하는 방법을 배울 수 있다고 하는데요.

    4가지 서빙 프레임워크들과의 비교를 통한 추론 이해부터 vLLM 실습으로 상황별 최적화 전략과 실제 추론 노하우까지 모두 알려준다고 합니다.

    AI에 관심이 있다면, 한번쯤은 들어봤을 ‘ LLM을 활용한 실전 AI 애플리케이션 개발‘ 베스트셀러 저자가 직접 등판하여 알려준다고 하니, 지금 바로 만나보세요!

     

  • 사무직에겐 필수! 챗GPT보다 글 작성에 특히 유용한 클로드 성능 비교

    사무직에겐 필수! 챗GPT보다 글 작성에 특히 유용한 클로드 성능 비교

    | 텍스트 생성의 고수, 클로드

     

    직장인은 주목! 특히 글과 관련된 업무가 많은 사무직에겐 필수인 클로드(Claude)를 아시나요???

     

    클로드 AI는 Anthropic이라는 회사에서 개발한 챗봇이자 텍스트 생성 도구인데요. 키워드 입력 시 관련 텍스트를 생성해 줄 뿐만 아니라 입력한 문장을 다양한 언어로 자연스럽게 번역도 해주고, 긴 글을 짧고 간결하게 정리 요약까지 해준다고 해요.

     

     

    클로드는 고급 텍스트 이해 및 생성 능력과 빠른 응답 속도가 장점이라고 하는데요. 사용자의 의도를 파악하고 맥락을 이해하여 자연스럽고 친화적인 문장을 생성할 뿐만 아니라 응답 지연 없이 빠르게 결과를 전달해 줘요. 그리고 특히 창의적인 글쓰기에 뛰어난 재능을 가지고 있어 평소 문장을 처리해야 하는 일이 많은 사무직은 꼭 알아야 할 AI 챗봇으로 주목받고 있어요.

     

     

    | 클로드와 챗GPT, 뭐가 다른데?

     

    흔히들 텍스트 생성 AI라고 하면 챗GPT를 가장 먼저 떠올리실 텐데요!! 그렇다면 챗GPT와 클로드의 차이점은 무엇일까요?

    우선, 클로드는 챗GPT보다 좀 더 윤리적인 AI랍니다. 텍스트를 생성하거나 대화를 할 때 사용자의 의도를 최대한 반영하는 동시에 부적절하거나 유해한 내용은 걸러낸다고 해요. 또한, 클로드는 챗GPT보다 긴 문장을 처리하는 능력이 더 뛰어난데요. 한 번에 많은 정보를 처리할 수 있어서 특히 긴 문서 요약이나 분석 시 유용해요. 평소 긴 대용량 문장을 분석하고 요약해야 하는 분들이나 윤리적인 AI 사용을 중시하는 분들에겐 클로드를 더 추천드려요!

     

    <왼쪽: 클로드 / 오른쪽: 챗GPT>

     

    그리고 쉽고 간편한 업무 자동화를 원하시는 분들께 클로드를 더 추천드리는데요!

    챗GPT로 업무 자동화를 시도할 경우, 챗GPT 이외에 외부 AI 툴을 연동하여 여러 가지 툴을 사용해야 하고, 따로 코딩 및 프롬프트를 공부해야 하며, 플러그인 설치나 이런저런 설정을 해야 하는 등의  귀찮고 복잡한 과정들이 요구되는데요. 클로드로 업무 자동화를 할 경우에는 외부 툴 연동, 코딩 공부, 프롬프트 엔지니어링, 번거로운 설치/설정 모두 없이 오직 클로드 툴 하나와 복붙만으로 업무 자동화를 끝낼 수 있다고 해요. 또한, 챗GPT는 유지보수에 약해 챗GPT에 요청할 자동화 업무 범위가 넓어질수록, 즉 대화가 길어지면 기존에 구축했던 것을 잊어버리는 치명적인 오류 발생하는 반면에 클로드는 워크플로우가 잘 구축되어 있어 이러한 가능성이 희박하답니다.

     

    실제로 이미 다양한 업종에서 클로드를 사용하여 효율적으로 업무를 진행하고 있는데요. 마케팅&콘텐츠 제작 업종에서는 클로드로 창의적인 소셜 미디어 콘텐츠를 생성하고 고퀄리티 영상이나 광고 카피를 제작하며, 교육 업종에서는 맞춤형 학습 자료 및 외국어 학습 콘텐츠 등의 자료를 인터렉티브하게 시각화하여 효과적으로 전달하고 있어요. 또한, 개발 업종에서는 복잡한 프로그래밍 없이 클로드로 간단하게 프로젝트를 완성하고 최적의 솔루션을 제안하며, 고객 서비스 업종은 고객 응대 자동화를 통해 빠르고 정확하게 고객 문의에 답변하고 있어요. 이외에도 일상 업무 시 번역, 문서 작성, 참신한 아이디어 발상 등이 필요할 때 클로드를 활용하면 빠르고 효율적으로 업무를 할 수 있답니다!

     

    이렇게 여러 방면으로 유용한 클로드를 활용하여 업무 자동화하는 법! 궁금하지 않으신가요? 그래서 준비했습니다.

    <복붙으로 끝내는 미친 AI 업무 자동화 with Claude> 강의!

     

     

     

    | 복붙만으로 업무 자동화 끝!

     

    패스트캠퍼스의 [복붙으로 끝내는 미친 AI 업무 자동화 with Claude] 강의에서는 AI 업무 자동화 분야 베스트셀러 저자에게 외부 툴 연동, 어려운 코딩 공부, 번거로운 설치/설정 없이! 오직 클로드 툴만 사용하여 복붙만으로 빠르게 업무 자동화를 하는 방법을 배울 수 있어요. 마케팅, 데이터 분석, CS, HR, 제품 기획 및 개발 등 다양한 직군에서 업무에 바로 적용 가능한 56가지 실전 예제와 더불어 프롬프트 모음집 100종, 업무별 자동화 템플릿 10종도 제공한다고 하니 놓치지 마세요!

     

    최소한의 노력으로 초스피스하게 업무 자동화를 하고 싶다면?

    해답은 [복붙으로 끝내는 미친 AI 업무 자동화 with Claude] 강의! 지금 바로 만나보세요~

     

     

끝없이 이어질 인공지능의 이야기
AI:ing에서 당신의 커리어 성장이 시작됩니다.

ALL

IT

AI:ING only

AI Double UP

AI 자격증(AICA)

이벤트