[카테고리:] All

  • LLM, RAG 평가: 체계적인 접근법이 필요한 이유 (feat. 목적별 평가, 파싱, 청킹)

    LLM, RAG 평가: 체계적인 접근법이 필요한 이유 (feat. 목적별 평가, 파싱, 청킹)

    인공지능 기술의 발전으로 LLM과 RAG가 다양한 분야에서 활용되고 있지만, 이들이 내놓는 답변의 신뢰성과 품질이 항상 보장되지는 않습니다. 그렇기에 LLM이 내놓은 답변에 대한 정확한 평가가 필요한데요. LLM과 RAG 평가가 단순히 결과를 확인하는 수준에 머문다면, 모델의 가치를 온전히 실현하기가 어렵기에 평가는 체계적이고 정확한 방식으로 이루어져야 합니다. 

     

    하지만 LLM 평가는 일반적인 자연어 처리(NLP)능력, 다양한 주제에 대한 반응, 새로운 문제 상황에서의 적응력 등 더욱 다양한 측면에서 평가되어야 하기 때문에 논문 수준 구현보다 더 실무적인 노하우 및 판단력이 필요한데요. LLM, RAG 평가가 타 NLP, ML 평가에 비해 난이도가 높다보니 평가에 대한 기준이 제대로 안잡혀 있는 경우도 많고, 그냥 주먹구구로 답변만을 평가하는 경우도 많습니다. 조금 과하게 표현하자면 금융 RAG를 평가하는데, “비트코인 어디까지 오를까?” 이런 쓸데없는 질문들을 던져보는 것이지요.

    정확한 평가를 위한 그 첫 번째

    1. 내 데이터에 맞는 평가 방법 알기

    LLM과 RAG의 성능을 제대로 평가하려면 목적에 따른 지표와 평가 기준을 설정하는 것이 중요합니다. 대표적인 8개 평가 목적으로는 번역, 요약, 대화데이터, retrieval, 질의응답, ai safety, reasoning, 비용과 속도가 있는데요. 목적에 따라 평가 목적과 지표가 달라집니다.

     

    1) 번역 목적 LLM 평가: 해석의 정확도에 중점을 맞춥니다.(+자연스러움) 성능 평가 중 가장 간단한 평가로, NLP 평가 지표(예: BLEU, ROUGE)로 평가합니다.

    2) 요약 목적 LLM 평가: 축약에 중점을 맞추며 텍스트 요약의 간결성과 정확성을 확인합니다. NLP 평가 지표과 LLM as a judge같은 메트릭을 사용합니다.

    3) 질의응답 LLM 평가: 질문의 의도에 알맞은 답변 도출에 중점 맞춥니다. Sem-score, NLP 평가 지표, LM 기반 메트릭, LLM as a judge를 사용하여 평가합니다. 평가 결과의 합산법 또한 필요합니다.

    4) 대화 데이터에서 LLM 성능 평가: LLM이 이전 대화를 얼마나 잘 기억하는지 장기 기억력에 중점 맞춥니다. 질의응답에 활용된 평가 지표를 그대로 활용하나, 대화형으로 변형한 incremental 메트릭 합산법이 필요합니다.(대화의 맥락과 연속성을 고려) Sem-score, NLP 평가 지표, LM 기반 메트릭, LLM as a judge를 사용합니다.

    5) Reasoning 목적 LLM 평가: 정답과 복잡한 문제풀이 과정을 함께 도출해야 하기 때문에 reasoning 단계별 평가하는 방법을 구현하는 데에 집중합니다. 객관식 메트릭, reasoning 단계별 평가법, LLM as a judge를 사용합니다.

    6) AI Safety 목적 LLM 평가: 답변에 욕설을 하거나 정치적으로 부적절한 답변을 하지 않는지에 중점을 맞춥니다. LLM as a judge를 사용하여 답변이 윤리적이고 신뢰할 수 있는지 검증합니다.

    7) 비용과 속도 평가: 속도를 높이고 비용을 낮추게 하되, 답변의 정확성을 놓치지 않게 하는 데에 중점을 맞추어 평가 지표를 설정해야 합니다. 사용 토큰 수, Time-to-First Token 속도 등을 평가 지표로 사용하여 효율성을 측정합니다.

    8) Retrieval 성능 평가: 다양한 메트릭을 한번에 활용하는 것에 중점을 맞춥니다. Rank-aware Retrieval Metric, LLM as a judge, LLM aRank-unaware Retrieval Metrics a judge 등의 지표를 사용하여 평가합니다.

    2. RAG의 퀄리티를 좌우하는 청킹과 파싱

    RAG 모델의 성능은 데이터셋의 품질과 직결됩니다. 아무리 좋은 RAG라도 데이터셋이 제대로 구축되지 않으면 정확한 답변을 도출할 수 없는데요. 앤드류 응(Andrew Ng) 교수는 “우수한 데이터 관리와 가공이 인공지능 구축의 80%를 차지한다”라고 했을 만큼 평가의 시작은 데이터셋 제작이며, 비정형 데이터를 텍스트로 뽑아내는 청킹(Chunking)과 파싱(Parsing)은 RAG 3대 요소라고 불릴 만큼 RAG 최적화의 핵심입니다. 이에 LLM/RAG 평가를 진행할 때에는 내 데이터에 알맞게 청킹 & 파싱을 진행하고 있는지 확인도 필요합니다.

     

    이중 오늘은 파싱에 대해서만 간단히 얘기해 보자면, 

    파싱은 PDF와 파일 안의 글자를 정확히 빼내는 것이 중요한데요. 표 속에 표가 있다든지 복잡한 구조로 이루어져 있는 한국 문서들은 문자를 추출하는 것이 특히 까다롭습니다. 다양한 스택들을 활용하여 문서를 더 정확하게 추출할 수 있지만 대표적인 파싱 도구로는 PDF 라이브러리, OCR, 멀티모달 파서가 있습니다.

     

    1) PDF 라이브러리리

    PDF 라이브러리는 무료로 사용이 가능합니다. 단, OCR에 비해 정확도는 떨어집니다. PDF Miner, PDFPlumber, PDFPlum2, PyPDF, PymuPDF, Unstructured PDF 등의 스택이 있는데요, 어떤 주제(법률, 의료 등)의 문서를 파싱 하느냐에 따라 정확도가 조금씩 달라집니다. (스택별 자세한 정확도는 Auto RAG팀 velog 참고)

    2) OCR 모델

    OCR은 유로로 사용 가능하며, 복잡한 표 정보까지 파싱이 가능합니다. Llamaindex, Upstage, CLOVA OCR 등이 있습니다.

     

    3) 멀티모달 파서

    멀티모달 파싱도 유료로 사용 가능하며, Llama Parse의 MultiModal을 이용한 파싱 기능을 통해 PDF 속 텍스트와 표뿐만 아니라 복잡한 “이미지” 정보까지 파싱이 가능합니다.

    3. 체계적인 평가를 위한 실무 팁 (강의 소개)

    LLM/RAG 평가에서 중요한 것은 내 LLM/RAG 목적에 맞는 프레임워크를 활용하는 것입니다. 주먹구구식 접근이 아니라, 상황에 맞는 명확한 지표와 도구를 설정하고 이를 반복적으로 적용해야 개선 방향을 찾을 수 있습니다. 특히, 모델이 제공하는 답변의 정확성, 관련성, 유창성, 일관성, 최신성을 체계적으로 검토하는 것이 필요합니다.

     

    오늘은 LLM/RAG 평가에 관련한 8가지 평가 목적부터 파싱의 몇 가지 종류까지 간단히 알아보았는데요.  정확한 답변을 도출하는 데이터셋 제작부터 목적/태스크/도메인에 알맞은 LLM, RAG, agent 평가와 개선까지 더 딥한 학습이 필요한 분에게 아래 강의를 소개하며 글 마치겠습니다. 


    내가 만든 RAG 평가하고는 싶은데…

    🤔 어떤 평가 지표를 써야 할지도 모르겠고

    😔 평가 점수는 나왔는데, 이게 높은 건지 낮은 건지도 모르겠다면?

     

    시중의 모든 평가&최적화 방법을 다~ 써봤다는 Auto RAG 제작자가

    내 상황별 평가 방법과 RAG별 맞춤 스택 골라드립니다!

     

    ✅내 RAG에 맞는 평가 방법 학습(8개 CASE)

    ✅청킹&파싱을 통한 정확한 데이터셋 제작

    ✅평가 프레임워크 전격 비교

     

    내 목적에 딱 맞는 평가 지표를 사용해야

    더 정확한 답변을 도출하는 RAG 제작이 가능합니다.

     

    국/내/유/일 RAG 평가와 최적화 강의 지금 시작해 보세요🔥

    ▶강의 보러가기: https://bit.ly/3OSAwTX 

     

  • 전세계 2천명 이상이 지원한 AI국제영화제에서 수상자를 배출한 비결이요?ㅣAI 스토리의 A to Z

    전세계 2천명 이상이 지원한 AI국제영화제에서 수상자를 배출한 비결이요?ㅣAI 스토리의 A to Z

    | AI로 스토리 작성을?

     

    지난 10월 25일, 국내 최초·최대 규모의 ‘대한민국 AI국제영화제’가 킨텍스 제2전시장에서 개막했는데요. ‘AI가 선사하는 새로운 기회’를 주제로 생성형 AI를 활용한 영상 콘텐츠 창작을 지원하고, AI 시대에 콘텐츠 창작의 길과 상생 발전 가능성을 모색하는 취지에서 상회부터 컨퍼런스까지 다양한 프로그램이 진행되었어요. 


       


    이번 영화제에는 내러티브, 다큐멘터리, 아트&컬처, 자유 형식 총 4개의 분야에 전 세계에서 총 2067건의 작품이 출품되었다고 해요. 이중 분야별 1~3등의 자리를 두고 본선을 진출한 AI 영화 26편이 경쟁을 했어요. 여기서 무려 대상을 포함해 내러티브 부문과 자유 부문, 총 3개 작품의 수상자가 동일한 한 사람에게 AI를 활용한 시나리오 작성에 대한 강의를 수강했다고 하는데요! 

    그 ‘한 사람’이 어떤 분인지 궁금하지 않으신가요? 그래서 준비했습니다. 전 세계 2천 명 이상이 참가한 영화제에서 다수의 수상자를 배출한 스튜디오사월 대표 ‘양나리’님과의 인터뷰! 지금부터 AI 스토리의 A to Z, 함께 알아봅시다.


    Q. 간단하게 강사님 소개 부탁드립니다.

    A.  안녕하세요. 저는 스튜디오사월 대표 양나리라고 합니다. 콘텐츠 플랫폼 및 기획 제작 회사 스튜디오사월을 운영하며, 최근에 미디어학과 박사과정에 복학해 공부, 연구도 병행하고 있습니다. (주)스튜디오 사월은 2021년에 법인 설립한 콘텐츠 스타트업입니다. SEEnario라는 플랫폼을 운영하며 AI 보조작가 서비스를 도입했었구요. Perpic.AI라는 AI 이미지 생성 플랫폼도 개발했었습니다. 간단히 말하면, 콘텐츠와 AI를 접목시키는 일을 하고 있습니다.  AI와 함께 넷플릭스 드라마 대본을 웹소설로 각색하는 작업도 했었구요.  최근에는 AI를 예술과 콘텐츠에 접목시키는 AI 영화감독, 작가, 크리에이터, 교수, 미디어 아티스트 등 8인의 인터뷰집 <AI는 어떻게 예술이 되는가>라는 책을 기획 출판했습니다.

     

     


    Q. 강사님이 스토리 작성 시 AI를 처음 사용하게 된 계기를 말씀해 주세요.

    A.  2021년 법인 설립 전부터 저의 사업계획서에는 ‘AI 보조작가’에 대한 장표가 있었습니다. 플랫폼에서 AI 보조작가를 구현하기 위해 실제로 제가 구할 수 있는 200여 편의 시나리오를 씬 별로 가공하여 기존 영화 시나리오를 씬 별로 검색할 수 있는 기능을 도입하고자 했었지요. 그렇게 준비를 하던 중 2022년 11월, Chat GPT를 영화처럼 만나게 되었고 저는 소리쳤습니다. “이거다! 이제 진짜 AI 보조작가를 만들 수 있다!”

    2023년 1월 우리 회사의 개발자, 기획자 등 10명이 채 안 되는 인원이 설날 연휴 일부를 자진 반납하고, AI 기술로 보조작가를 만드는 정부 지원 사업에 몰두했었습니다. 결과론적으로는 그 지원 사업에 선정되지 못했지만, 어쨌건 저는 생성형 AI가 처음 나오자마자, 아니 그전부터 ‘AI 보조작가’에 대한 열망이 있었고, GPT의 등장은 내 꿈을 실현하게 만들어 준 도구였습니다. 결론적으로 말하자면, GPT가 처음 나오자마자부터 생성형 AI로 글도 쓰고, 서비스에도 접목하기 위해 사용했습니다. 

     

     


    Q. 스토리 작성 시 AI를 활용하면 장점이 무엇이라고 생각하시나요?

    A.  작가 중심으로 보았을 때, AI를 활용하는 가장 큰 장점은 더 이상 혼자 쓰지 않는다는 겁니다. 빈 화면에 커서가 깜빡이고, 손은 움직이질 않고 아 뭐 쓰지… 작가라면 매일 아침 겪는 공포죠. LLM(Large Language Model 거대 언어 모델)이 쏟아내는 이야기를 읽으며 글자가 무한히 생성되는 것을 보며 자신의 작품에 대해 머리를 굴리며 생각합니다. 

    GPTS에 주인공의 성격, 외형, 트라우마, 목표, 인간관계 등도 입력해서 주인공과 대화하기도 합니다. 씬10에서 니 감정이 어땠어? 하고요.  심지어 저는 할루시네이션 조차 창작의 소스로 씁니다. 기자나 연구원은 팩트가 중요하지만, 작가에겐 그렇지 않을 때가 많으니까요. 또, 저는 멀티 모달이 도입된 이후로는 사진을 첨부해 사진을 바탕으로 스토리 구상을 하구요. SF 판타지 장르처럼 상상력이 필요할 때도 아주 유용히 쓰고 있습니다.  

     


    Q. 지금껏 AI 시나리오와 관련해 여러 강의를 해 오셨는데 수강생 중 기억에 남는 성공 사례가 있나요? 

    A.  문체부, 콘진원, MBC C&I가 주최/주관하는 ‘AI·XR 콘텐츠 활용 멀티플랫폼 드라마 기획개발 랩’의 집행위원으로, AI 시나리오 강의를 했었습니다.  또 과기부, nipa(정보통신산업진흥원), 홍익대에서 진행하는  AI·디지털 기반 미디어 융합 인재 교육에서도 AI 시나리오 강의를 했었고, PGK 한국영화프로듀서조합 AI 시나리오 강의를 했었죠. 

    수강생 중에는 이미 장편 데뷔한 영화감독님, 웹소설 작가, 드라마 작가, 미디어 아티스트, 기자 등 다양합니다. 이미 전문가이지만, AI를 어떻게 자기 작품에 잘 활용할 것인지에 대해 궁금한 것이죠. 그분들은 자기 작품에 AI를 잘 접목해서 쓰고 계시고, 사례를 든다면 2024년에 열린 AI국제영화제에서 대상, 내러티브 부문 1등, 프리부문 3등을 수상하기도 했습니다.  아예 AI를 처음 써보면서 창작도 처음인 작가 지망생들도 꽤 있습니다. 그중에는 카카오 페이지에 웹소설 프로모션 심사 받고 있는 분, 웹툰 스토리를 AI로 써서 웹툰 공모전에 낸 분도 있고요. 매우 다양합니다.  

     


    Q. 강사님의 강의를 들은 수강생이 AI국제영화제에서 수상한 비결이 무엇이었다고 생각하시나요? 

    A. 상을 받으신 분은 AI 영상 기술을 잘 썼기 때문도 있을 거고, 시나리오가 좋아서도 있을 겁니다. 이미 훌륭한 창작자라 수상한 것이겠지만, 제가 도움을 준 것이 있다면 커스텀 AI를 활용하는 법이 아닐까 합니다. 절대 그냥 질문하면 안 됩니다. 작가와 작품에 맞는 ‘커스텀 AI’를 만들어서 질문해야 합니다. 작가의 성향과 현재 쓰고자 하는 작품에 맞게 스토리를 생성하고, 캐릭터를 창조하고, 세계관을 설계하고, 플롯을 구성하고, 원고를 쓰고, 퇴고/피드백하는 것 등을 커스텀으로 만들어서 활용해야 하고, 이것을 어떻게 하는지 가르칩니다.

    왜 이렇게 하는가 하면 AI가 스토리를 생성할 때 기승전결의 방향, 퇴고의 기준을 내가 정하고, 나의 이전 작업물을 반영해서 내 스타일을 고수하며 작업할 수 있기 때문입니다. 그래서 커스텀으로 제작할 수 있는 GPTs나 클로드 Project를 주로 활용하는 것이죠. 제 강의에는 영화감독, 시나리오 작가, 웹소설 작가, 미디어 아티스트, 기자 등 다양한 직업군의 사람들이 학생으로 참여하는데 그때마다 빠지지 않는 후기가 있습니다. ‘그냥 AI에게 질문만 하면 되는 줄 알았는데, AI 커스텀 과정에서 무궁무진한 세계를 알게 되었다.’고요.



    Q. 이번에도 강의를 하시는데 주로 어떤 내용을 다룰 예정이신가요?

    A. 처음에는 LLM의 원리와 한계 및 말뭉치(토큰)의 확률치로 문장을 생성해 주는 원리에 대해 알아보고,  문학에서의 AI 활용과 AI 저작권에 대한 현황을 짚어본 다음 실제 실습으로 넘어갑니다.  작가의 취향이나 성향을 먼저 살펴보고, 작가가 이전에 쓴 글들도 AI로 분석해 보는 것이죠. 그리고 나서 AI 영화 및 웹소설의 아이디어 기획, 시놉시스(기획안) 작성, 캐릭터 설계, 세계관/플롯 구성, 초고 작성, 피드백 한 뒤 퇴고하는 모든 과정을 AI와 함께 합니다. 이때, 작가/작품 개인에게 맞춤으로 해야 하기 때문에 GPTS나 Claude의 Project 기능을 사용합니다. 이걸 배우는 것이 핵심입니다. 

    저는 생성형 AI를 도입해 보조작가 서비스를 런칭해보고, 남들보다 조금 빨리 생성형 AI를 많이 써 보았기 때문에 어떻게 해야 최소 100화 되는 웹소설, 12시간 분량의 드라마 이렇게 긴 스토리를 일관성 있게 쓸 수 있는지 알고 있습니다. 스토리 생성기, 초고 생성기, 대사 생성기, 피드백 생성기 등을 각자 만들어 스토리에 적합하게 활용하는 수업을 진행할 예정입니다. 

     


    Q. 스토리 창작에 고통받는 현직/예비 작가를 위한 AI 활용 꿀팁 및 조언의 말씀 부탁드립니다.

    A.  1. 기획 단계 때 무한 아이디어 생성 도구로 활용하세요

     2. 다양한 자료 조사를 위한 지능적 검색 도구로 사용하세요. 

    3. 설정한 플롯, 캐릭터, 세계관에 대해 피드백을 나누고 더욱 세밀히 구축하기 위한 스토리 강화 도구로 활용하세요. 

    4. 머리에서 손까지의 경로가 가끔 멈출 때 협력적 사고 도구로 활용하세요.  


    발단 전개 위기 절정 결말 스토리 구조를 이미 잘 알고 있는 작가는 LLM이 하는 무수한 말을 잘 배치해서 스토리를 완성할 수 있습니다.  AI와 함께 스토리를 쓸 때 잊어서는 안 되는 것은 내가 판단의 정확한 기준을 잡고 있어야 한다는 것입니다. 작가가 스토리 작법에 대해 능통해서 이야기를 이끌어가는 주체가 되어야 하고 필요할 때마다 AI를 부려먹으며 각종 소스를 자유자재로 빠르게 얻으며 활용하는 것입니다. 주의해야 할 점은 작가 지망생들이 충분한 습작 시간을 보내지 않으면 AI 의존도가 높아져 혼자 글 쓰지 못할 수 있으니, 너무 AI에게 많은 것을 의존하면 안 된다는 겁니다. 

    AI 시대, 예술은 새로운 장르를 얻게 되었고, 예술가는 대체되지 않는다, 다만 확장됩니다. 

     



    | 나만의 AI 보조작가와 함께 스토리 창작을!

     

    패스트캠퍼스의 [스튜디오사월 양나리 대표의 AI 스토리텔링 노하우 : 하루 1시간 AI 보조작가로 스토리 창작] 강의에서는 AI로  보조작가를 구현한 후 장르별 스토리 생성부터 캐릭터 일대기 구축 플롯 작성, 마지막 퇴고 작업까지 AI의 도움을 받아 나만의 스토리를 창작하는 법을 배울 수 있어요. AI를 100% 활용해 남다른 스토리를 창작하는 양나리 강사님의 AI 스토리 창작에 대한 강의뿐만 아니라 SF 작가와 AI 영화감독 등 웹소설과 AI 영화 최고 선두에 있는 3인의 추가 강사님의 강의도 준비되어 있답니다. 여기에 총 50만 원 분량의 자료 모음집까지! 모두 무료로 제공해요. 또한, 1:1 or 그룹 피드백권을 구매하면 나만의 AI 보조작가를 더 업그레이드하고 스튜디오사월 작가님들에게 내 스토리에 대한 피드백을 받을 수 있으니 이 기회 놓치지 마세요!

     

    나만의 AI 보조작가 구현해 ‘내 글 1편’ 완성하고 싶다면?

    <스튜디오사월 양나리 대표의 AI 스토리텔링 노하우 : 하루 1시간 AI 보조작가로 스토리 창작> 강의 수강하러 가기

     

     

  • 수많은 수강생들에게 선택받은 업무 자동화 AI Make, 어디까지 가능할까? (ft.2024 패캠 어워즈 베스트강의)

    수많은 수강생들에게 선택받은 업무 자동화 AI Make, 어디까지 가능할까? (ft.2024 패캠 어워즈 베스트강의)

    수많은 수강생들에게
압도적으로 선택받은

    AI 업무 자동화 강의? 얼마나 대단하길래.. 

    (ft. 2024 패스트캠퍼스 어워즈 베스트강의 선정)

    단순 RPA 수준에 머물렀던 AI 자동화 No-Code 툴이 생성형 AI가 발전함에 따라 구현해볼 수 있는 자동화 시나리오 자유도가 많이 높아졌습니다. 다른 AI툴처럼 수십가지 툴 연동하거나 코딩이 쓰이지 않고도, 단 하나의 툴 클릭으로만 해결이 가능하거든요. 그래서 오늘은 바로 그 주인공 업무 자동화 make으로 어디까지 가능한지 무한 확장되는 Make 사용법에 대해 맛보기로 간단하게 소개해 드리고자 합니다.

     

     

    이 AI 자동화 make을 가장 활용도 있게, 자유도 높은 시나리오 구현으로 Make 사용법을 가장 쉽게 설명 해주시는 정호영 강사님입니다.

    2024 패스트캠퍼스 어워즈 월간 베스트강의 TOP에 선정될 정도로 수많은 수강생들에게 압도적으로 선택을 받았었는데요. 강사님께서 RAG 1타 끝판왕 테디노트님 유튜브 채널에 나와 다양한 사례를 보여주셨는데, AI 자동화 Make으로 어디까지 가능한지 한번 살펴보겠습니다.

    AI 업무 자동화 노코드 Tool: Make로 어디까지 가능할까?

    먼저, AI 자동화 make에 대해 생소하신 분들이 많을 것 같아 개념부터 짚고 넘어가겠습니다. 단순 반복 작업을 처리해 주는 rpa 툴이 아닌 상세 컨텍스트를 통한 개인화까지 가능한 업무 자동화 플랫폼입니다. 텍스트 인풋 뿐 아니라 영상, 오디오까지 가능한 멀티 모델이죠. 콘텐츠로는 아래와 같은 모든 것을 할 수 있죠

     

    ✅make 사례

    –  인풋 이미지를 학습한 이미지 모델 (Flux-Dev) 를 바탕으로 유튜브 제목, 썸네일 생성

    –  컨텍스트 > 이미지 프롬프트 생성 > 파인튜닝 이미지 모델 > 이미지 생성

    –  이미지 생성 후 Image2Video Replicate > Runaway API 활용 > 영상 생성

    –  다만 아직까지 영상 생성 Runaway API는 이용 비용이 높은 편

    –  비디오 프롬프트에 따라 영상 품질이 달라짐

     


    ✅업무 자동화 Automation Tool 비교

    최근 업무 자동화 Automation Tool 언급이 가장 많이 되는 애들은 Zapier, n8m, make입니다. Zapier에 비해 make은 1,500개 이상의 다양한 커스텀 모듈을 지원해 주죠. 무료로 활용하기 충분한 구성이고, 선형 시나리오의 경우 복잡하게 문제 정의도 걸 수도 있습니다. n8n의 경우 사용 난이도가 높은 편이지만 무료로 이용 가능하다는 장점을 가지고 있습니다.

    더군다나 AI 자동화 make은, 서버 네트워크 코딩 지식이 없어도 혼자 나름 간단한 개발을 할 수 있다는 점입니다. 예를 들어, 이메일을 받으면 아래 이미지의 동그라미 두 개가 알아서 연결돼서 바로 메일 자동화로 쏴주는 개념입니다. 슬랙에 댓글을 달면 이메일로 답글로 가는 것도 가능하죠.

    그럼 여기서 궁금한 점이 들 수 있습니다. 한 번 반응을 할 때마다 과금이 되는 방식이 아닌지? 할 수 있지만 과금은 거의 안된다고 보시면 될 것 같습니다. 기능들도 조합해서 쓸 수 있는 것뿐만 아니라 기능을 추가해서 쓰는 것도 가능한 게 make이거든요. 결국엔, make은발 비용이 적게 들고 빠르게 반업무 자동화를 구현하여 결과를 볼 수 있다는 것이 장점입니다.

     

     

    업무 자동화 Make의 장점

    1. 프런트와 같은 지식이 필요한 부분을 make 로 대체 후 핵심 코드만 주피터 노트북을 활용 가능

    2. 챗GPT 연동 가능

    3. 프롬프트 입력 및 맥스 토큰 지정 가능

    4. 오픈 AI add 버튼을 통해 pdf 등의 파일 업로드 가능

    5. 만든 파이프라인 공유 또한 가능, 엑셀 문법과 비슷함 (함수, 서메이션 등)

    6. installed apps 들어가면 메이크에서 지원하지 않는 것을 따로 만들 수 있음

    하지만 Make 사용법에 관한 단점도 존재합니다. 대량의 데이터 핸들링에 적절하지 않고, mvp 수준의 개발까지만 가능하여 개인과 같은 소수 사용에는 너무 유리한 점이 있죠. 물론 자동화 시나리오에 모듈이 매우 많다면 유지 보수에 어려움이 있을 수 있습니다. 또한 시나리오 최대 운용 시간은 40분까지이죠.

     

     

    make의 과금 체계 중 오퍼레이션이라는 게 있습니다.

    위 이미지에 있는 동그라미 하나가 실행이 되면 1이 뜨게 됩니다.

    이 1이 오퍼레이션 소요가 하나씩 드는 것을 뜻하는데

    무료로는 천 개의 오퍼레이션 사용이 가능한 것이지요.

    ✅슬랙봇 이용 가능 (슬랙 채널 > 메시지 전송 > 쿼리 메시지 저장 > 웨이트메시지 > 로딩메시지)

    우리가 회사에서 늘 빠질 수 없는 기본 메신저, 슬랙 채널 연동도 가능합니다.

    슬랙 메시지를 전송하면 오픈 AI 어시스턴트 API를 사용하여 벡터 DB 조회를 통해 답변을 주는 업무 자동화 방식으로, 슬랙 채널에 메세지 전송 시 트리거 형태로 받아들여 쿼리 메시지에 저장되는 형태이죠. 그뿐만 아니라, sns콘텐츠(Instagram, Facebook, LinkedIn, 인스타 등), 보고서 등 내가 필요한 콘텐츠에도 자동화 업로드가 가능합니다. 무려 1,600여개가 넘는 서비스와 연동되는 업무 자동화 툴이니까요.

    이를 통해 단순히 효율성을 높이는 것을 넘어, 검색 이상으로 더 많은 업무를 맡기고 내 ‘진짜 업무’에만 집중할 수 있습니다. 이 강의에서는 직장인이라면 누구나 자주 사용하는 툴로 당장 업무에 적용할 수 있는 실전 AI 자동화 Make 사용법을 체계적으로 알려드립니다.

    앞으로도 계속 반복할 업무들, Make 하나만 배우고 평생 클릭 한 번으로 업무 자동화 끝내고 싶다면?

     

     

     

    <AI Make 하나로 끝내는 업무&비즈니스 자동화>

    ▶▶▶https://bit.ly/49dSlqb◀◀◀

  • 옵시디언 300% 사용법: 구요한 교수 추천 Best 5 플러그인, Cursor AI 연동하기

    옵시디언 300% 사용법: 구요한 교수 추천 Best 5 플러그인, Cursor AI 연동하기

    옵시디언, 왜 뜨고 있을까?

    혹시.. 수많은 메모와 자료들 모아놓고 제대로 활용 못하시지 않았나요?
    여기, 최근들어 연구자나 개발자 등 방대한 지식 관리가 필요한 사람들을 대상으로 알음알음 퍼져나가고 있는 노트앱이 있습니다. 바로 인간의 사고 과정을 디지털 환경에 적용해 만들었다는 옵시디언(Obsidian)인데요.

     옵시디언은 ‘네트워크 기반 노트 테이킹 앱’의 한 부류로, 작성자가 작성한 노트들 사이의 관계를 마치 마인드맵처럼 연결하고, 나아가 이를 시각화하여 보여주는 노트앱입니다. 

     

    인간의 사고는 위 GIF처럼 하나의 생각에서 다갈래로 뻗어나가며 연상 결합적 사고를 하는데요. 이를 노트 작성 방식으로 그대로 옮겨와 하나의 노트가 다른 노트들과 연결-연결 되도록 만든 노트앱이 바로 옵시디언입니다. 

    이러한 방식은 내 생각을 시각적으로 보여주며, 지식을 정리하는데 탁월한 방식인데요. 이런 방식은 더 나아가 생각지도 못했던 아이디어 간의 연결을 발견할 수 있기에 지식을 연결하고 확장, 그리고 새로운 결과물을 생성해 내는데 효과적입니다.

    더불어 옵시디언은 마크다운(.md) 형식으로 작성되기에 내 노트를 챗GPT같은 AI가 쉽게 이해할 수 있어 유연한 AI 활용이 가능합니다. 때문에 최근 연구자, 창작자, 개발자 등 방대한 정보를 접하며 이를 체계적으로 연결해야 하는 사람들, 나만의 세컨드 브레인을 만들고 싶은 사람들, AI와의 협업이 필요한 사람들로부터 열렬한 지지를 받고 있습니다.

     

    타칭 ‘옵시디언 엠버서더’ 구요한 교수 추천 Best 5 플러그인

    바로 본론으로 들어가 오늘은 옵시디언을 더욱 다양하게 활용할 수 있는 플러그인을 소개해드리고자 합니다. 옵시디언은 무려 2000여개의 플러그인이 존재하는 만큼 그 활용이 정말 무궁무진한데요.

    이 중, 옵시디언 엠버서더라 칭할 수 있는 구요한 교수님이 추천한 필수 플러그인을 알아보고자 합니다. 옵시디언을 조금이라도 접해본 사람이라면 구요한 교수님의 영상이나 글을 한 번쯤 봤을 텐데요. 옵시디언에 Cursor AI를 처음으로 접목한 분이시기도 하고 옵시디언 관련 커뮤니티, 유튜브 등을 운영하면서 다양한 지식 관리 방법을 공유해주시는 분입니다. 그럼, 구요한 교수님이 추천한 옵시디언 필수 플러그인을 알아볼까요?

     

    1) 데이터뷰(DataView)

    옵시디언의 메타 데이터(작성 일자, 태그 등)를 표, 리스트, 캘린더 등의 형태로 시각화하는 플러그인입니다. 이를 통해 사용자는 노트 내의 특정 정보를 효율적으로 조회하고 정리할 수 있습니다. 예를 들어, 특정 태그가 붙은 노트나 특정 기간 동안 작성된 노트를 쉽게 찾아낼 수 있습니다. 또한 프로젝트 일정, 목표 관리 등 다양한 정보의 체계적인 관리가 가능합니다.

     

    2) 옴니서치(Omnisearch)

    옵시디언의 기본 검색 기능을 뛰어넘는 플러그인으로, 메모, 키워드, 태그, 링크된 파일 등을 빠르게 검색할 수 있습니다. 타 노트앱과 비교하여 월등한 검색 능력을 보여주기에 특히 방대한 데이터베이스에서 원하는 정보를 즉시 찾아야 하는 사용자들에게 필수적입니다.

    주요 기능으로는

    빠른 파일 검색: 노트, 오피스 문서, PDF, 이미지 등 다양한 파일 형식을 즉시 검색 가능합니다.

    오타 저항성: 검색어에 오타가 있더라도 관련 결과를 찾아주는 기능을 제공하여, 정확한 검색어를 입력하지 않아도 원하는 정보를 획득 가능합니다.

    필터링 기능: 파일 경로, 확장자, 특정 단어 포함 여부 등을 기준으로 검색 결과를 필터링할 수 있어, 더욱 정교한 검색이 가능합니다.

    검색 엔진 통합: 옴니서치의 HTTP 서버 기능을 활성화하고, 브라우저에 사용자 스크립트를 설치하면, 구글, DuckDuckGo 등 검색 엔진에서 옵시디언 노트의 검색 결과를 함께 확인 가능합니다.

     

    3) 엑스칼리드로우(Excalidraw)

    옵시디언 내에서 손쉽게 스케치나 다이어그램을 그릴 수 있게 해주는 플러그인입니다. 이를 통해 복잡한 아이디어를 그래픽으로 표현하거나 드로잉, 손글씨 등 쉽게 작성할 수 있습니다. 창의적인 작업과 정보 시각화에 유용합니다.

    이미지출처: 엑스칼리드로우 홈페이지

     

    4) 템플레이터(Templater)

    옵시디언의 템플릿 기능을 확장하여 반복적인 노트 작성 작업을 자동화하고 효율성을 높여주는 플러그인입니다. 개인 일기, 회의록, 연구 노트 등 다양한 포맷을 자동화할 수 있어 워크플로우를 크게 간소화합니다.

     

    5) 스마트 컴포저(Smart Composer)

    AI 기반 자동 완성 플러그인으로, 사용자의 입력을 분석해 자연스럽고 관련성 높은 문장을 추천합니다. 작업 속도를 높이고 초안 작성 시간을 단축하는 데 탁월한 도구입니다.

    몇가지 기능을 살펴보자면,


    ▶AI 편집 기능: 노트 내용을 자동으로 개선하거나 구조를 재조정, 복잡한 아이디어를 다듬어 줍니다.

    아이디어 확장: 노트 간의 연결을 파악하고, 사용자가 놓칠 수 있는 패턴이나 관계를 제안합니다.

     

    이렇게 옵시디언을 사용한다면 꼭! 활용해야 할 Best 플러그인 5개를 뽑아보았는데요. 이 외에도 Perplecity, Genspark 등으로 인터넷에서 수집한 정보를 ‘나만의 포맷에 맞게’ 즉시 정리하는 방식 등, 옵시디언을 제대로 활용하면 기록의 가치를 300%이상 끌어올릴 수 있습니다.

     

    +) AI가 나와 똑 닮은 글을 써 준다고?
    생산성을 극대화할 수 있는 ‘옵시디언 X Cursor AI’ 활용법

    추가로 꼭 알려드리고 싶은 내용이 있어요. 최근 옵시디언 사용자들 사이에서 유행처럼 번지고 있는 생산성 극대화 방식인데요. Cursor AI를 활용하여 옵시디언에 생성형 AI를 연결하는 방식입니다. 

    Cursor AI는 사용자의 메모와 지식을 바탕으로 문서 작성, 자동화, 코딩 보조 등을 수행하는데요. 이를 이용하면 나의 노트 기록과 외부 자료를 기반으로 블로그 글/ 마케팅 글/ 보고서 작성 등등 옵시디언을 마치 자비스처럼 사용 가능합니다.

     

    주요 기능으로는

    ▶사용자 맞춤형 글쓰기 지원: Cursor AI는 사용자의 노트를 분석해 개인적인 어조와 스타일을 반영한 글을 자동으로 작성합니다. 이를 통해 초안 작성이 빨라지고, 보다 자연스러운 결과물을 얻을 수 있습니다.
    즉, 내 모든 자료를 바탕으로 내 어투를 담은 글을 작성할 수 있습니다. 챗GPT처럼 AI에게 PDF로 내 자료를 넣어주거나 학습시킬 필요 없이, @(골뱅이)로 멘션 하나면 내 로컬 자료를 바탕으로 AI 활용이 가능해집니다.

    ▶AI와 지식 연결: 옵시디언의 데이터와 연동해 노트에 기록된 정보를 바탕으로 한층 발전된 통찰력을 제공합니다.

    ▶작업 시간 절약: 코드 자동 완성, 텍스트 정리 등 반복적인 작업을 줄여 효율성을 극대화합니다.

    Cursor AI와 옵시디언의 조합은 내 기록을 단순한 메모를 넘어 실제 생산성 도구로 진화시키는 방식이며, 더 폭넓게 내 자료를 활용할 수 있게 만들어줍니다. 

     


    더 많은 옵시디언 정보가 필요하다면?

    옵시디언은 잘 활용하면 생산성을 굉장히 극대화할 수 있는 툴인데요. 자율성과 다양성이 너무 넓다보니 혼자 시작하기에는 어렵다는 단점이 있습니다.

    때문에 옵시디언 총정리 바이블이 있다면 더 쉬운 접근과 다양한 활용이 가능할 텐데요.
    이를 위해 옵시디언 기초 세팅부터 수십 가지 응용 방법, 다양한 혜택까지 모아놓은 강의가 있어, 강의 소개를 끝으로 글 마무리 하고자 합니다. : )

    더 유익한 다음 게시물로 찾아뵙겠습니다!

     

    🎁BEST 플러그인 30종 추천 & 설명서

    🎁구요한 교수의 옵시디언 웰컴 키트(초기 세팅파일 전부 제공)

    🎁무려 3년간 무료! 매달 옵시디언 활용법 최신 사례 및 지식관리 세미나 진행

    평생 소장과 수강생만을 위한 질문방 운영은 덤!

     

    무한한 지식관리를 원한다면? 평생가는 지식관리 with 옵시디언

    구요한과 함께해보세요!

    ▶강의 보러가기 : https://bit.ly/4i6rXlQ

  • 벡터DB 임베딩을 하면서 생기는 문제들, 글로벌 IT기업 A사는 어떻게 해결하고 있을까?

    벡터DB 임베딩을 하면서 생기는 문제들, 글로벌 IT기업 A사는 어떻게 해결하고 있을까?

    주요 기업들이 주목하고 있는 멀티모달! 멀티모달은 텍스트, 이미지, 영상 등 다양한 형태의 데이터를 동시에 처리하고 이해할 수 있는 기술인데요. 대표적으로는 애플 인텔리전스, Meta AI, GPT-4o가 있습니다. 이런 멀티모달은 텍스트, 이미지, 영상 등을 처리하는게 포인트이기에, 벡터임베딩이 더욱 중요해졌는데요. 왜 멀티모달은 벡터임베딩 중심으로 구축해야할까요?

     

    1. 임베딩 데이터베이스 vs 기존 데이터베이스

    임베딩 데이터베이스와 기존 데이터베이스는 주로 데이터를 저장하고 검색하는 방식이 다른데요. 우선 기존 데이터베이스는 행과 열이 있는 표와 같이 구조화된 형식으로 데이터를 저장합니다. 그래서 데이터 구조에서 정확한 일치 항목을 찾거나 특정 조건을 충족하는 검색에 가장 적합합니다. 이러한 구조화된 데이터베이스는 전통적인 인프라에서 쉽게 관리되고 운영될 수 있습니다. 반면 임베딩 데이터베이스는 데이터를 벡터로 저장합니다. 벡터란 다차원 공간에서 데이터를 나타내는 일련의 숫자인데요. 이 방법은 텍스트, 이미지 또는 사운드와 같은 복잡하고 구조화되지 않은 데이터를 처리하는 데 특히 유용합니다. 그래서  임베딩 데이터베이스가 제품이나 콘텐츠를 추천하는 것과 같이 데이터의 뉘앙스를 이해해야 하는 작업에 더 적합한거죠. 이를 이용한다면 고급 AI 애플리케이션을 지원하고 다양한 데이터 세트에서 검색 기능을 향상시킬 수 있습니다.

    2. 벡터DB 임베딩 도입할때 흔히 생기는 문제들

    이렇게 좋은 벡터임베딩! 그러나 그만큼 까다롭고 신경써야할 부분이 많은데요. 

    ① 데이터 전처리 : 어떤 방식으로 데이터를 전처리할지 결정해야 합니다. 텍스트 데이터의 경우 토큰화, 정제, 불용어 제거 등의 과정이 필요하며, 이미지 데이터는 크기 조정, 정규화 등이 필요합니다.

    ② 모델 선택 : 어떤 임베딩 모델을 사용할지 선택하는 것이 중요합니다. Word2Vec, GloVe, FastText, BERT, CLIP 등 다양한 모델이 있으며, 각 모델의 특성과 장단점을 고려해야 합니다.

    ③ 계산 비용 :벡터 임베딩을 생성하고 활용하는 데 필요한 계산 비용을 고려해야 합니다. 대규모 데이터셋을 다룰 경우, 효율적인 계산 방법과 인프라가 필요합니다. 특히, 클라우드 기반 인프라나 분산 처리 시스템을 활용하면 성능을 극대화할 수 있습니다.

    ④ 성능 평가 : 임베딩의 성능을 어떻게 평가할지 고민해야 합니다. 적절한 평가 지표를 설정하고, 모델의 성능을 지속적으로 모니터링해야 합니다. 이 과정에서도 인프라의 안정성과 성능이 중요한 역할을 합니다.

    이외에도 많은 요소들을 신경써야하며, 더불어 보통 한명의 ai 엔지니어가 모든 것을 진행해야하는 것이 가장 큰 고민이라고 할 수 있습니다. 

     

    3. 글로벌 IT 기업 A사는 어떻게 해결하고 있을까?

    미국 실리콘밸리에서도 이러한 문제는 당연히 일어나고 있습니다. 그들은 어떻게 해결하고 있는지 살펴볼까요?

    1)  글로벌 IT 기업 A사의 멀티모달 검색 엔진 시스템 개발부터 운영까지 과정

    임베딩한 데이터를 실제 서비스 연결까지 과정을 설명드리겠습니다. 

    ① 구축 : 임베딩 서빙 및 인프라 최적화

    구축을 할때는 데이터 프로세싱 > 임베딩 모델 파인튜닝 > 랭킹 모델 제작 > 검색결과 평가 순으로 진행합니다.  이때 스택은 AWS S3, CatBoost, Hugging Face, Pytorch을 이용한다고 합니다. 

    ② 운영 : 임베딩 서빙 및 인프라 최적화

    운영할때에는 임베딩 서빙 > 임베딩 모델 파인튜닝 > 랭킹 모델 제작 > 검색결과 평가 순으로 진행된다고 합니다. 이때 사용되는 스택은 vLLM, Milvus, Qdrant, Apche Spark, Airflow, Apache Kafka, AWS Lambda, AWS S3입니다.

    2) 텍스트와 이미지 데이터를 벡터 모델 1개로 병합하니 정확한 답변 도출이 안 된다면?

    답변이 정확한 멀티모달 AI를 만들기 위한 3가지 임베딩 모델 파인튜닝 기법으로 해결 가능합니다. 

    ① Supervised Fine-Tuning

    모델이 주어진 입력에 대해 원하는 출력을 학습하도록, 라벨이 포함된 데이터셋으로 모델을 미세하게 조정하는 방식입니다.

    ② Reinforcement Learning from Human Feedback 

    사람의 피드백을 기반으로 보상을 설정해, 모델이 특정한 행동을 강화하도록 학습하는 강화 학습 기반의 미세 조정 방식입니다. 

    ③ Direct Preference Optimization

    사용자의 선호도를 반영하는 목적 함수를 모델이 직접 최적화하도록 학습해, 원하는 결과를 생성하는 미세 조정 방식입니다. 

    3) 성능 병목 현상 때문에 추론지연 시간이 길어진다면?

    먼저 병목현상이 발생하는 지점을 파악하고, 병목 해결을 위한 설계, 그리고 실제 분산 시스템 구현하면 되는데요!

    이런 문제 해결 방법들, 글보단 직접 실습하며 배우면 좋겠죠?

    4. 글로벌 IT 기업 A사 온디바이스 AI 엔지니어로 일하고 있는 현직자에게 배울 기회!

    현직자가 글로벌 IT기업 A사에서 구축부터 운영했던 노하우 그대로, 여러분들의 고민을 모조리 해결시켜드립니다! 더불어 실리콘밸리의 테크회사 인터뷰 트렌드까지 공개하니, 해외취업에 관심 있었던 분이라면 놓치지말고 들어보세요! 

    자세한 강의 내용 살펴보기

     

  • 반도체 공정 엔지니어 현실, 실제 업무 (파이썬, 데이터 분석 지옥)

    반도체 공정 엔지니어 현실, 실제 업무 (파이썬, 데이터 분석 지옥)

    엔비디아, SK 하이닉스 등을 중심으로 반도체 기업이 글로벌 시장의 주름을 잡고 있는데요,

    아래 그래프를 보시다 보면 엄청난 속도로 빠르게 성장하고 있습니다.

     

    [ 글로벌 반도체 기업 기업가치 상승률 ]

     이런 성장을 보이는만큼 많은 공대생 분들도 삼성, SK하이닉스 등 반도체 기업에 취업을 희망하고 있습니다. 실제 인크루트의 ‘2023 대학생이 뽑은 가장 일하고 싶은 기업’을 설문 조사 바탕으로 삼성이 1위, SK하이닉스가 9위에 올랐다고 해요!

    출처: “삼성·카카오 가고싶어”…대학생이 ‘가장 일하고 싶은 기업’은 [그래픽뉴스], 이투데이, 2023-06-14

     

    요즘 반도체 시장이 꽃길만 놓인 듯한 분위기인데, 실제로 현장에서 일하는 공정 엔지니어들은 그 이면에서 많은 고생을 하고 있어요. 수율을 높이기 위한 노력은 다하고 있지만 이게 생각보다 쉽지 않거든요😢

     

    반도체 공정에서 수율은 항상 가장 큰 고민거리인데요! 공정 엔지니어들은 데이터 분석을 통해 공정 모니터링, 최적화, 예측 모델링 등을 활용해서 수율을 높이려고 애쓰고 있어요. 그런데 문제는 그 과정에서 마주치는 데이터의 양과 복잡성이 정말 어마어마하다는 거죠.

     

    많은 엔지니어가 반도체 공정 데이터 전처리, 분석, 시각화 과정이 마치 지옥 같다고 표현하는 이유도 바로 여기에 있어요. 방대한 반도체 공정 데이터 속에서 의미 있는 인사이트를 찾아내는 게 쉽지 않아서, 데이터 분석의 늪이라고 볼 수 있어요.

     

    현장에서는 아래처럼 다양한 데이터 분석이 거의 필수라고 해요.

     

    이런 많은 양의 데이터를 다루다 보니 엑셀로는 많은 한계점이 있어요. 그래서 실제로 우리가 알만한 제조 & 반도체 기업 대부분은 파이썬을 활용해 데이터 분석을 진행하고 있어요.

     

    파이썬의 경우, 대량의 데이터를 빠르게 처리 가능하고 다양한 라이브러리를 지원한다는 장점이 있는데요! 데이터 처리, 분석, 시각화를 위한 많은 기능을 제공하고 있기에 이를 활용해서 효율적이고 최적화된 반도체 공정 데이터 분석 업무를 진행할 수 있다고 합니다.

    아래는 파이썬으로 진행하는 대표적인 반도체 공정 데이터 분석 프로젝트만 정리해 봤어요:)

     

    ▶️ fab에서 매 순간 수많이 쌓이는 데이터를 구분하고, 시계열로 정리하여 그래프로 구현해요

     

    ▶️ 불량 유발 공정을 찾기 위해 파이썬으로 이상치 탐지 알고리즘을 적용해요.

     

    ▶️ 통계적 분산분석을 통해 반도체 공정을 위한 여러 설비가 모두 동일한 성능을 나타내는지 확인해요.

     

    ▶️ wafer에 나타난 defect map 이미지를 바탕으로 파이썬을 통해 유사한 defect map 유형을 구분해요.

    반도체 공정 데이터 분석은 이제 파이썬 없이는 불가능한 시대가 되었어요.
    데이터 분석의 지옥에서 벗어나기 위해, 수율을 높이기 위해서는 파이썬으로 공정 데이터 분석이 필수적이에요!


    반도체 기업의 보안이 워낙 심하다 보니 어떻게 데이터 분석 경험을 쌓아야 할지 또 어떤 데이터로 실습을 해봐야할지 고민이 될 텐데요, 이런 분들을 위해 현업 유사 반도체 공정 데이터로 실습 프로젝트를 진행하는 강의가 나왔어요!

     

     🔽 실무 데이터 분석 99.9%를 옮긴 반도체 공정 데이터 분석 강의🔽

     
  • 보수적인 건축 디자인 시장에서 1군 건축 디자이너가 AI를 받아드리게 된 계기ㅣ3D 렌더링, 모델링

    보수적인 건축 디자인 시장에서 1군 건축 디자이너가 AI를 받아드리게 된 계기ㅣ3D 렌더링, 모델링

    최근 건축 및 인테리어 시장에서 AI에 대한 이야기가 자주 등장하고 있습니다. 건축 디자이너와 인테리어 디자이너에게 AI는 생소한 분야이지만, 분명한 점은 AI가 디자이너의 업무를 보조하거나 개선할 수 있는 도구로 점차 자리 잡고 있다는 사실입니다.

    특히 AI가 강력한 도움을 줄 수 있는 분야 중 하나가 바로 3D 렌더링건축 모델링입니다. 기존의 렌더링 방식은 시간이 오래 걸리고 복잡한 작업 과정을 요구했습니다. 반면, AI 기반의 도구는 이를 단축하고 효율성을 극대화하며, 동시에 높은 수준의 결과물을 제공합니다.

    본격적으로  기존의 렌더링 방식과 AI 기반 툴인 Stable DiffusionComfyUI를 비교하고, 현업에서 이 도구들을 활용한 사례와 추천 이유를 구체적으로 설명드리겠습니다.

     

    1. 기존 렌더링 vs Stable Diffusion 및 ComfyUI 기반 렌더링

     

    기존의 3D 렌더링 방식 3D 모델링부터 렌더링까지 모든 과정을 세밀하게 작업해야 했으며, 결과물을 만들기까지 많은 시간이 소요되었습니다. 이를 위해 SketchUp, Rhino, 3ds Max와 같은 프로그램이 사용되었고, 고퀄리티의 결과물을 얻기 위해서는 고사양의 하드웨어와 기술적 숙련도가 필요했습니다.

    이와 비교해 Stable DiffusionComfyUI는 작업의 효율성을 획기적으로 향상시켰습니다. 텍스트 프롬프트 또는 간단한 이미지 레퍼런스만으로 고품질의 3D 렌더링 이미지를 단시간에 생성할 수 있습니다.

    예를 들어, 기존의 방식으로는 건축 도면을 기반으로 공간을 모델링하고, 조명을 배치한 뒤, 렌더링 작업에 수 시간 이상을 투자해야 했습니다. 반면에 Stable Diffusion을 사용하면 “모던 스타일의 리조트 로비”라는 텍스트 입력만으로 몇 분 만에 결과물을 생성할 수 있습니다. 이러한 차이는 시간적, 비용적 관점에서 매우 큰 이점을 제공합니다.

    ComfyUI는 작업 과정을 노드 기반의 인터페이스로 시각화하여 사용자가 각 단계에서 원하는 부분을 제어할 수 있도록 돕습니다. 이를 통해 디자이너는 특정 요소를 세밀하게 조정하거나 창의적인 실험을 진행할 수 있습니다. 이러한 유연성은 기존 툴에서는 경험하기 어려웠던 새로운 접근 방식을 가능하게 합니다.

    2. AI 도구의 유용성과 추천 이유

    제가 Stable Diffusion을 처음 사용했을 때, 가장 크게 느낀 장점은 생산성이었습니다. 일반적으로 고퀄리티의 3D 렌더링 작업은 3~5일 정도의 작업 시간이 필요했지만, Stable Diffusion을 통해 이러한 작업을 단 몇 시간 내에 마칠 수 있었습니다.

    특히 고객의 피드백에 즉각적으로 대응할 수 있다는 점이 인상적이었습니다. 예를 들어, 고객이 원하는 특정 스타일이나 분위기를 텍스트로 설명했을 때, Stable Diffusion은 이를 빠르게 반영하여 시각화된 결과물을 제시할 수 있었습니다.

    Stable Diffusion의 또 다른 장점은 텍스트와 이미지를 결합한 작업 방식을 제공한다는 것입니다. 이를 통해 고객이 추상적으로 표현한 아이디어도 구체화할 수 있었습니다. 또한, ComfyUI의 시각적인 인터페이스는 작업의 진행 상황을 한눈에 파악할 수 있도록 돕고, 각 단계를 세부적으로 조정할 수 있는 유연성을 제공합니다.

     

    Stable Diffusion과 ComfyUI를 추천하는 이유:

    1. 생산성 향상: 반복적이고 시간이 오래 걸리는 작업을 줄이고, 디자이너가 창의적인 디자인에 집중할 수 있는 시간을 확보해줍니다.

    2. 퀄리티 보장: 텍스처, 조명, 디테일이 섬세하게 구현되어 기존의 렌더링 방식 못지않은 품질을 제공합니다.

    3. 비용 절감: 고사양 하드웨어 없이도 뛰어난 결과물을 얻을 수 있어 장비 및 운영 비용이 절감됩니다.

    4. 고객 맞춤화: 트렌디한 디자인 요소를 빠르게 반영하고, 고객의 피드백을 즉각적으로 반영할 수 있습니다.

    5. 창의적 실험 가능: 노드 기반의 ComfyUI를 통해 다양한 디자인 시도를 부담 없이 진행할 수 있습니다.

    현재 1군 건축 및 인테리어 업계에서도 Stable DiffusionComfyUI를 포함한 AI 기반 툴의 사용이 빠르게 증가하고 있습니다. 이러한 변화는 단순히 작업 시간을 단축시키는 데 그치지 않고, 디자이너가 더욱 창의적이고 전략적으로 작업할 수 있도록 돕습니다.

    특히 3D 렌더링건축 모델링 과정에서 AI 도구의 활용은 점차 필수적인 요소로 자리 잡고 있습니다. 기존의 방식에 비해 생산성과 효율성이 뛰어나고, 디자이너가 고객의 요구에 더 빠르고 정확하게 대응할 수 있다는 점에서 큰 강점을 가지고 있습니다.

    건축 및 인테리어 디자이너로서 변화하는 시장에서 경쟁력을 갖추기 위해서는 AI 도구의 활용법을 익히는 것이 필수적입니다. 이를 통해 단순히 효율성을 높이는 것을 넘어, 디자인의 질과 창의성을 함께 향상시킬 수 있습니다.

    저희 강의에서는 건축/인테리어 디자이너를 위해 특별히 설계된 Stable DiffusionComfyUI의 실전 사용법을 체계적으로 알려드립니다. AI와 함께 변화하는 건축 디자인 시장에서 경쟁력을 갖추고 싶다면?

     



    ▶▶▶ https://bit.ly/3V4RdPM 

     
  • 요즘 대세 MSA, 잘 알고 사용해야 하는 이유 ft. 잘못된 성공 방정식이 가지고 온 비극

    요즘 대세 MSA, 잘 알고 사용해야 하는 이유 ft. 잘못된 성공 방정식이 가지고 온 비극

     | 마이크로서비스 아키텍처의 등장

     

    마이크로서비스 아키텍처가 언제 시작되었다고 할지는 관점에 따라 다를 수 있지만, 2014년 3월에 마틴 파울러와 샘 뉴먼이 발표한 마이크로서비스에 관한 글이 이 아키텍처의 확산에 큰 영향을 미친 것은 분명합니다. 그리고 사실, 이 글에서 제시된 마이크로서비스 아키텍처 개념은 기존 소프트웨어 개발에서 발생하는 문제들을 해결하기 위해 많은 프로젝트 현장에서 시도되고 있던 다양한 방법들을 정리한 것이기 때문에, 많은 아키텍트들과 개발자들에게 이 개념이 받아들이기 어렵다거나 뜬구름 같은 느낌으로 다가오지는 않았습니다. 

    대부분이 ‘마음만 먹으면 가능한’ 것들이었으니까요. 특히 당시에는 넷플릭스 OSS 스택이 출시된 상태였고, 퍼블릭 클라우드 환경의 활용도 활발히 논의되던 시기였기에 기술적으로도 큰 제약이  없었습니다. 게다가 모바일 애플리케이션 시장이 폭발적으로 성장하면서 새로운 시스템 구축에 대한 필요와 예산, 인력도 충분했던 상황이었죠. 덕분에 국내의 보수적인 소프트웨어 개발 현장에서도 마이크로서비스 아키텍처는 비교적 빠르게 확산되고 대부분 성공적으로 자리 잡을 수 있었습니다.

    문제는 마이크로서비스 아키텍처의 확산이 지나치게 빠르고 성공적으로 이루어졌다는 점입니다. 일반적으로 마이크로서비스 아키텍처의 부작용이라 하면, 메모리와 CPU 수준에서 처리할 수 있는 작업이 네트워크 레벨로 옮겨지면서 발생하는 성능 문제, 조직 구조와 맞지 않는 서비스 경계로 인해 발생하는 끝없는 조직 개편과 리팩토링, 자동화되지 못한 빌드와 배포 파이프라인으로 인해 점점 커지는 배포 작업, 조직 간 커뮤니케이션 부재로 인한 오해와 오류 등이 떠오릅니다. 현재는 대부분 이러한 부작용을 방지하기 위해 마이크로서비스를 도입하기 전에 신중한 준비와 고려가 필요하다는 점을 알고 있지만, 막 마이크로서비스가 유행하기 시작했던 당시에는 ‘우리도 마이크로서비스를 도입했다’라는 선언의 유혹을 이기지 못한 많은 프로젝트 현장이 충분한 준비와 고려없이 마이크로서비스 아키텍처라는 간판을 내걸기 시작했습니다.

    그 결과, 마이크로서비스 아키텍처는 현장에 지나치게 빠르게 퍼져 나갔고, 부작용에 대한 검증이 이루어지기도 전에 ‘성공’이라는 평가가 내려졌습니다. 누군가는 성공의 보상을 받고 떠났지만, 남은 사람들은 ‘성공한 프로젝트’를 이어받아 부작용을 감내하기 시작했습니다. 그리고 그 과정에서 마이크로서비스 아키텍처에 상처받는 개발자들이 하나둘 등장하게 되죠.

     

     | 마이크로서비스 아키텍처는 왜 급하게 확산되었을까?

    사실, 급하게 확산되는 상황은 마이크로서비스 아키텍처에서만 유별나게 나타나는 것은 아닙니다. 특히 연간 목표나 KPI를 위주로 개발 목표가 정해지는 기관이나 회사에서 어떤 새로운 기술 트렌드가 확산될 때 이 기술의 ‘적용’이 목표가 되는 경우가 많은 것이지요. 모바일 애플리케이션, 챗봇, 머신러닝, 클라우드, LLM, 마이크로서비스 아키텍처는 모두 각기 그 기술이 지향하는 목표와 풀고자 하는 문제가 분명하게 있는데. 현장에서는 그 기술이 왜 트렌드가 되었는지, 어떤 문제를 해결하고자 하는지, 무엇을 만들고자 하는지에 관심을 가지지 않고 ‘우리도 이거 적용했어요’라는 보고를 올리기 위한 프로젝트를 발주하고 있는 것입니다. 이러한 이유로 모바일 애플리케이션의 경우 앱 스토어에 등록만 하면 성공이고, 챗봇은 고객센터 전화번호만 알려줘도 성공이 되는, 프로젝트가 반드시 성공할 수밖에 없는 상황들이 만들어집니다.

    마이크로서비스 아키텍처의 경우도 마찬가지로, 프로젝트의 성공과 실패를 판정하는 사람들이 이 서비스들이 제대로 분리되었는지, 지속적으로 배포 가능한 환경을 구축했는지, 변경에는 유연하게 대응할 수 있는지 등에 대한 판단을 할 수 있을리가 없으니 대부분의 마이크로서비스 전환 프로젝트는 프리패스로 성공할 수밖에 없었던 것이죠. 물론 그 많은 프로젝트들이 다 엉망이었다거나 하는 척만 했다는 것은 아닙니다. 대부분은 각자가 이해한 방식대로 마이크로서비스 아키텍처를 구현했죠. 하지만 그 목표가 ‘마이크로서비스 아키텍처의 적용’이었던 많은 프로젝트들은 마이크로서비스를 적용해서 얻고자 했던 가치가 무엇인지 모르는 상태로 대부분 어정쩡하게 성공했습니다.

    이 상황들 자체는 조금 답답할 수는 있어도 아주 큰 문제라고 보기는 어렵지만, 문제는 여기서 등장합니다. 어느 순간부터 마이크로서비스 아키텍처가 목표가 아닌 수단이 되기 시작했고, 어정쩡한 성공의 기억은 미화되어 그냥 성공의 기억으로 남게 되었습니다. 그 결과, 새로운 프로젝트를 마이크로서비스 아키텍처로 만드는 것이 당연해지게 되어 서비스를 억지로라도 나눠야되는 상황들이 발생하기 시작했고, 쿠버네티스 (Kuberentes) 환경에서 유레카(Eureka)를 띄우는 것과 같은 망측한 결과물이 나타나기 시작했습니다. 2016년쯤에 완성된 마이크로서비스 아키텍처는 넷플릭스 스택이나 스프링 클라우드 스택을 사용하는 것이 당연했고, 이 스택의 적용이 성공했으니 퍼블릭 클라우드와 쿠버네티스를 기반으로 하는 2018년이나 2019년도의 프로젝트에서도 성공 방정식을 적용하듯이 기존 스택들을 끌어오기 시작한 것이죠.

     

     | 중요한 것은 마이크로서비스 아키텍처가 아니다

    사실 마이크로서비스 아키텍처는 그렇게 중요하지 않습니다. 정확히 말하면 저 타이틀 자체는 아무것도 아니라는 것이죠. 진짜 중요한 것은 마이크로서비스 아키텍처가 왜 시스템을 여러 작은 서비스로 분할하려고 하는지에 대한 배경과 목적입니다. 지난 10년간 너무나 많은 프로젝트들이 마이크로서비스 아키텍처라는 타이틀에 집착하여 나누지 않아도 될 시스템을 나누게 되었고, 그 결과 모놀리식 시스템이 더 적합한 프로젝트들이 마이크로 서비스로 분활되어 부작용만 뿜어내는 구조를 가지게 되었습니다. ‘이 시스템은 몇 개의 서비스로 분할되는 것이 맞는가?’와 같은 구조적인 해석을 요구하는 질문에 딱 맞아떨어지는 정답이 없다보니 마이크로서비스 아키텍처에 대한 각각의 해석이 난무하게 되었고, 이 해석이 각자의 성공 경험으로 치환되면서 세상에 수많은 ‘우리식 마이크로서비스 아키텍처’가 생겨나게 되었습니다. 

    마이크로서비스 아키텍처가 본격적으로 확산되기 시작한지 10년이 되었고, 그 시기에 만들어진 시스템들이 이제 레거시 시스템이 되어가는 이 시점에서 마이크로서비스 아키텍처가 왜 등장하게 되었고 그 이전에는 어떤 문제들이 있었는지, 혹시 마이크로서비스 아키텍처가 당연하게 쓰이는 지금에는 그 문제들이 다 해결되었는지 생각해보는 것은 목표 지향적으로 달려온 소프트웨어 개발 현장에 적절한 브레이크가 될 수 있을 것이라고 생각합니다. 조금 역설적으로 들릴 수 있지만, 마이크로서비스 아키텍처에 대한 이해가 깊어지면 오히려 마이크로서비스 아키텍처를 사용하지 않는 선택을 할 수도 있을 것이고, 반대로 마이크로서비스 아키텍처를 정말 필요한 곳에 적절하게 적용할 수도 있을 것입니다.

    대부분의 마이크로서비스 아키텍처 (MSA) 강의나 도서에서는 원론적인 이야기만 하고, 이 마이크로서비스 아키텍처가 가진 실질적인 문제점들을 숨깁니다.

    하지만, 패스트캠퍼스에서 출시한 [MSA 워크샵 : 12가지 핵심 기술로 구현하는 MSA 실무 프로젝트] 강의에서는 MSA 실무자들을 위해 MSA 구현시 발생하는 문제 상황들과 주의해야 할 기술들까지 단점부터 장점까지! 전부 알려줍니다.

    개발자들이 가장 어려워하는 비동기 호출, 트랙잭션 처리, CQRS 패턴을 포함한 12가지 MSA 핵심기술은 물론, SNS 프로젝트로 실무에서 마주치는 다양한 실패 케이스까지 함께 해결해볼 수 있다고 하는데요.



    현장에서 발생하는 실무 이슈들을 담은 Q&A집까지 무료로 제공한다고 합니다!

    대기업 리드급 현직 개발자에게 배우는 실무 중심의 MSA, 지금 바로 만나보세요 >>

  • 프로덕트 디자이너의 구세주, Rive 파헤치기 l 애프터 이펙트와 기능, 가격, 장점 비교

    프로덕트 디자이너의 구세주, Rive 파헤치기 l 애프터 이펙트와 기능, 가격, 장점 비교

    | 이렇게 좋은 툴이 있었다고?

     

    현업 프로덕트 디자이너 분들! 다들 After Effect나 Lottie로 웹/앱 환경에서 모션그래픽 제작할 때 이런적 한 번쯤 있지 않으신가요?

     

    ▶ 무거운 파일 용량으로 인해 저화질의 모션을 사용해서 화질이 깨짐

    ▶ 개발자와 일정 맞추느라고 프로젝트 진행이 늦어져 결국 모션 그래픽을 구현하지 못함

    ▶ 의도했던 인터랙션과 다른 퀄리티의 모션이 제작됨

     

    등등 …

    그동안 이러한 상황 때문에 스트레스 받은 여러분을 위한 구세주를 하나 소개해 드리려고 합니다. 바로 Rive인데요!

     

      

     

    Rive는 인터랙티브 애니메이션 제작에 특화된 툴로, 웹/앱 환경에서 개발 없이도 인터랙티브한 모션 그래픽을 구현할 수 있어 개발에 지쳐있는 프로덕트 디자이너에게는 아주 매력적인 툴이랍니다! 실시간 인터랙션 구현이 가능하고, 제작부터 수정, 추출까지의 과정이 비교적 간편하며, 파일 용량을 걱정할 필요 없이 원하는 모션을 전부 제작할 수 있다는 장점을 지니고 있어요.

    아직 국내에서는 Rive 사용 사례가 적지만, 세계적인 기업들에서는 이미 앱 내의 인터랙티브를 중요하게 여기고 Rive를 도입하고 있어요. 곧 국내에서도 여러 기업에서 Rive를 도입할 것으로 보이니 그전에 Rive에 대해 알아두고 있는 것이 좋겠죠??




    | 애프터 이펙트 VS Rive 

     

    보통 디자이너 분들이 모션 그래픽을 제작할 때 가장 많이 사용하는 애니메이션 제작 툴은 애프터 이펙트일 텐데요. 

    애프터 이펙트와 Rive 둘 다 모션 그래픽을 제작할 수 있다는 공통점이 있다는 사실은 위의 설명을 보셔서 이미 아실 테고, 어떤 다른 점이 있는지 궁금하시죠? 

     

    애프터 이펙트와 Rive의 차이점은 크게 3가지로 나누어 설명할 수 있어요.

     


    <왼쪽: 애프터 이펙트 / 오른쪽: Rive>

     

    1. 개발

    애프터 이펙트로 인터랙티브 모션 그래픽을 제작할 시 개발 과정이 필수적인데요! 개발자와의 일정 조정.. 의도했던 바와는 다른 결과물.. 이 개발 과정 때문에 스트레스 받으시는 분들이 많아요. 그러나, Rive는 개발 과정이 없어도 된답니다! 개발 없이 State Machine으로 인터랙티브 모션 그래픽을 제작할 수 있어요. 또한, 실시간 인터랙션이 가능하여 사용자 친화적 모션 그래픽을 제작할 수도 있고, 제작하고자 하는 모션 그래픽에 대한 개발자의 이해가 필요하지 않아 모션 그래픽 제작 시간을 훨씬 단축할 수도 있답니다.

     

    2. 파일 크기

    애프터 이펙트를 사용하시면서 디자이너 분들이 가장 크게 느끼는 불편 사항이 바로 파일 크기인데요. 무거운 파일 크기 때문에 화질이 좋지 않은 모션을 사용하거나 끊기는 그래픽을 구현한 적이 있으시죠? Rive는 애프터 이펙트 대비 최대 7~90%의 적은 파일 크기로, 원하는 모션을 전부 구현할 수 있고 끊기지 않고 부드러운 그래픽 구현이 가능하답니다! 

     

    3. 가격

    가장 중요한 가격! 애프터 이펙트의 경우, 사용하기 위해서는 Adobe 공식 사이트에서 구독하여 매월 일정한 요금을 지불하여야 하는데요. Rive는 무려 무료 툴이랍니다. 개발 없이, 파일 용량 걱정 없이 인터랙티브한 모션 그래픽을 제작하는 것이 가능한데 심지어 무료라니! 정말 좋은 툴이지 않나요?

     

    이와 같은 특징을 지니고 있는 Rive는 특히 파일 용량 및 로딩 오류에 민감한  웹/앱 프로덕트 디자이너에게는 더 구세주처럼 느껴질 텐데요. 이렇게 유용한 Rive 사용법이 궁금하시다고요?




    | 이젠 Rive로 인터랙티브 모션 그래픽 제작!

     

    패스트캠퍼스의 [Rive를 활용한 인터랙티브 모션 그래픽 디자인] 강의에서는 웹/앱 환경에서 개발 없이 무한한 인터랙티브 모션 그래픽을 제작하는  방법을 배울 수 있어요. 파일 용량, 오류 걱정 없이! 기존에 애프터 이펙트를 사용할 줄 몰라도! 누구나 실시간 인터랙션을 구현하고 쫀득한 모션 그래픽을 제작할 수 있는 다양한 예제들이 준비되어 있답니다. 또한, 본 강의 수강 후 강의에서 진행한 예제 중 1가지를 선택해 야핏무브의 통&매너에 맞게 제작하여 구글폼으로 제출하면 “야핏무브” 프로덕트 디자이너 채용의 서류 전형을 대체하는 혜택까지 제공한다고 하니 취업을 준비하거나 이직을 생각하는 예비/현업 프로덕트 디자이너 분들은 이 기회 놓치지 마세요!

     

    [Rive를 활용한 인터랙티브 모션 그래픽 디자인] 강의 들으러 가기

     

  • 로봇 SW 개발자들의 꿈, 자율주행 시스템 구현의 비밀

    로봇 SW 개발자들의 꿈, 자율주행 시스템 구현의 비밀

     

    전 세계 자율 로봇 시장이 빠르게 성장하면서, 관련 기술의 중요성은 날로 커지고 있습니다.

    시장조사 업체 리서치앤마켓에 따르면, 글로벌 로봇 시장은 연평균 36%의 성장률을 기록하며 2030년까지 약  248조 5천억 원 규모로 성장할 것으로 전망됩니다.

    이는 단순한 숫자가 아니라, 자율주행 기술이 산업 전반에 얼마나 큰 영향을 미칠지 보여주는 지표인데요.

     

     

    테슬라, 구글, 아마존 같은 글로벌 기업들이 이 시장에 뛰어들어 자율주행과 로봇 기술을 미래의 핵심 먹거리로 삼는 이유이기도 합니다.

     

    (출처 – 테슬라)

     

    특히 최근 화제가 된 테슬라의 ‘사이버캡’은 자율주행 기술의 진보를 상징적으로 보여주는데요. 

    미래지향적인 디자인과 고성능을 갖춘 이 차량은 더 향상된 자율주행 소프트웨어를 탑재해 운전자가 개입할 필요 없이 차량 스스로 목적지까지 주행하는 모습을 보여줍니다. 

     

    이렇게 자율주행 기술이 점점 더 실용화되는 상황에서, 로봇 SW 개발자를 꿈꾸는 사람이라면 자율주행 시스템이 어떻게 구성되고 작동하는지 깊이 이해하는 것이 매우 중요해지고 있습니다.

    지금부터, 자율주행 시스템 개발에 핵심이 되는 기술들을 살펴보고, 그 기초부터 체계적으로 배울 수 있는 방법을 함께 알아보겠습니다.  

     

     | 자율주행을 가능하게 해주는 기술들

     

     

    1. ROS2 (Robot Operating System 2)

     

     

    ROS2는 로봇 소프트웨어 개발의 필수 프레임워크로, 특히 자율주행 시스템 구축에 필요한 다양한 기능들을 제공합니다. 

    ROS2는 기존 ROS의 업그레이드 버전으로, 분산 컴퓨팅과 실시간 제어 기능이 강화되어 자율주행 로봇, 특히 자율주행자동차와 같이 높은 안정성과 성능이 요구되는 환경에서 뛰어난 성능을 발휘하는데요.

    ROS2는 퍼블리셔-서브스크라이버(Pub-Sub) 통신 구조를 사용하여 여러 센서나 제어 모듈이 데이터를 주고받기 쉽도록 설계되었습니다. 

    예를 들어, 자율주행차에 탑재된 여러 센서(라이더, 카메라, IMU 등)가 실시간으로 데이터를 ROS2 시스템에 전달하면, ROS2는 이를 바탕으로 차량의 위치, 주변 환경 인식, 경로 계획 등을 관리하고 실행할 수 있게 해주죠. 이러한 데이터 통합과 모듈 간의 통신은 자율주행차가 안정적으로 주행을 수행하는 데 필수적입니다.

     

     

    2. SLAM (Simultaneous Localization and Mapping)

    SLAM은 자율주행에서 “Simultaneous Localization and Mapping”의 약자로 동시적 위치 추정 및 지도 작성’ 이라는 뜻을 가지고 있습니다. 로봇이 사전 준비된 지도나 GPS 없이도 스스로 주변 환경을 인식하며 위치를 파악하고, 이동 가능한 지도를 작성하는 기술인데요. 자율주행에서 SLAM은 핵심 역할을 하며, 특히 GPS 신호가 닿지 않는 실내나 도심의 밀집 지역에서도 자율주행이 가능하도록 돕습니다.

    SLAM의 동작 원리는 주변 환경을 탐지하는 여러 센서 데이터를 통해 로봇의 현재 위치를 계산하고, 동시에 주변 지도를 작성하는 것입니다. 

    SLAM이 사용되는 주요 센서로는 라이더(LiDAR)와 카메라가 있는데요. 

    라이더는 레이저를 통해 주변의 거리와 형상을 매우 정밀하게 파악할 수 있으며, 이를 통해 로봇은 주변 환경의 정확한 형태와 위치를 인식할 수 있는거죠. 카메라는 비전(시각) 정보를 제공해 로봇이 물체를 구분하고 위치를 파악하는 데 도움을 줍니다. 이를 통해 로봇이 스스로 탐색하며 이동 가능한 지도를 지속적으로 업데이트하고, 환경 변화가 발생하더라도 이를 반영하여 안전한 주행이 가능해지는거죠.

    3. Navigation2

    Navigation2는 자율주행 로봇의 경로 계획과 이동을 관리하는 소프트웨어입니다. 

    ROS2 환경에서 작동하도록 설계된 Navigation2는 로봇이 최적의 경로를 선택해 목적지에 도달할 수 있도록 경로 탐색과 장애물 회피 기능을 제공합니다.

    Navigation2의 핵심 기능은 크게 세 가지로 구분됩니다.

    첫번째는 경로 계획 기능으로, 로봇이 현재 위치에서 목표 지점까지 가는 가장 효율적인 경로를 계산하며 주변 환경의 장애물을 고려하여 최적의 경로를 선택합니다. 

    두번째는 장애물 회피 기능으로, 실시간으로 업데이트되는 센서 데이터를 통해 이동 중 발생하는 돌발 장애물을 탐지하고 회피합니다. 

    세번째는 로컬 플래너 기능으로 로봇의 주행 경로를 미세 조정하여 안전하게 이동할 수 있도록 합니다.

    이러한 Navigation2의 경로 계획 기능은 ROS2와 SLAM의 데이터를 바탕으로 이루어지며, 로봇이 목적지까지 경로를 유지하면서 실시간으로 환경 변화에 대응할 수 있게 지원합니다.

     

    결론적으로 ROS2, SLAM, Navigation2는 자율주행 시스템의 기초를 이루는 기술들로 각각 상호 보완적인 역할을 수행하며 자율주행 로봇이 주변 환경을 인식하고 주행을 계획하고, 최종적으로 안전하게 이동할 수 있게 합니다. 로봇 시스템 구현을 위해서는 이 핵심 기술들을 제대로 배우고 익히는 것이 중요한데요.

    자율주행 로봇을 직접 구현하고 싶은 개발자들을 위해 패스트캠퍼스에서 이 핵심 기술들을 총집합한 “자율주행 로봇을 위한 ROS2 & Nav2 한번에 끝내기” 강의를 출시했습니다!

    [자율주행 로봇을 위한 ROS2 & Nav2 한번에 끝내기]

    이 강의에서는 자율주행 로봇을 만드는 데 필요한 기술들인 ROS2/SLAM/Navigation2 기초 학습부터 직접 시뮬레이션 환경에서 구현하는 실습 프로젝트까지 진행해볼 수 있다고 하는데요

    다른 곳에서는 190만원 상당의 자율주행 로봇 구현 커리큘럼을 하나의 강의로 무려 20만원대에 제공한다고 합니다!

    실제 로보틱스 산업에서 사용하는 산업용 로봇, TIAGo, PMB2 활용도 하고

    글로벌 자동차 출신 로보틱스 엔지니어의 현업 경험을 통한 노하우까지 제공한다고 하니, 놓치지 마세요!

    자율주행 로봇 커리어의 첫 시작을 위한 단 하나의 강의, 지금 바로 확인해 보세요.

끝없이 이어질 인공지능의 이야기
AI:ing에서 당신의 커리어 성장이 시작됩니다.

ALL

IT

AI:ING only

AI Double UP

AI 자격증(AICA)

이벤트