분류 전체보기 55

[MetaCode특강] 비전공자 출신 AI 개발자 전략

우연히 특강 정보를 입수해서 들었습니다!링크 : 메타코드 [12.18/저녁8시] 비전공자 & 석사 없이, AI 개발자 커리어 전환 성공 비결 3가지 metacodes.co.kr대략적인 내용을 정리해봤습니다.1. 핵심 역량 준비 (AI 서비스 개발자, AI 엔지니어)  • 기본 지식 준비 • AI/ML 모델 및 서비스 이해 • 컨테이너, API, DB 활용법 학습 • MLOps 및 파이프라인 구축 흐름 이해 • 백엔드 역량 강화 • Python, RESTful API, SQL과 같은 기본 CS 지식 필요 • 인프라 지식 학습: 클라우드(AWS, Azure), MLOps • 우대 사항 (알면 유리함) • Data Engineering: ETL, 빅데이터 처리 • AI Research: 논문 읽기 및 모델링 ..

[AI]/[AI]일상 2024.12.18

[🌠Konference]카카오테크부트캠프 기술 세미나 - 멀티에이전트시스템

카카오테크 부트캠프에서 기술세미나 Koference 를 진행합니다.저는 MAS(멀티에이전트시스템)을 중심으로 다루었으며 비전공자 수준으로도 이해하기 쉬운 난이도로 준비를 해보았습니다.최근 많이 뜨는 기술이어서 저도 논문을 참고하며 본 발표를 준비하였으며 발표자료를 첨부하겠습니다. 세미나 영상 발표 자료.jpg 발표 자료 참고 논문https://arxiv.org/pdf/1909.03475https://arxiv.org/pdf/2402.14034https://pdfs.semanticscholar.org/4c90/8503b0ed92d2db57698279c99132c8fc5735.pdf?_gl=1*1rxaysb*_gcl_au*MTE1NDA1NzE5My4xNzMyNTExOTk4*_ga*MTgwMjE1NjQxOC4..

논문 기반 검색 증강 언어 모델 OpenScholar

OpenScholar과학 문헌 검색과 요약의 새로운 길목차 배경 및 소개스팩동작원리사용 방법심화OpenScholar의 탄생 배경 과학 연구는 매년 방대한 양의 논문이 발표되면서 최신 정보를 빠르게 파악하고 활용하는 것이 점점 더 어려워지고 있습니다. 기존의 언어모델(Large Language Model, LLM)은 과학적 정보를 요약하거나 인용하는 데 많은 한계를 보였습니다. 특히, 인용 오류(hallucination)와 최신 논문을 반영하지 못하는 문제는 연구자들에게 실질적인 어려움을 안겨주었습니다. 이를 해결하기 위해 OpenScholar가 등장했습니다. OpenScholar는 검색 증강 언어 모델(Retrieval-Augmented Language Model)을 기반으로, 방대한 과학 문헌 데이터에..

[AI]/모델 2024.11.30

오픽과 tts/stt 그 사이

프로젝트 계획서: 사용자 중심 오픽 영어 학습 시스템1. 프로젝트 개요프로젝트 이름: AI 기반 오픽 학습 도우미목표: 사용자의 영어 발화를 STT(Speech-to-Text)로 변환하고, 변환된 텍스트를 LLM으로 처리해 회화 연습 및 피드백 제공. 이후 TTS(Text-to-Speech)를 통해 발음을 재생하여 학습자가 발음과 문장을 동시에 개선할 수 있도록 지원.2. 주요 기능음성 입력 및 STT 변환:사용자가 영어로 발화 → STT를 통해 텍스트로 변환.STT 변환 결과와 사용자의 의도 비교를 통해 정확도 분석.LLM을 활용한 실시간 대화 및 피드백:변환된 텍스트를 LLM(ChatGPT 등)에 입력하여 대화 문맥을 생성.사용자의 대화 흐름에 맞춘 적절한 응답 생성.발음 및 문법 오류에 대한 간단한..

한국어 특화 모델 EXAONE 논문 리뷰

Intro본 글의 목차는 논문의 흐름에 맞추었습니다.논문 : https://arxiv.org/pdf/2408.03541목차1. 초록 (Abstract)2. 서론 (Introduction)3. 모델 학습 (Model Training)4. 성능평가 (Evaluation)5. Responsible AI6. 한계 7.배포 (Depolyment)8.결론 (Conclusion)Abstract LG AI 연구소에서 개발한 대형 언어 모델(LLM) 중 첫 번째 공개 모델인 EXAONE 3.0 인스트럭션 튜닝 언어 모델은 다양한 모델 크기 중에서, 7.8B 인스트럭션 튜닝 모델을 공개하여 연구 및 혁신을 촉진하고자 합니다. 공공 및 내부 벤치마크를 통한 광범위한 평가를 통해 EXAONE 3.0은 유사한 크기의 최신 공개..

[AI]/논문 리뷰 2024.11.17

한국어 자연어 처리 언어 모델 Exaone 소개

목차Exaone 소개Exaone이란 무엇인가?개발 배경 및 목적Exaone의 기술적 특징모델 구조 및 규모한국어 최적화 기술학습 데이터 및 방법론Exaone의 성능 및 비교다른 글로벌 모델과의 성능 비교한국어 자연어 처리에서의 강점Exaone의 실제 활용 사례네이버 서비스에서의 활용 (검색, 쇼핑, 파파고 번역 등)개발자 및 기업의 활용 사례Exaone의 한계와 향후 전망현재의 한계향후 개선 방향 및 발전 가능성1. Exaone 소개Exaone이란 무엇인가?Exaone은 네이버에서 개발한 대규모 AI 언어 모델로, 특히 한국어와 관련된 다양한 자연어 처리(NLP) 작업에 최적화되어 있습니다. GPT-3와 유사한 대규모 언어 모델이지만, 한국어 처리에 있어 뛰어난 성능을 자랑하며, 한국의 데이터와 사용 사..

[AI]/모델 2024.11.16