목록AI (5)
방카@Dev
하반기는 인공지능 관련 부서로 배치받았고,혁펜하임의 인공지능 강좌를 커리큘럼따라 공부하며대학원을 준비했다.면접 후기는한번에 다섯명의 지원자와 두분의 교수님이 면접을 진행했고1)자기소개2)코딩을 해본 경험3)통계를 공부해본 경험4)인공지능을 공부해본 경험4-1 꼬리질문) 시그모이드 함수란?4-2 꼬리질문) Vanishing Gradient가 무엇인지?4-3 꼬리질문) skip-connection이란?이렇게 질문을 받았었다.개강이 3월이지만, 그전에 다시 공부모드로미분적분학/선형대수/CS 빡공 예정.
https://www.aladin.co.kr/shop/wproduct.aspx?ItemId=343185652&start=slayer LLM을 활용한 실전 AI 애플리케이션 개발LLM의 기본 아키텍처에서 출발해 애플리케이션의 요구사항에 맞춰 LLM을 길들이고 제한된 컴퓨팅 환경에서 동작하게 경량화해서 원활하게 서빙하게끔 기초를 다진 다음에 RAG라는 LLM의 대표적인www.aladin.co.kr토큰임베딩 : 임베딩을 통해 숫자 집합인 임베딩으로 입력값 변환위치임베딩 : 트랜스포머는 순차적인 처리 방식을 버리고 모든 입력을 동시 처리 하기 때문에 순서 정보가 사라지므로, 위치 인코딩을 통해 순서 정보 추가 인코더(Encoder) : 언어를 이해하는 역할디코더(Decoder) : 언어를 생성하는 역할자기회귀적..
Let’s build GPT, Andrej Karpathy https://youtu.be/kCc8FmEb1nY?si=74Y-zuzWP__atGzUBuild a Large Language Model from scratch(번역) https://wikidocs.net/book/15693 Build a Large Language Model (From Scratch)_번역원문 출처 - https://www.amazon.com/Build-Large-Language-Model-Scratch/dp/1633437167 - https://www…wikidocs.netPytorch로 시작하는 딥러닝 입문 https://wikidocs.net/book/2788
9.20(금) 강남 코엑스에서 개최되었던 패스트캠퍼스가 주관하는 젠콘AI 컨퍼런스에 다녀왔습니다.얼리버드 티켓으로 10만원 정도 지출하고 다녀왔는데 부서에 무료 티켓이 풀렸더군요. 전반적으로 오전에는 엔비디아, 마이크로소프트의 자체 LLMOps 플랫폼에 대한 개괄적인 소개가 주를 이뤘고 오후에는 파인튜닝, RAG 등 LLM 관련 스킬에 대한 강의가 준비되었습니다. 확실히 엔비디아나 Azure 기반 LLMops 클라우드 플랫폼은 매력적인 것 같아요. H100을 모아서 온프로미스 환경을 구축할 생각이 없는 기업 입장에서는 쉽고 간편하게 LLM 어플리케이션을 구축할 수 있을 것 같았습니다. 오후에 진행되었던 컨퍼런스의 주제같은 경우, 아무래도 개발자들이 모인 컨퍼런스이기에 더욱 흥미로울만한 주제인 Fine..
모두를 위한 대규모 언어 모델 LLM(Large Language Model) Part 2 - 랭체인(LangChain)으로 나만의 ChatGPT 만들AISchool | 랭체인(LangChain) 라이브러리의 개념과 활용 방법을 학습하고, 랭체인(LangChain) 라이브러리를 이용해서 나만의 ChatGPT를 만들어보는 강의입니다., 손쉬운 LLM 구현을 위한 랭체인(LangChain), www.inflearn.com나는 유데미에서 이 강의를 들었는데 유데미에는 섹션 15부터 업데이트가 되어 있지 않다. 인프런 강의에는 업데이트되어 있으니 인프런으로 수강하면 된다. 1. RAG(Retrieval-Augmented Generation ; 검색증강생성)이란?- RAG는 LLM의 '사실 관계 오류 가능성'..