전체 글
-
sLLM기반의 지식관리 챗봇 시스템 DeepKMS 웨비나 안내의 건AI 2024. 10. 8. 10:16
안녕하십니까? 코세나 이승훈 실장입니다. 최근 상용 LLM 기술도 어떤 기술이 낫다고 함부로 말할 수 없을 정도로 정말 빠르게 발전하고 또한 그 능력이 일취월장하고 있습니다. 또한, 상용 API 연동과 로컬 구축을 위한 LLM 기술들도 하루가 다르게 발전하고 있습니다. 저희 코세나의 DeepKMS는 LLM기반의 지식 관리 챗봇 시스템으로 로컬 구축과 외부 상용 API 연동 구축을 모두 지원하며 문서만 업로드하면 즉시 챗봇이 시작되는 LLM패키지입니다. 비싸고 어려운 LLM을 이제 어떤 업체나 쉽고 빠르게 경제적으로 구축해서 사용하실 수 있습니다. 이에 아래와 같이 저희 DeepKMS를 소개해드리는 웨비나를 다시 제공하고자 하오니 바쁘시더라도 많은 관심을 부탁 드립니다. [ LLM기반의 지식 관리 챗봇 시..
-
2024년 9월 생성 AI 트렌드 및 자료를 공유하고자 합니다.AI 2024. 9. 18. 18:35
양손으로 신발끈 묶고, 로봇 수리도…구글 딥마인드, 새로운 로봇 훈련법 공개https://www.aipostkorea.com/news/articleView.html?fbclid=IwZXh0bgNhZW0CMTEAAR2HiME6Ir1LhSqj5wWvEgJ9cx8KpqKfrJBDArYbPiJY6QT3KnMfgBx9OVY_aem_Yuco7iF3Oa8ZSkVyuYt6RA&idxno=3609&utm_source=pocket_shared 오픈AI, '스트로베리' 정식 출시...챗GPT에 새 모델 '오픈AI o1' 탑재https://www.aitimes.com/news/articleView.html?idxno=163388&utm_source=pocket_shared 인공지능 챗봇, 외로움 해소의 새로운 가능성 제시....
-
오픈AI의 새로운 추론 모델 o1 Preview....AI 2024. 9. 13. 11:23
오늘 오픈AI의 새로운 추론 모델 o1 Preview가 발표되었습니다... 기존 모델과 비교하여 여러 가지 중요한 차이점과 개선사항을 보여 준다고 합니다. https://openai.com/index/introducing-openai-o1-preview/?fbclid=IwY2xjawFQf2pleHRuA2FlbQIxMAABHSdnpIyPb6YPLZbCrXwtxo8EjA9VcvnXczr-M7dU4PYD7W9xPOvcHz1YRw_aem_6-Gys0cL6eJUq7uiz2BAyg https://discuss.pytorch.kr/t/openai-o1-feat-o1-preview-o1-mini/5196?fbclid=IwY2xjawFQhARleHRuA2FlbQIxMQABHWnFDKlkWNhP-9zAMFzuL7oTKmd..
-
2024년 8월 RPA 트렌드와 자료를 공유하고자 합니다.RPA 2024. 8. 24. 14:38
10가지 최고의 RPA 도구(2024년 XNUMX월)https://www.unite.ai/ko/%EC%B5%9C%EA%B3%A0%EC%9D%98-RPA-%EB%8F%84%EA%B5%AC/ 그리고, 국산 RPA 소프트웨어 시와소프트의 워크빌더https://docs.google.com/presentation/d/1X-W9fV8xIJsHmntpFgcZh-yZqYvG8XCQ/edit?usp=sharing&ouid=104254372571907138924&rtpof=true&sd=true 에스알, RPA 확대로 연간 1만 2000시간 업무단축 기대https://www.hankyung.com/article/202407153902h "잡일은 로봇이, 중요 업무는 사람이"...RPA 도입 확산https://www.koi..
-
2024년 8월 생성 AI 트렌드 및 자료를 공유하고자 합니다.AI 2024. 8. 24. 13:02
MS, 새로운 소형언어모델 '파이-3.5' 공개…"개발자들의 혁신 생태계 지원"https://www.aipostkorea.com/news/articleView.html?idxno=3184&utm_source=pocket_shared 일리야 수츠케버와 AGI의 미싱링크- 젠슨 황과의 대담https://www.youtube.com/watch?v=LQviQS24uQY 기업 내 RAG 도입의 실패 원인과 해결 방안 "검색 모델 최적화와 데이터 품질"https://www.itworld.co.kr/news/347554?utm_source=pocket_shared 차세대 AI 키워드, ‘시뮬레이션’ + AI 책 추천 ‘AI 딥다이브’https://turingpost.co.kr/p/richard-socher-simul..
-
7B ~ 10B 사이의 중형 모델에 대한 최근 벤치마크 자료AI 2024. 8. 13. 10:52
Park Sang님의 7B ~ 10B 사이의 중형 모델에 대한 지능 평가를 진행하고 결과를 소개합니다. 영어와 한국어 각각에 대한 평가를 진행했고 영어는 MMLU, 한국어는 KMMLU를 벤치마크 데이터셋으로 평가를 수행했습니다. 모든 평가는 별도의 special training method를 적용하지 않은 base model에 대한 평가로 제한했으며, pretraining 과정 중에 습득한 지식을 측정하는 형태로 진행했습니다. 결과는 다음과 같습니다. - Qwen2는 영어와 한국어 모두 가장 성능이 좋은 모델입니다. 초기 버전은 별도의 remote code가 존재하는 등 모델링과 토크나이저 문제가 있었으나 2 버전에 이르러서는 대부분의 프레임워크가 잘 지원하며 호환성 문제가 없습니다. 현존하는 가장 뛰어..
-
어떤 LLM이 한글을 더 잘할까요?AI 2024. 7. 26. 09:44
LLaMA3.1, Gemma2, Qwen2 등 최근에는 한국어도 충분히 잘하는 Multilingual LLM 들이 쏟아지고 있는데요. 그럼 이중에서 어떤걸 쓰는게 좋을까요? 누군가의 랩과 고객의 GPU를 절약해주기 위해서 공개된 KMMLU 평가셋에 대해서 한국어 좀 한다는 모델들 성능을 측정해보고 정리해놓았습니다. LLaMA3.1 405B가 아무래도 크기 때문에 가장 잘하긴 합니다만 Qwen2는 사이즈까지 고려했을때 좋은 선택으로 보입니다. 참고로 Gemma2-9B 한국어 잘하는데...KMMLU 에서는 Qwen2-7B 보다 낮게 나오네요. (다른 한국어 평가셋에서는 Gemma2가 높은 경우가 있습니다) LLM 구축 작업에 참조하십시오~~~ 김한수님의 글 중에서.....
-
기존 NLP 작업에서의 자연어처리를 위한 단계별 세부적인 기술과 LLM 작업에서의 자연어처리를 위한 단계별 세부적인 기술은 각각 어떤 차이가 있나?AI 2024. 7. 24. 22:31
1. 데이터 전처리: 1.1 기존 NLP: 데이터 수집: 웹 스크래핑, API 사용, 수동 데이터 입력 등 다양한 방법을 통해 텍스트 데이터를 수집합니다. 데이터 정제: 불필요한 문자, 오탈자, 중복 데이터 등을 제거하여 데이터 품질을 향상시킵니다. 데이터 표준화: 텍스트를 소문자로 변환하고, 특수 문자를 제거하며, 토큰화하는 등 데이터를 표준화하여 모델 학습에 적합한 형태로 변환합니다. 데이터 라벨링: 감정 분석, 품사 태깅, 개체 인식 등과 같은 작업을 위해 데이터에 라벨을 추가합니다. 라벨링 작업은 전문가가 수동으로 하거나 자동화 도구를 사용할 수 있습니다. 1.2 LLM: 데이터 수집: 방대한 양의 텍스트 및 코드 데이터를 대규모 언어 모델 학습에 활용할 수 있도록 인터넷, 도서관, 코드 저장소 ..