해당 프로젝트는 네이버 커넥트재단의 부스트캠프 AI tech 3기 nlp06조 자,연어 한 접시가 최종 프로젝트로 기획하였습니다.
[T3252] 김선재 @ksj1453 |
[T3215] 차경민 @rudals0215 |
[T3140] 이도훈 @Sunjii |
[T3065] 김태훈 @thkim107 |
[T3007] 강진희 @JINHEE-KANG |
데이터 수집 및 전처리 | 데이터 수집 및 전처리 | 데이터 수집 및 전처리 | 데이터 수집 및 전처리 | 데이터 수집 및 전처리 |
데이터 분석 및 문장 추천 모델 실험 |
이미지 style-transfer 모델 실험 및 학습 |
문장 생성 모델 실험 및 베이스라인 작성 |
데이터 분석 | 키워드 추출 실험 및 이미지 검색 API 연계 |
백엔드 구축 동화 생성 모델 학습 |
동화 생성 모델 학습 | 프로토타입 및 프론트엔드 구축 동화 생성 모델 학습 |
서비스 아키텍쳐 구성 및 UI/UX 디자인 |
동화 생성 모델 학습 |
GatherBook은 사용자가 동화 문장을 입력하면 다음으로 이어질 문장을 창작하여 사용자와 번갈아가며 동화를 작성하는 참여형 창작 웹서비스 입니다.
- 다음 이야기를 쓰기 막막할 땐? AI가 제안하는 색다른 내용의 동화 전개로 아이디어를 얻고 동화 작성 시간 단축할 수 있습니다.
- AI와 함께 하는 대화형 창작 서비스로 인공지능 기술과 가까워질 수 있습니다.
GatherBook 발표 PPT는 이곳을 확인해주세요!
GatherBook 개발 일대기가 궁금하다면 여기(랩업 리포트)에서 확인할 수 있습니다
pip install -r requirements.txt
final-project-level3-nlp-06
├── KoGPT
│ ├── RESULT
│ ├── README.md
│ ├── kogpt_inference.py
│ ├── kogpt_trainer.py
│ └── util.py
├── KoGPT2
│ ├── RESULT
│ ├── datasets
│ ├── README.md
│ ├── inference.py
│ ├── main.py
│ ├── train.py
│ └── util.py
├── LanguageModel
│ ├── data
│ ├── dataset.py
│ ├── inference.py
│ ├── main.py
│ ├── model.py
│ └── train.py
├── cyclegan
│ ├── README.md
│ ├── dataset.py
│ ├── didsplay_results.py
│ ├── inference.py
│ ├── layer.py
│ ├── main.py
│ ├── model.py
│ ├── run_main.sh
│ ├── train.py
│ └── util.py
├── src
├── streamlit
│ ├── images
│ │ └── streamlit.png
│ ├── README.md
│ ├── inference_for_streamlit.py
│ └── streamlit_app.py
├── utils
│ ├── perplexity_compute_metrics.py
│ ├── perplexity_test.py
│ ├── preprocessing.py
│ └── scrapper.py
├── requirements.txt
└── README.md
Tale generation model
python KoGPT/kogpt_trainer.py
Image style-transfer model
python cyclegan/main.py
Tale generation model
python KoGPT/kogpt_inference.py
Image style-transfer model
python cyclegan/inference.py
- 어린이 전래동화 (청와대)
- 국립국어원 모두의 말뭉치 비출판물 데이터
- 그림형제 동화 번역 데이터
- 이솝우화 동화 번역 데이터
- 신춘문예 당선작
- 픽사베이 무료 이미지
- CycleGAN 공식 train datsets
- 한국출판문화산업진흥원, 스마트미디어를 활용한 독서 생활화 방안 연구
- Jun-Yan Zhu et al. , “Unpaired Image-to-Image Translation using Cycle-Consistent Adversarial Networks”
- Kichang Yang,“Transformer-based Korean Pretrained Language Models: A Survey on Three Years of Progress”
- Tom B. Brown et al. , "Language Models are Few-Shot Learners"
- Jay Alammar, How GPT3 Works - Visualizations and Animations
- Oriol Vinyals et al. , “Show and Tell: A Neural Image Caption Generator”
- Aditya Ramesh et al., “Zero-Shot Text-to-Image Generation”
- https://openai.com/blog/dall-e/