안녕하세요. 오늘은 세번째 시간으로.. 개발자 로컬PC 환경에서 개발환경을 구성하고,

지난번 이야기했던 skt/ko-gpt-trinity-1.2B-v0.5 모델을 대상으로 샘플 데이터를 생성해보겠습니다.

아래 두가지 모델 중에서 고민했는데... 어쨌거나 처음부터 완성도 있는 결과물을 기대한다면 처음부터 후자로 가는게 좋을 것 같습니다.

 

허깅페이스 한국어 학습 모델

skt/kogpt2-base-v2 약 125M 상대적으로 작음 GPT-2 구조 기반, 빠르고 가볍다. 테스트용으로 적합
skt/ko-gpt-trinity-1.2B-v0.5 약 12억 훨씬 큼 성능이 좋지만 무거움, 로컬 메모리/VRAM 부담 큼

 

어쨌거나 모처럼 노트북을 켜서 충전도 해주고, JetBrains 라이선스도 활성해주었어요.

라이선스 비용이 비싸므로 대학생/대학원생 분들께서는 학생용 라이선스를 꼭 이용하세요~

 

  • Python 3.8~3.10 권장 (최신버전이 3.13.x인데 이거로하면 동작안합니다. 저는 3.10으로 했어요)
  • PyCharm Community Edition 또는 Professional 설치
  • 가상환경(Venv) 사용 권장

 

개인적으로 VSCode도 좋아하지만, 보통 회사에서는 젯브레인 제품을 지원해주니 사용해보는걸 추천드립니다. IDE가 정말 똑똑하거든요. 개발 퍼포먼스가 몇배는 올라가는 것이 체감 됩니다.

 

간단한 샘플용 프로젝트를 생성해줍니다. 그리고 아래와 같이 커맨드를 입력해서 학습 모델을 받아주세요.

> pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu118
> pip install transformers accelerate sentencepiece

 

그다음 간단히 코드를 작성해봅시다.

from transformers import AutoTokenizer, AutoModelForCausalLM
import torch

try:
    model_name = "skt/ko-gpt-trinity-1.2B-v0.5"
    print("모델 로딩 중...")
    tokenizer = AutoTokenizer.from_pretrained(model_name)
    model = AutoModelForCausalLM.from_pretrained(model_name)

    tokenizer.pad_token = tokenizer.eos_token
    model.config.pad_token_id = tokenizer.pad_token_id

    # GPU 사용 설정 (가능할 경우)
    device = torch.device("cuda" if torch.cuda.is_available() else "cpu")
    model.to(device)

    text_to_summarize = "오늘 회의에서는 AI 스터디 그룹의 주제를 정하고, 각자 역할을 분담했다. 다음 주까지 개인 공부를 마치고 실습에 들어갈 예정이다..."
    prompt = f"다음 글을 간단하게 요약해줘:\n{text_to_summarize}\n요약:"

    inputs = tokenizer(prompt, return_tensors="pt", padding=True, truncation=True).to(device)
    input_ids = inputs["input_ids"]
    attention_mask = inputs["attention_mask"]

    print("생성 시작")
    gen_ids = model.generate(
        input_ids=input_ids,
        attention_mask=attention_mask,
        max_length=128,
        do_sample=False,
        num_beams=1
    )

    output = tokenizer.decode(gen_ids[0], skip_special_tokens=True)
    print("생성 완료:", output)

except Exception as e:
    print("❌ 오류 발생:", e)

 

제가 인풋으로 사용한 텍스트는 다음과 같습니다.

그.. 결과물은...?

 

아...ㅠㅠ..............................

학습된 모델을 기반으로 AI가 나름대로 열심히 노력해서 요약은 해주었으나 실망스러운 결과입니다..

.

.

.

한글 학습 모델들은 아직 많이 부족하다고는 알고 있었으나 충분히 여기에서 더 개선은 할 수 있을 것 같다는 생각이 드네요.

프롬프트를 적절히 사용하지 못한 것일수도 있고 어쩌면 다른 모델로 교체를 고려해야 할 수도 있겠습니다.

해당 부분은 좀 더 연구를 진행해보도록 하겠습니다!

 

추가적으로

그동안의 개발을 하는데 있어서는 전혀 무리가 없는 노트북이었는데...

이 코드를 실행하고 결과물을 산출해내는데까지 꽤나 몇분 가량이 소요가 되더라고요. (괜히 엔비디아 주가가 오르는게 아님)

 

오늘은 여기서 마치겠습니다.

 

 

 

 

 

 

주제

주간보고 자동작성 시스템

JIRA에 등록된 이슈코드 (ex. DEV-0123 등) 들을 입력받아 해당 코드들에 대한 페이지들에 접근하여 주간보고를 작성한다.

 

 

 

개발환경

파이썬, 허깅페이스, 자바스크립트

 

기능 구분

허깅페이스 AI 처리기

허깅페이스 AI 연동 모듈

JIRA 로그인 모듈

JIRA 이슈 페이지 로딩 모듈 (입력된 이슈 코드들을 기반으로 페이지들을 로드한다)

JIRA 페이지 정보 분석 모듈 (이슈 시작, 종료일, 타이틀, 본문, 댓글 등을 파싱 필요가 있을까? 이 부분도 AI로 처리해서 2단계로 하는건 어떨지... (1) 파싱 => (2) 요약 순서로)

서비스용 웹페이지

 

개발 마일스톤

6월 1~2주차 : 파이썬 기반의 허깅페이스 개발환경 구성하기

6월 3~4주차 : 모델 선정

7월 1~2주차 : 실제 데이터 기반 요약에 대한 테스트 해보기 (임의의 HTML 제공)

7월 3~4주차 : JIRA 로그인 기능 만들기

8월 1~2주차 : HTML(JIRA 이슈 페이지) 로드 기능

8월 3~4주차 : HTML 파싱 및 요약 기능

9월 1~2주차 : 웹서비스(프론트) 개발 및 연동

 

고민거리

JIRA 자동 로그인 기능.. 과연 가능할지?

주간보고 포맷에 대한 것도 사용자에게 자유도를 주어야 할지? (그래야 의미가 더 있을 것 같음) 재미있긴 할 것 같다.

실제 JIRA 문서에서 제공하는 UI 형태로 생성해 낼 수 있을까? (EX. 이슈로 연결되는 특유의 버튼UI를 재현하기 위한 텍스트, 또는 색상, 크기, bold처리 등등..)

 

레퍼런스

한국어 BERT 계열 (문장 분류, QA, 개체명 인식 등)

klue/bert-base 한국어 표준 벤치마크인 KLUE 기반. 범용적인 문장 이해에 좋음
beomi/KcBERT SNS, 위키 기반. 실생활에 가까운 문장 처리에 강함
monologg/koelectra-base-discriminator ELECTRA 구조. 속도와 성능 모두 준수

 

한국어 GPT 계열 (텍스트 생성)

skt/kogpt2-base-v2 SKT에서 학습한 한국어 GPT-2 모델. 간단한 문장 생성 가능
skt/ko-gpt-trinity-1.2B-v0.5 SKT가 만든 13억 파라미터급 GPT. 업무용 생성에도 괜찮은 성능
beomi/KoGPT6B-ryan1.5b Beomi가 만든 GPT-3.5급 한국어 전용 모델. Colab에서 실행은 무거움

 

한국어 요약 / QA / 번역 특화

ainize/kobart-news-summary 뉴스 기사 요약 전용 KoBART 모델
klue/roberta-base + SQuAD 튜닝 한국어 질문-답변 작업에 강함
Helsinki-NLP/opus-mt-ko-en 한국어 → 영어 번역 (성능 꽤 괜찮음)

 

업무 자동화 모델 구현 방식

문서 자동 요약 ainize/kobart-news-summary 요약 파이프라인 사용
문장 생성 / 자동 회신 skt/kogpt2-base-v2 pipeline("text-generation")
감정 분석 beomi/KcBERT, klue/bert-base pipeline("text-classification")
질의응답형 챗봇 klue/bert-base + QA 튜닝 pipeline("question-answering")
텍스트 번역 Helsinki-NLP/opus-mt-ko-en pipeline("translation_ko_to_en")

 

기능 구현 도구 설명

JIRA 로그인 requests.Session + 쿠키 or Selenium 회사 JIRA가 SSO거나 보안 강화되었다면 Selenium이 더 안정적
이슈 상세 HTML 가져오기 requests or Selenium 로그인 상태 유지하며 페이지 가져오기
내용 파싱 (이슈 요약, 설명 등) BeautifulSoup HTML에서 필요한 내용 추출
자연어 요약 / 문장 정리 Hugging Face 모델 (e.g., kobart) 요약, 회의 보고서 포맷에 맞게 재작성
보고서 자동 생성 Markdown / Word / 텍스트 파일 등 원하는 포맷으로 저장

 

JIRA 로그인 처리 관련하여 셀레니옴을 이용하면 가능 할 듯 하다

from selenium import webdriver
from seleniuhttp://m.webdriver.common.by import By
from seleniuhttp://m.webdriver.common.keys import Keys

driver = webdriver.Chrome()
driver.get("https://your-company-jira.com/login")

# 로그인 입력
driver.find_element(By.ID, "username").send_keys("your-id")
driver.find_element(By.ID, "password").send_keys("your-password")
driver.find_element(By.ID, "login-submit").click()

# 로그인 후, 특정 이슈 페이지로 이동
driver.get("https://your-company-jira.com/browse/DEV-123")

Hugging Face와 자연어처리(NLP) 시작하기

회사에서 스터디 그룹 활동을 지원해준다는 소식을 듣고, 저희 팀도 마음을 모아 AI 공부를 시작해보기로 했습니다.
막연히 "우리도 이제 AI 좀 알아야 하지 않을까?"라는 생각은 있었지만, 어디서부터 어떻게 시작해야 할지 막막했던 게 사실입니다.

그중에서도 자연어 처리(NLP)를 다루는 Hugging Face를 중심으로 한 튜토리얼이 잘 되어 있다는 이야기를 듣고, 이걸 중심으로 3개월간 학습 로드맵을 잡게 되었습니다.

이번 글에서는 제가 선택한 Hugging Face 튜토리얼의 전체 구성과 어떤 흐름으로 공부를 진행했는지, 또 어떤 점에서 실질적인 도움이 되었는지를 공유해보고 평범한 백엔드 개발자, 프론트 개발자, 기획자들이 AI를 향해 벌이는 진지한(?) 삽질 일지를 공유해보려 합니다.

이번 포스팅은 제가 시작한 AI 스터디의 방향성과, HuggingFace 튜토리얼을 통해 어떤 것들을 배울 수 있는지를 중심으로 구성해보았습니다.

 

HuggingFace란 무엇인가요?

허깅페이스는 사전학습된 모델을 다운로드하고, 재학습(파인튜닝)하거나, 직접 모델을 서빙(서비스화)하는 데 사용할 수 있는 오픈소스 생태계입니다.
트랜스포머 라이브러리, 데이터셋, 토크나이저, 가속기(accelerator) 등 필요한 도구들을 한곳에 모아놓은 AI 개발 종합세트라고 보시면 됩니다.

기존에 학습된 다양한 트랜스포머 모델들을 쉽게 불러와 쓸 수 있고, 파인튜닝이나 재학습도 간편하게 진행할 수 있습니다.

이 플랫폼이 특히 매력적인 이유는, 학습된 모델을 다운로드해 사용하는 것은 물론이고, 자신만의 데이터를 활용해 모델을 재학습시킨 후 서비스화까지 이어갈 수 있다는 점입니다.

예를 들어 사내 데이터로 챗봇을 만들거나, 문서 분류 모델을 구축하고 싶은 경우에도 Hugging Face의 생태계를 통해 손쉽게 시작할 수 있습니다.

 

자연어처리(NLP)란 무엇인가?

자연어처리는 인간의 언어를 컴퓨터가 이해하고 처리하도록 하는 기술입니다.
예를 들어 스팸 메일 분류, 뉴스 요약, 고객 문의 자동 응답, 감정 분석, 자동 문장 생성 등 매우 다양한 영역에서 활용되고 있습니다.

다만 사람이 언어를 이해하는 방식과 컴퓨터가 언어를 처리하는 방식에는 본질적인 차이가 있습니다.
예를 들어 "나는 배고프다"라는 문장을 들으면 우리는 즉각적으로 그 의미를 파악하지만, 컴퓨터는 이 문장을 단순한 문자 배열로만 받아들입니다.

결국 자연어처리란, 이런 인식의 차이를 줄이기 위해 수많은 언어적 맥락과 통계적 특징을 학습시키는 과정이라 할 수 있습니다.

 

스터디 로드맵: Hugging Face 튜토리얼 흐름

저희는 Hugging Face의 공식 튜토리얼을 12개 챕터로 나누어 3개월간 공부하는 계획을 세웠습니다.
튜토리얼은 전반적으로 잘 구성되어 있고, 일부는 한글로 번역되어 있어서 처음 접근하는 분들에게도 진입장벽이 낮은 편입니다. 다만 전체가 완전한 한글 문서는 아니므로 영어 문서나 코드 예제를 읽는 데 익숙해지는 것도 필요합니다.

챕터 1~4: 트랜스포머 개념과 모델 실습

  • 트랜스포머 모델의 핵심 개념과 동작 원리를 설명합니다.
  • 사전학습된 모델을 가져와 파인튜닝하는 법과, 학습된 결과를 Hugging Face Hub에 업로드해 공유하는 방법까지 배울 수 있습니다.
  • 이 과정을 통해 단순 사용자가 아니라, 실제 모델을 활용하고 응용할 수 있는 단계로 넘어가게 됩니다.

챕터 5~8: 데이터셋과 토크나이저 이해

  • 자연어 데이터를 처리하기 위한 데이터셋 구성 방식과 토크나이저(tokenizer)의 개념을 다룹니다.
  • 특히 한글과 같이 복잡한 언어의 처리 방식도 실습하면서 직접 데이터를 가공해보고 모델 학습에 활용하는 과정을 익힐 수 있습니다.
  • 이 파트를 잘 소화하면, 대부분의 NLP 과제를 혼자서도 다뤄볼 수 있는 기본기를 갖추게 됩니다.

챕터 9~12: NLP 너머로 확장하기

  • 트랜스포머 모델이 텍스트 외에도 음성, 이미지 등의 영역에서 어떻게 활용되는지를 다룹니다.
  • 텍스트 분류에만 머무르지 않고, 멀티모달 AI까지 확장하고 싶은 분들에게 좋은 참고가 됩니다.

 

 

실습 환경: Google Colab 지원

튜토리얼에서 제공하는 대부분의 실습은 Google Colab 환경에서 바로 실행해볼 수 있습니다.
코드가 미리 작성된 노트북을 열어 사본 저장을 하면, 구글 드라이브에 자신의 버전으로 저장되어 편하게 실습을 진행할 수 있습니다.

Colab은 GPU도 제공하기 때문에, 별도의 장비나 로컬 설정 없이도 모델 학습과 실험이 가능합니다.

 

 

결론..

AI는 어렵고 거창하다는 인식이 많지만 Hugging Face와 같은 생태계를 잘 활용하면 비교적 빠르게 결과를 만들어볼 수 있습니다.
저도 처음엔 아무것도 모르고 시작했지만, 튜토리얼을 따라가면서 조금씩 자신감을 얻고 있습니다.

특히 자연어 처리 분야는 업무에서 곧바로 활용 가능한 가능성이 많기 때문에, 비전공자나 자바 개발자에게도 실질적인 도움이 될 수 있는 분야라고 생각합니다.


- 시연 동영상 : 기존 내비게이션의 길안내 방향과 다른 길을 안내 받고, 실제로 또 그 길이 더 빠르게 도착하는 지름길임을 확인 할 수 있었다!



  

- (좌)실제 길안내 기능 중 스크린샷, (우)POI검색 기능


- 전체 시스템 구성도




프로젝트명

빅내비게이션

본인역할

클라이언트 애플리케이션 및 서버개발  

개발인원

2  

관련전공

캡스톤 설계I, 캡스톤 설계II

수강학기

3-2 ~ 4-1  

개발기간

1

진행사유

WPC Lab 과제 진행 및 졸업작품을 위한 프로젝트

프로젝트 소개

기존에는 내비게이션은 교통량, 날씨 및 도로의 종류와 신호등 유무까지 여러 요소들의 분석을 했다. 하지만 이러한 방법은 도로 네트워크 데이터 기반이라는 데에 한계가 있다. 기존 방법의 대안으로 본 프로젝트에서는 실제 사용자 경험 지식기반의 경로 데이터를 활용했다. 지식기반 경로 데이터란 운전자들의 운전노하우가 반영된 실제 차량 주행에 대한 정보가 담긴 GPS좌표의 집합을 의미한다. 이 데이터를 빅데이터 처리를 통해 분석함으로써 사용자들의 경험 지식에 기반한 실제적인 최소 경로의 파악이 가능해지며 이를 기반으로 한 빅데이터 처리 알고리즘 및 내비게이션 시스템을 개발하였다.

개발내용

(본인 구현부분)

웹으로 개발된 내비게이션을 통해 빅데이터 처리된 결과물을 토대로 서비스를 받을 수 있다. 그 절차의 첫 번째로 가고자 하는 목적지를 POI검색 기능을 통해 지정 한다. 서버로부터 경로 데이터를 수신 받으면 해당 GPX 파일을 파싱하여 지도에 렌더링 된다. 사용자의 현위치를 실시간으로 파악하여 길안내를 실시하며, 클라이언트의 내부적인 다양한 계산을 통해 사용자의 전방 방향에 따른 내비게이션 지도의 회전 방향이나 향후 진로 방향에 대한 정보를 받아 볼 수 있다. 뿐만 아니라 오픈소스 내비게이션 OSMAND를 변형하여 개발된 데이터수집앱을 활용하면, 사용자가 빅데이터 처리 서버에 직접 기여 할 수 있다.

프로젝트

어려움/해결방안

지식기반의 경로 데이터들의 빅데이터 처리함으로써 의미있는 다양한 경로들의 조합을 생성하였으며 개발한 시스템을 이용하여 직접 차량 주행하여 실질적인 길안내까지 가능함을 입증하였다. 웹이라는 네이티브보다 비교적 제한적인 환경 특성상 단말기의 센서를 활용하는 것은 다소 어려움이 존재 한다. 주어진 자원인 위치정보를 활용하여 다양한 정보들을 계산하는 솔루션을 제작하여 이러한 한계점을 극복하였다. 본 시스템에 대한 연구를 더 진행한다면, 향후에는 시간, 날씨 뿐만 아니라 차량 사고 및 특수한 행사 등 다양한 동적인 변화에도 민감하게 대응하여 빠른 길안내 서비스가 가능 할 것으로 전망된다.

시연 영상

 

http://wpclab.smuc.ac.kr/~taeho/pf/bignavi.mkv

 


빅데이터와 내비게이션이라는 부분의 조합을 통해 기존에는 없는 방식의 내비게이션 서비스를 개발했다.

WPCL에서 활동 중 손꼽히는 성과 중 하나 ㅎㅎ

반년은 OSMAND를 통해 서비스를 개발하고, 남은 반년은 독자적인 시스템을 갖추고자 웹 기반의 내비게이션을 별도로 개발하였다.

밤새도록 고통받으면서 했기에 더 애착이 남는 프로젝트인 것 같다.

관련 논문도 여러편 나올 수 있었다.




서버프로그래밍에 대해 열정적으로 했던 프로젝트...

아래 링크를 통해 읽어 볼 수 있음

DBP 최종 보고서.docx



'Term Project' 카테고리의 다른 글

[AI 스터디] 1. HuggingFace란 무엇인가?  (3) 2025.05.12
[빅내비게이션] 개요  (2) 2015.12.29
[PHP기반 SNS] 개요  (1) 2015.12.29
[상명WIFI] 개요  (1) 2015.12.29
[호식이 맛집추천앱] 최종 보고서  (1) 2015.12.28

프로젝트명

Mini Homepage 기반의 SNS

본인역할

팀장  

개발인원

2  

관련전공

데이터베이스 프로그래밍

수강학기

2-2 

개발기간

8

진행사유

데이터베이스 프로그래밍 과목 텀 프로젝트

프로젝트 소개

사용자에게 기존의 싸이월드와 같은 미니홈페이지 방식으로 개인공간을 제공하고, 이와 동시에 SNS로써 친구로 등록된 사용자들 간에는 게시하는 콘텐츠들이 공유될 수 있도록 하였다. 각 사용자의 미니홈피에 대한 정보는 별도의 파일 형식으로 제공되는 것이 아닌, 하나의 정해진 레이아웃에 DB에 저장된 각 사용자의 설정 값, 콘텐츠들을 가져오는 형식으로 제작함으로써 데이터 공간의 낭비를 줄이고 유지 보수에 용이하도록 정형화에 초점을 맞추어 개발되었다.

개발내용

(본인 구현부분)

SNS에 필요한 DB 스키마를 작성하고 이를 구축하였다. PHP를 통해 수신 받은 데이터를 서버에 저장하거나 HTML 형식으로 사용자가 요청한 정보를 반환하도록 하였다. 주요 기능으로는 프로필, 스킨사진 등록, 게시판 및 방명록 생성, 뉴스피드, 클럽게시판 등이 있으며 iframe을 활용하여 자동적으로 페이지가 refresh되는 것처럼 구현함으로써 PHP의 한계를 극복하고자 하였다. 또한 CSS를 활용해 반응형 웹으로 구현하였다.

거의 모든 부분이 PHP로 구현되어 서비스되는 SNS을 교내 텀프로젝트를 통해 개발하였다.

방명록, 게시판 타입의 메뉴를 생성하여 다양하게 활용할 수가 있고, 권한 설정도 가능하다.

친구 추가/삭제, 뉴스피드, 현위치 표시, 파일첨부, 사진 업로드 등

요즘 SNS라면 갖추어야 할 기본적인 기능들은 모두 갖추고자 노력하였다.

http://태북.wo.to/ 로 접속하면 아직도 사용 할 수가 있다ㅋㅋㅋ

'Term Project' 카테고리의 다른 글

[빅내비게이션] 개요  (2) 2015.12.29
[PHP기반 SNS] 최종 보고서  (1) 2015.12.29
[상명WIFI] 개요  (1) 2015.12.29
[호식이 맛집추천앱] 최종 보고서  (1) 2015.12.28
[호식이 맛집추천앱] 프레젠테이션 자료  (0) 2015.12.28

프로젝트명

상명 Wifi

본인역할

클라이언트 개발  

개발인원

2  

관련전공

소프트웨어 프로젝트

수강학기

3-1 

개발기간

8

진행사유

소프트웨어 프로젝트 과목 텀 프로젝트

프로젝트 소개

학교 및 기업 등에서는 Wifi를 제공하기 위한 AP의 신호강도를 기반으로 Wifi 신호가 어디까지 송신되는지 추측 할 수 있다. 하지만 이 방법은 사용 인구 수, 시간대 별 트래픽, 물리적인 공간으로 인한 신호 감쇠 등을 반영하지 못한다. 이에 따라 Wifi 수신자의 RSSI, Speed값 등을 수집하여 축적된 빅데이터 처리를 함으로써 다양한 변수를 고려한 Wifi 측정기를 만들고자 하였다.

개발내용

(본인 구현부분)

데이터 수집을 위해 안드로이드 어플리케이션을 개발하였다. GPS 좌표, RSSI, Speed(Mbps)값 등을 단말기의 센서로부터 측정하여 가져오도록 하였으며 이는 파일입출력을 통해 SD카드 메모리에 저장된다. 축적된 데이터는 FTP통신을 통해 일괄적으로 서버에 전송되도록 하였다. 한편 HTML5, Javascript, PHP등을 활용하여 웹 상에 빅데이터 처리 결과를 가시화하였으며 지도상에 지역별 Wifi의 신호감도를 표현되도록 하였다.


이 프로젝트를 진행 할 당시 교내의 정보통신시설에 문의해본 결과,

WIFI의 신호가 어느 영역까지 가용성이 있을지에 대해 가시적으로 표현해주는 솔루션은 이미 있었다.

하지만 문제점은 교내 설치된 AP들을 기반으로 해당 성능이 어느 길이까지 전달 될 것이다라는 모호한 추측성 프로그램이었다.

추측과 실제는 다르다. 왜냐하면 와이파이의 사용자수가 급격히 변동 할 수 있는 시간(예를들어 쉬는 시간, 점심시간, 수업시간 등으로 구분 지을 수 있다)이라던지,

소프트웨어 상 고려 할 수 없는 물리적 부분(벽, 장애물 등)의 요인 때문이다.

이에 대한 문제를 해결하기 위한 방법으로, 사용자들이 직접 와이파이를 사용 할 때 그 정보를 토대로 빅데이터 처리 분석을 하여

효과적인 피드백을 제공해 주고자 하였다.




논문형식으로 작성했던 최종 개발 보고서이다.

최종보고서 이태호 장준식.docx




이걸 업로드하는 컴퓨터에 폰트가 없어서 다소 안예쁘게 보인다..

발표시간이 너무 짧게 느껴질 정도로 할 말이 많았던 프로젝트..

어떤 기능들이 있는지, 어떤 알고리즘이 사용되었고, 어떤 어려운 점을 해결하졌는지

모든 것을 기록한 프레젠테이션 ㅋㅋ


01234567891011121314151617





프로젝트를 시작 할 때 처음으로 잡았던 컨셉..

이 텀프로젝트가 얼마나 많은 일을 안겨줄지 이 때는 몰랐다 ㅠㅠ

+ Recent posts