Welcome to code9팀
우리가 상상한 미래
1️⃣ 팀원 소개
| 이름 | 전공 | 관심사 | 
|---|---|---|
| 문이화 | 소프트웨어전공 | 해외인턴, 인공지능, 프론트엔드 | 
| 김세정 | 소프트웨어전공 | 보안, 해외인턴, 데이터베이스, 인공지능 | 
| 유장훈 | 전자공학전공 | 웹 개발, 프론트엔드 | 
| 전서영 | 소프트웨어전공 | UX/UI, 모바일 앱, 창업 | 
| 정연빈 | 소프트웨어전공 | UI/UX, 프론트엔드, 웹 개발 | 
유레카프로젝트 프로젝트 팀 생성을 축하합니다. 유레카프로젝트 프로젝트 팀의 제목과 팀원의 이름 및 관심사를 변경하세요.
팀 슬로건
compile our passion execute our dream!
팀 소개
나인(nine)은 단계적 순서에서 최종,완전함과 도전 정신을 상징합니다. 저희 코드나인 팀원이 서로 다른 관점과 강점을 지닌 9개의 코드 조각처럼 모여 하나의 완성된 솔루션을 만들어 간다는 의미를 담고 있습니다.
2️⃣ 공통된 관심사 : 음악듣기, 산책하기
3️⃣ 한학기 동안의 활동 내역
- 
    기관/부서 인터뷰 ✔️ 
- 
    현장 탐방 ✔️ 
- 멘토링 ✔️
    - 내 지도 교수 함게 만나기
- 대학원 방문 및 선배 만나기
 
- 프로젝트 진행 ✔️
    - 과거에 사람들이 상상한 미래 Mission 1: 이정문 화백의 1965년에 그려진 상상 그림에서 현재 구현된 것에는 여러 가지가 있다. 먼저, 태양열 발전 주택은 실제로 친환경 주택의 한 형태로 구현되어 있으며, 전기 자율자동차 또한 현재 도로 위에서 운행되고 있다. 가정에서는 스마트 부엌 기술이 발전하여, 삼성 비스포크 패밀리 허브와 같은 기기를 통해 식재료 관리와 가전 제어가 가능하게 되었다. 과거의 전파신문은 이제 사라지고 인터넷신문이 그 자리를 대신하여 언제 어디서나 뉴스를 접할 수 있게 되었다. 움직이는 도로는 오늘날 공항이나 대형 시설에서 흔히 볼 수 있는 무빙워크로 실현되었고 청소하는 로봇은 로봇청소기의 형태로 우리 가정에 보급되었다. 또한 원격 학습은 인터넷 강의(EBS, 메가스터디 등)로 구현되어 학생들에게 학습의 폭을 넓혀주고 있다. 마지막으로, 소형 TV라는 개념은 오늘날 스마트폰이나 아이패드 같은 모바일 기기로 발전하여 언제 어디서든 방송과 영상을 시청할 수 있는 시대가 되었다. 이정문 화백의 그림 속 상상 중 아직 구현되지 않은 것은 우주로 수학여행을 가는 것과 집에서 치료를 받는 것이 있다. 우주 수학여행은 현재 우주 관광이 시작된 단계이지만 비용이 매우 높아 일반화되기까지는 시간이 필요하다. 그러나 민간 우주 기업의 발전으로 미래에는 학생들도 참여할 수 있는 형태로 실현될 가능성이 있다. 집에서 치료를 받는 것은 아직 제한적이지만, 원격 진료와 인공지능 의료 기술이 발전하면서 가까운 미래에 일상화될 것이다.
 
90년대 뉴스, Microsoft Future Vision, Corning의 비전 영상처럼 당시에는 공상 같던 기술이 현재 구현된 것은 의지와 노력이 있었기 때문입니다.이제는 그 상상이 현실이 된다는 것을 통해 꿈과 상상은 반드시 이루어진다는 것은 단순한 격언이 아니라 미래를 만들어가는 태도와 자세를 상기시키는 강력한 메시지라고 느껴졌습니다. 이를 통해 우리의 상상도 언젠가 미래를 만들 수 있다는 희망과 함께, 기술 발전에 기여하고 싶다는 동기를 얻었습니다.
- 
    그들이 만들어가는 세상 
 why?
 현대의 디지털 장치들은 화면 속에 갇혀 있고, 우리는 정보를 보려면 화면을 보고, 손가락이나 마우스, 터치스크린 등을 이용해야 한다. 하지만 일상 세계와 디지털 정보는 분리되어 있고, 우리는 디지털 정보에 접근하기 위해 물리적인 장치에 의존한다. 프로젝트는 이 경계를 허물고 디지털 정보가 현실 세계 위에 올라앉고, 우리가 자연스럽게 그것들과 상호작용할 수 있게 하려는 목적이 있다.
 what?
 착용 가능한 제스처 인터페이스. 즉 작은 프로젝터와 카메라, 거울 장치, 핑거 마커 등을 사용해서 손동작을 인식하고, 디지털 정보를 물리 공간 위에 투사하고, 손동작으로 그것을 조작할 수 있는 시스템.
 how?
 작은 프로젝터, 거울 미러, 카메라 등으로 구성된 웨어러블 장치를 사용한다. 이 장치들은 사용자의 목에 걸거나 착용 가능한 형태로 구성된다. 프로젝터는 벽, 책상, 손바닥, 물체 등에 디지털 인터페이스를 투사하고, 카메라는 손가락에 붙인 컬러 마커를 추적해 손 움직임을 인식한다. 또한 마커의 위치 변화를 제스처로 해석하고, 그 제스처에 따라 조작 행동을 연결한다. 이를 이용하여 지도 앱 제어 (줌 인/줌 아웃), 그림 그리기, 카메라 앱 (손동작으로 사진 찍기), 공중에 기호 그리기 등을 수행한다.As-Is vs To-Be 기존 컴퓨터 입출력 방식의 변경 As-Is vs To-Be 키보드: 웹캠의 마이크를 종이에 부착함으로써, 종이에 대한 사람의 물리적 입력이 마이크를 통해 인식되며 키보드의 역할을 수행. 마우스: 마우스 내부의 롤러를 별도로 분리해 손의 제스처를 프로그램이 인식할 수 있는 디바이스를 만든 것을 시작으로, 손가락에 끼우는 센서, 그리고 카메라를 통한 제스처의 인식 및 입력으로 발전. 모니터: 기존의 디스플레이에만 화면이 출력되는 것이 아니라, 웨어러블 카메라/프로젝터를 통해, 종이 등에 화면이 비춰질 수 있도록 함으로써 물질세계의 사물에 디지털세계가 직접적으로 나타남. 
< MIT Sixth Sense Project팀이 만든 내용이 현재에는 어떠한 장비로, 어떻게 구현이 되었을지 >
MIT팀이 만든 내용: ‘현실 세계를 디지털 세계로 바로 연결해 활용할 수 있는 웨어러블 장치 개발’을 목표로 손바닥이나 벽을 화면에 투사하는 소형 프로젝터, 손 제스처와 사물을 인식하는 카메라, 연산장치로 사용하는 스마트폰 등을 구현함. 현재 구현에 사용되는 장비:
- 헤드마운트 AR 기기
    - 디스플레이와 센서를 탑재한 안경/헤드셋 형태
- 눈동자의 움직임을 추적하고 손 제스처 인식을 결합해 사용자의 시야 안에 가상의 창 버튼을 띄우고 손동작으로 조작이 가능하게끔 함.
- ex) Apple Vision Pro, Microsoft HoloLens
 
- 착용형 프로젝션 디바이스
-손바닥이나 옷 위에 정보를 투사하는 소형 프로젝터가 내장.
-가슴에 단말을 착용하면 소형 레이저/피코 프로젝터가 손바닥에 UI를 비추고, 카메라·센서가 손동작을 인식해 입력으로 처리.
    - ex) Humane Ai Pin
 
- 스마트폰과 AI 소프트웨어
    - 고해상도 카메라와 머신러닝 모델을 활용해 카메라로 손가락 관절 위치를 추적하기도 하고 제스처를 명령으로 인식.
- Google MediaPipe 기반 손 추적 기능
 
- 우리가 상상한 미래
- 
    우리가 그리는 미래 그리고 나 Mission 2: 전자패드를 이용해 그림을 그리면 컴퓨터와 연결된다는 점에서 애플의 ‘아이패드’를 떠올릴 수 있었다. 이어서 온라인 서비스를 통해 공부하는 모습은 코로나 시기 학교에서 진행되었던 원격 수업이나, 현재 대학 강의에서 활용되는 화상 강의와 유사하다고 느껴졌다. 또한 야구 방송을 시청하면서 선수의 정보를 검색하거나 동시에 다른 방송을 볼 수 있는 기능은 오늘날의 OTT 서비스와 닮아 있었다. 건강 상태를 확인하고 집안일을 관리할 수 있는 스마트 시계는 애플의 ‘애플워치’와 유사했으며, 휴대전화를 통한 결제와 신분 인증 기능은 삼성의 ‘삼성페이’를 연상시켰다. 더 나아가 주인과 교류하는 가상의 반려동물이나 가상의 가수 ‘아담’은 현재 활발히 활동 중인 가상 아이돌 ‘플레이브’를 떠올리게 했다. 스마트미러를 활용해 학생들이 다른 언어를 사용하는 학생들과 실시간으로 소통하는 장면은 곧 출시될 애플의 ‘에어팟 3 프로’에서 구현되는 실시간 번역 기능과 유사했다. 또한 식물을 촬영하면 해당 식물의 이름과 특징이 나타나는 장면은 현재 활발히 사용되고 있는 ‘구글 렌즈(Google Lens)’ 기능과 비슷하다고 느껴졌다. 이처럼 불과 30년 전에 상상했던 기술들이 오늘날 현실로 구현되고 있다는 점이 매우 인상 깊었다. 물론 영상 속에서 제시되었던 하늘을 나는 자동차, 태양열을 이용한 에너지 보급 자동차, 원격 진료 및 원격 수술과 같은 일부 기술은 아직 상용화되지 않았다. 그러나 지금까지의 빠른 발전 속도를 고려할 때, 머지않아 이러한 상상들 역시 실현 가능할 것이라는 확신이 들었다. 
ai 재활용 로봇의 미래
- 지능형 분류 시스템 카메라, 센서, 냄새 인식 장치로 재질·오염 정도·재활용 가능성을 자동 분석함. 예를 들어 플라스틱 병에 남은 액체가 있으면 세척 여부를 판단하고, AI가 실시간으로 세척 여부를 결정해서 분류 라인으로 보냄. AI 학습으로 신소재·복합재질까지 구별할 수 있게 되어, 사람보다 정확하게 분류함.
- 도시 내 이동형 수거 로봇 길거리, 공원, 건물 내부를 순찰하면서 쓰레기통을 스캔하고 재활용품을 회수하고 AI가 시민들의 생활 패턴을 학습해서 최적의 수거 시간을 스스로 조정함.
- 재활용 공정 자동화 분류된 자원을 압축·세척·파쇄·가공까지 전 자동으로 처리함 예를 들어 페트병을 수거하자마자 세척 후 분쇄해 재생 원료로 가공해두고, 인공지능이 원료 품질을 분석해 다음 제조 공장에 바로 공급할 수 있게 함.
- 공공 인프라 연계 도시의 스마트 쓰레기통, 드론 수거 시스템, 물류 로봇과 네트워크로 연결되어 전체 도시의 재활용률과 폐기물 흐름을 실시간으로 관리함. 결론적으로 AI 재활용 로봇은 자원을 정확히 분류하고 효율적으로 관리함으로써 재활용률을 높이고 인력 부담과 환경 오염을 줄이는 스마트 순환도시를 만들 수 있게 됨
- 각오와 소감 나누기 ✔️
 
 

4️⃣ 인상 깊은 활동
- 활동명 – 활동에 대한 간단한 설명과 배운 점을 작성
- 예: 멘토링에서 실리콘밸리 현업 경험을 들을 수 있어 진로 방향 설정에 큰 도움이 되었다.
5️⃣ 특별히 알아보고 싶은 것
- 예: 현장실습 제도
- 예: TOPCIT 정기평가
- 예: 졸업 후 진로(대학원/취업)
6️⃣ 활동을 마친 소감
🔗학번 이름
“소감 내용을 여기에 작성합니다.”
🔗학번 이름
“소감 내용을 여기에 작성합니다.”
🔗학번 이름
“소감 내용을 여기에 작성합니다.”
🔗학번 이름
“소감 내용을 여기에 작성합니다.”
🔗학번 이름
“소감 내용을 여기에 작성합니다.”
Markdown을 사용하여 내용꾸미기를 익히세요.
Markdown은 작문을 스타일링하기위한 가볍고 사용하기 쉬운 구문입니다. 여기에는 다음을위한 규칙이 포함됩니다.
Syntax highlighted code block
# Header 1
## Header 2
### Header 3
- Bulleted
- List
1. Numbered
2. List
**Bold** and _Italic_ and `Code` text
[Link](url) and 
자세한 내용은 GitHub Flavored Markdown.
Support or Contact
readme 파일 생성에 추가적인 도움이 필요하면 도움말 이나 contact support 을 이용하세요.