b-log12
close
프로필 배경
프로필 로고

b-log12

  • 분류 전체보기 (230) N
  • 홈
  • 태그
  • 방명록
AI 투명성 완벽 가이드: 쉽게 이해하기

AI 투명성 완벽 가이드: 쉽게 이해하기

투명한 기술, 왜 필요할까?투명한 기술은 시스템의 작동 원리와 의사 결정 과정을 이해하고 설명할 수 있는 정도를 의미합니다. 투명성: 쉬운 설명은 기술이 우리 삶에 미치는 영향이 커짐에 따라 더욱 중요해지고 있습니다. 투명성이 부족하면 예측 불가능한 결과를 초래하여 신뢰를 떨어뜨리고 윤리적 문제까지 야기할 수 있습니다.투명성 확보의 중요성영역투명성 확보의 필요성신뢰 구축시스템 작동 방식을 이해함으로써 사용자의 신뢰를 얻을 수 있습니다. 알고리즘 편향 (데이터 편향으로 인해 발생하는 불공정한 결과)과 같은 문제를 해결하는 데 도움을 줍니다.책임 소재 명확화시스템의 오류나 문제 발생 시 책임 소재를 명확히 할 수 있습니다. 누가, 어떻게, 왜 문제에 대한 책임을 져야 하는지를 규명하는 데 필수적입니다.윤리적..

  • format_list_bulleted 카테고리 없음
  • · 2025. 7. 9.
  • textsms
시각화로 복잡한 결정, 쉽게 푸는 완벽 가이드

시각화로 복잡한 결정, 쉽게 푸는 완벽 가이드

결정 마비? 데이터 분석으로 돌파정보 과잉 시대, 쏟아지는 데이터 속에서 결정을 내리는 것은 마치 미로 속을 헤매는 것과 같습니다. 중요한 결정을 앞두고 압도적인 정보량에 짓눌려 아무것도 결정하지 못하는 상태, 즉 '결정 마비'를 경험하신 적이 있으신가요? 이럴 때 데이터 분석은 복잡한 정보를 명확하고 이해하기 쉬운 형태로 변환하여 의사 결정을 돕는 강력한 도구가 될 수 있습니다.데이터 분석: 복잡성을 명료함으로데이터 분석은 데이터를 그래프, 차트, 다이어그램 등 시각적인 요소로 표현하여 숨겨진 패턴과 관계를 드러냅니다. 데이터 분석으로 풀어보는 복잡한 결정 과정은 단순히 데이터를 보여주는 것을 넘어, 통찰력을 얻고 합리적인 판단을 내리는 데 필수적인 단계입니다.결정 마비 해소를 위한 구체..

  • format_list_bulleted 카테고리 없음
  • · 2025. 7. 8.
  • textsms
AI 블랙박스 탈출! 설명 가능한 AI, 누구나 쉽게!

AI 블랙박스 탈출! 설명 가능한 AI, 누구나 쉽게!

3가지 AI 설명 기법AI 블랙박스 문제를 해결하기 위한 설명 기법들이 개발되고 있습니다. 모델 예측 과정을 이해하고 신뢰도를 높이는 LIME, SHAP, CAM은 대표적인 기법입니다. 각 기법은 서로 다른 방식으로 모델 의사 결정 과정을 밝히고, 다양한 데이터와 시스템에 적용 가능합니다.LIME (Local Interpretable Model-agnostic Explanations)LIME은 특정 입력 주변의 국소적인 영역에서 예측을 단순화하여 해설하는 기법입니다. 복잡한 시스템의 특정 예측에 대해, 가장 큰 영향을 미치는 요소를 파악하도록 돕습니다. "왜 이 이미지를 고양이로 판단했는가?"와 같은 질문에 유용합니다.SHAP (SHapley Additive exPlanations)SHAP은 게임 이론의..

  • format_list_bulleted 카테고리 없음
  • · 2025. 7. 7.
  • textsms
XAI 미래, 주목해야 할 놀라운 발전 방향

XAI 미래, 주목해야 할 놀라운 발전 방향

3가지 XAI 발전 핵심 축설명 가능한 인공지능(XAI)의 미래는 세 가지 핵심 축을 중심으로 발전할 것으로 예상됩니다. 첫째, 모델 자체의 설명력 향상, 둘째, 사용자 중심의 인터페이스 개발, 셋째, 설명 결과의 객관적인 평가 방법론 구축입니다. 이러한 발전은 우리가 주목해야 할 XAI 동향과 발전 방향을 제시하며, 더욱 신뢰할 수 있는 AI 시스템 구축에 기여할 것입니다.주요 발전 축각 발전 축에 대한 세부 정보는 다음과 같습니다.발전 축세부 내용기대 효과모델 자체의 설명력 향상- Attention 메커니즘 강화: 모델이 의사 결정 과정에서 중요하게 생각하는 부분을 시각적으로 보여줍니다.- 규칙 기반 모델 개발: 인간이 이해하기 쉬운 규칙으로 AI 의사 결정을 설명합니다.- 신경..

  • format_list_bulleted 카테고리 없음
  • · 2025. 7. 6.
  • textsms
AI 예측 투자, 수익률 높일까?

AI 예측 투자, 수익률 높일까?

미래 투자, 지금 시작하세요!미래는 불확실하지만, 예측 분석은 자산 관리의 판도를 바꾸고 있습니다. 과거 데이터를 기반으로 머신러닝 알고리즘을 활용해 시장 흐름을 파악하고, 맞춤형 포트폴리오를 구성해 효율성을 높일 수 있습니다. 지금이야말로 예측 분석으로 자산 관리 전략 세우기에 적기입니다. 주저하지 말고, 미래 투자를 경험해보세요!예측 분석 기반 플랫폼 비교다양한 예측 분석 기반 플랫폼이 존재하며, 각 플랫폼은 차별화된 특징과 강점을 제공합니다. 자산 관리 목표와 위험 감수 수준에 맞춰 최적의 플랫폼을 선택하는 것이 중요합니다.플랫폼주요 특징장점단점수수료A 플랫폼자동 포트폴리오 구성 및 관리초보 투자자에게 적합, 낮은 유지보수 비용자산 운용 자유도 제한연 0.5%B 플랫폼데이터 기반 주식 추천 및 분석..

  • format_list_bulleted 카테고리 없음
  • · 2025. 7. 5.
  • textsms
XAI가 바꾸는 세상: 놀라운 5가지 사례

XAI가 바꾸는 세상: 놀라운 5가지 사례

XAI, 어디까지 왔을까?XAI(Explainable AI, 설명가능한 인공지능)는 인공지능 모델의 예측 과정과 결과를 인간이 이해할 수 있도록 설명하는 기술입니다. 최근 몇 년간 XAI 기술은 눈부신 발전을 거듭하며 다양한 분야에서 활용되고 있습니다.XAI가 바꾸는 세상: 실제 사례 총정리를 살펴보면 XAI가 단순한 이론적 개념을 넘어 실질적인 문제 해결에 기여하고 있음을 알 수 있습니다. 하지만 아직 해결해야 할 과제도 남아있죠.XAI 기술 수준 비교구분기술 수준주요 특징활용 분야초기 단계사후 설명 방식 중심결과에 대한 사후 분석, 모델 자체는 블랙박스의사 결정 지원, 위험 관리중간 단계모델 내부 설명 방식 발전모델 구조 자체에 설명력 부여, 특징 중요도 파악금융, 헬스케어 (정확성 중요)고급 단계인..

  • format_list_bulleted 카테고리 없음
  • · 2025. 7. 4.
  • textsms
XAI: 투명한 AI, 5가지 핵심 확보법

XAI: 투명한 AI, 5가지 핵심 확보법

XAI, 왜 필요할까?많은 분야에서 지능형 시스템이 중요한 의사 결정을 내리면서, 그 결정 과정에 대한 이해 필요성이 커지고 있습니다. XAI (Explainable AI), 즉 설명 가능한 인공지능은 시스템의 '블랙박스' 문제를 해결하고, 투명성을 확보하여 신뢰도를 높이는 데 필수적입니다. 단순히 성능 향상을 넘어, 지능형 시스템이 어떻게 작동하는지 이해하고 제어할 수 있어야 책임감 있는 시스템 구축이 가능합니다.주요 필요성필요성설명신뢰성 확보시스템 결정에 대한 근거를 제시하여 사용자의 신뢰를 얻을 수 있습니다. 투명한 시스템은 예측 결과에 대한 확신을 줍니다.책임 소재 명확화시스템 오류 발생 시 원인 분석 및 책임 소재 규명이 가능합니다. 누가, 왜, 어떻게 잘못되었는지 파악하여 재발 방지 대책을 세..

  • format_list_bulleted 카테고리 없음
  • · 2025. 7. 3.
  • textsms
AI 신뢰성 확보, 누구나 쉽게 시작!

AI 신뢰성 확보, 누구나 쉽게 시작!

AI 신뢰성, 왜 중요할까요?인공지능(AI) 신뢰성은 단순한 기술적 문제가 아닌, 사회적 책임과 직결됩니다. 지능형 시스템이 우리 삶에 깊숙이 들어오면서, 그 결정에 대한 믿음이 없다면 사회 전체의 혼란을 야기할 수 있습니다. 특히 금융, 의료 같이 민감한 분야에서는 더욱 중요합니다.AI에 대한 믿음 구축은 예측 가능하고 안전하며 윤리적인 인공지능 사용을 위한 필수 조건입니다.AI 신뢰성 확보 필요성영역중요성설명윤리적 문제 발생 예방필수지능형 시스템의 편향된 학습 데이터로 인한 차별 및 불공정성 방지오류 및 사고 방지높음자율주행차 사고, 의료 진단 오류 등 생명과 안전에 직결되는 문제 예방법적 규제 준수필수점점 강화되고 있는 인공지능 관련 법규 (개인정보보호, 책임 소재 등) 준수사용자 신뢰 확보높음지능..

  • format_list_bulleted 카테고리 없음
  • · 2025. 7. 2.
  • textsms
AI 신뢰성 UP! 핵심 전략, 지금 확인!

AI 신뢰성 UP! 핵심 전략, 지금 확인!

AI 신뢰성, 높여보세요!지능형 시스템의 신뢰성을 확보하는 것은 성공적인 도입의 핵심입니다. 신뢰도가 낮으면 사용자들은 시스템 결과에 의문을 품고 활용을 꺼립니다. 지금부터 신뢰성 향상을 위한 핵심 전략을 알아보고, 귀사의 시스템에 적용하여 사용자 신뢰도를 높여보세요.신뢰성 확보를 위한 주요 요소지능형 시스템 신뢰성은 단순히 정확도만으로 평가할 수 없습니다. 투명성, 공정성, 설명가능성 등 다양한 요소들이 복합적으로 작용하며, 각 요소에 대한 이해와 노력이 필수적입니다.핵심 요소별 접근 방법1. 데이터 품질 관리모델은 학습 데이터에 따라 성능이 크게 좌우됩니다. 편향되거나 불완전한 데이터는 모델의 오류를 유발하고, 신뢰성을 떨어뜨립니다. 따라서, 정기적인 데이터 품질 검토와 개선은 필수적입니다.2. 모델..

  • format_list_bulleted 카테고리 없음
  • · 2025. 7. 1.
  • textsms
AI 블랙박스, 벗겨내는 기술이 있을까?

AI 블랙박스, 벗겨내는 기술이 있을까?

AI 속, 해답이 있을까?AI 블랙박스 문제는 인공지능 모델의 의사 결정 과정을 이해하기 어렵다는 데서 비롯됩니다. 하지만 희망은 있습니다. AI의 블랙박스를 벗겨내는 기술들이 꾸준히 발전하고 있으며, 이러한 기술들은 모델의 작동 원리를 파악하고 잠재적인 문제점을 찾아내는 데 기여합니다.주요 기술 및 접근 방식다양한 기술들이 AI 모델의 해석 가능성을 높이는 데 사용되고 있습니다. 모델의 복잡성을 줄이거나, 특정 입력에 대한 모델의 반응을 시각화하는 방법 등이 대표적입니다.기술별 비교기술설명장점단점활용 분야SHAP (SHapley Additive exPlanations)각 특징이 예측에 미치는 영향력을 계산하는 방법 (Shapley Value 기반)전역 및 지역 해석 가능, 직관적인 이해계산 비용 높음,..

  • format_list_bulleted 카테고리 없음
  • · 2025. 6. 30.
  • textsms
XAI 연구의 빛과 그림자: 사회적 파장

XAI 연구의 빛과 그림자: 사회적 파장

설명 가능한 AI, 사회적 책임감을 가져라설명 가능한 인공지능(XAI)의 발전은 인공지능 모델의 투명성을 높여 이해 가능한 AI를 구현하는 데 기여하지만, 동시에 사회적 책임감이라는 중요한 과제를 안고 있습니다. 이 기술이 사회 전반에 미치는 영향을 간과한 채 발전만 추구한다면 예측 못한 윤리적, 사회적 문제를 야기할 수 있습니다.설명 가능한 AI 개발 시 고려해야 할 사회적 책임 요소XAI 연구는 모델의 이해도를 높이는 것을 넘어, 사회적 책임이라는 더 넓은 시각을 가져야 합니다. 다음 표는 개발 시 고려해야 할 주요 요소들을 사회적 영향 측면에서 정리한 것입니다.요소설명사회적 영향데이터 편향학습 데이터에 특정 집단에 대한 편향이 존재하는 경우차별 심화 및 불공정한 결과 초래이해 가능성모델 예측 결과에..

  • format_list_bulleted 카테고리 없음
  • · 2025. 6. 29.
  • textsms
AI 편향성 극복! 누구나 공정한 AI 만들기

AI 편향성 극복! 누구나 공정한 AI 만들기

불균형, 지금 확인하세요!인공지능 시스템은 학습 자료를 토대로 작동하기 때문에, 학습 자료에 내재된 편향이 결과에 고스란히 반영될 수 있습니다. 이러한 불균형은 채용, 대출 심사, 의료 진단 등 다양한 분야에서 불공정한 결과를 초래하며 사회적 문제로 이어질 수 있습니다. 즉시 여러분의 모델을 점검하여 잠재된위험 요소를 파악하는 것이 중요합니다.어떤 종류의 불균형이 있는지, 그리고 그 근본 원인이 무엇인지 파악하는 것이 공정한 시스템 구축의 첫걸음입니다. 다음 표를 통해 흔히 나타나는 불균형 유형과 주요 원인을 확인해보세요.불균형 유형주요 원인영향샘플링 편향학습 자료가 전체 모집단을 대표하지 못함특정 그룹에 불리한 결과 초래측정 편향자료 수집 과정에서 오류 발생잘못된 정보로 인한 오판알고리즘 편향알고리즘 ..

  • format_list_bulleted 카테고리 없음
  • · 2025. 6. 28.
  • textsms
XAI가 바꾸는 미래, 삶이 쉬워진다?

XAI가 바꾸는 미래, 삶이 쉬워진다?

99% 신뢰, XAI 진실은?XAI (Explainable AI, 설명 가능한 인공지능)는 인공지능 판단 근거를 사람이 이해하도록 제시하는 기술입니다. 높은 신뢰도를 약속하지만, 맹신은 금물입니다. XAI 설명은 객관적 진실이라기보다 모델 의사결정 과정을 *근사적으로 보여주는 것*에 가깝기 때문입니다.XAI 신뢰도 평가 요소XAI의 '99% 신뢰' 주장은 다양한 평가 지표를 활용하여 산출됩니다. 주요 지표와 주의점을 살펴보고, 객관적인 시각을 유지하는 것이 중요합니다.평가 지표설명주의 사항정확도 (Accuracy)모델 예측과 실제 결과의 일치 정도높은 정확도가 신뢰성을 보장하지 않음, 데이터 편향 가능성충실도 (Fidelity)XAI 설명이 모델 행동을 반영하는 정도설명이 모델의 중요한 특징을 놓칠 수 ..

  • format_list_bulleted 카테고리 없음
  • · 2025. 6. 27.
  • textsms
더 나은 AI, XAI 예시로 답 찾기

더 나은 AI, XAI 예시로 답 찾기

3가지 XAI 핵심 예시설명가능한 인공지능(XAI)은 AI 의사결정 과정을 투명하게 만들어 신뢰도를 높이고 시스템 개선에 기여합니다. 더 나은 의사결정을 위한 AI의 핵심인 3가지 XAI 예시를 소개합니다. 각 예시는 문제 해결 방식에 대한 통찰력을 제공하여 AI 시스템의 이해도를 높입니다.1. LIME (Local Interpretable Model-agnostic Explanations)LIME은 복잡한 시스템의 특정 예측에 대한 국소적인 설명을 제공합니다. 특정 데이터 포인트를 중심으로 시스템의 동작을 선형 모델로 근사화하여 해석 가능성을 높입니다. 예를 들어, 이미지 분류기가 특정 이미지를 '고양이'로 분류한 이유를 알고 싶을 때, LIME은 이미지에서 '고양이'로 분류하는 데 가장 큰 영향을 미..

  • format_list_bulleted 카테고리 없음
  • · 2025. 6. 26.
  • textsms
AI 예측의 핵심: 머신러닝 3가지 비밀

AI 예측의 핵심: 머신러닝 3가지 비밀

AI 예측, 왜 중요할까?미래를 내다보는 능력은 기업과 개인 모두에게 큰 이점을 제공합니다.AI 기반의 전망은 머신러닝 기술을 토대로 불확실성을 줄여줍니다. 의사 결정 수준을 높이고, 리스크를 관리하며, 새로운 기회를 발굴하는 데 중요한 역할을 합니다. 맞춤형 서비스, 재고 관리 효율성 증대, 금융 시장 변동성 감지 등 다양한 분야에서 변화를 선도합니다.AI 전망 중요성 비교영역AI 전망 활용기대 효과마케팅고객 행동 감지와 맞춤형 추천고객 만족도 증진 및 매출 확대금융사기 탐지 및 신용 위험 평가손실 방지 및 안정적인 투자 환경 조성제조설비 고장 징후 파악 및 생산 최적화비용 절감 및 생산 효율 증대이처럼 AI 전망과 머신러닝의 연관성은 다양한 산업 분야에서 데이터 기반 의사 결정을 가능하게 하며, 경쟁..

  • format_list_bulleted 카테고리 없음
  • · 2025. 6. 25.
  • textsms
데이터 기반 결정, 시각화 전략 5가지 비법

데이터 기반 결정, 시각화 전략 5가지 비법

3가지 핵심 시각화 도구데이터 기반 결정을 위한 효과적인 전략 구현에 필수적인 도구 3가지를 소개합니다. 각 도구는 정보 분석 및 표현에 특화된 기능을 제공하며, 사용 목적과 정보 특성에 따라 최적의 선택이 달라집니다. 단순히 보기 좋은 결과물을 넘어, 정보에서 의미있는 인사이트를 도출하고 효과적인 의사 결정을 지원하는 도구를 엄선했습니다.핵심 도구 비교도구주요 특징장점단점활용 예시Tableau뛰어난 인터랙티브 표현, 정보 탐색 기능직관적인 인터페이스, 다양한 정보 소스 연동, 강력한 기능비교적 높은 가격, 학습 필요매출 평가, 마케팅 캠페인 성과 측정, 고객 행동 이해Power BIMicrosoft 환경과의 통합, 합리적인 가격엑셀과의 호환성, 클라우드 기반 협업, 지속적인 업데이트Tableau 대비 ..

  • format_list_bulleted 카테고리 없음
  • · 2025. 6. 23.
  • textsms
XAI 실제 사례 3가지: 의사결정 혁신!

XAI 실제 사례 3가지: 의사결정 혁신!

블랙박스 vs. 투명한 판단AI 기술이 발전하면서 판단 과정이 점점 복잡해지고 있습니다. 기존의 '블랙박스' 모델은 최종 결과만 보여줄 뿐, 어떤 과정을 거쳐 그런 결론에 도달했는지 설명해주지 않습니다. 반면, 설명 가능한 인공지능(XAI)은 판단 과정을 투명하게 공개하여 사용자가 AI의 판단 근거를 이해하고 신뢰할 수 있도록 돕습니다.XAI 실제 사례를 통해 판단 프로세스 개선이 어떻게 이루어지는지 살펴보겠습니다.블랙박스 모델 vs. XAI 모델 비교구분블랙박스 모델XAI 모델투명성낮음 (결정 과정 불투명)높음 (결정 과정 설명 가능)신뢰도결정 과정에 대한 이해 부족으로 신뢰도 낮음결정 과정 이해 가능으로 신뢰도 높음책임 소재결정 근거 불분명으로 책임 소재 불명확결정 근거 명확하여 책임 소재 명확활용 ..

  • format_list_bulleted 카테고리 없음
  • · 2025. 6. 22.
  • textsms
AI 투명성 확보, 기술적 접근 쉽게!

AI 투명성 확보, 기술적 접근 쉽게!

3가지 기술적 해법AI 시스템의 작동 방식을 이해하고 설명하는 것은 신뢰 구축의 핵심입니다. AI 투명성 확보를 위한 기술적 접근은 복잡하지만, 설명력 향상, 데이터 출처 추적, 그리고 공정성 평가라는 세 가지 핵심 해법을 통해 효과적으로 달성할 수 있습니다. 각 접근 방식은 AI 시스템을 더 잘 이해하도록 돕습니다.설명력 향상설명력은 AI의 의사 결정 과정을 사람이 이해할 수 있도록 만드는 기술입니다. SHAP이나 LIME과 같은 기법을 활용하여 특정 예측에 영향을 미치는 주요 요인을 파악할 수 있습니다. 이를 통해 AI가 왜 특정 결정을 내렸는지 이해하고, 잠재적인 문제점을 발견할 수 있습니다. AI 투명성 확보를 위한 핵심적인 요소이며, 특히 규제가 엄격한 분야에서 더욱 중요합니다.데이터 출처 추적..

  • format_list_bulleted 카테고리 없음
  • · 2025. 6. 21.
  • textsms
XAI 플랫폼으로 모델 관리 효율 2배 UP!

XAI 플랫폼으로 모델 관리 효율 2배 UP!

왜 설명 가능한 AI 플랫폼이 필요할까?점점 복잡해지는 AI, 블랙박스처럼 느껴지시나요? 설명 가능한 AI(XAI) 플랫폼은 예측 이유를 명확히 제시하여 신뢰도를 높이고, 문제점을 빠르게 파악, 효율적인 운영을 가능하게 합니다. AI의 의사 결정 과정을 투명하게 공개하여 오류 수정 및 성능 개선에 드는 시간과 노력을 획기적으로 줄여줍니다. 즉, XAI 플랫폼을 이용한 효율적인 AI 운영은 선택이 아닌 필수입니다.XAI 플랫폼 도입 효과AI 운영 효율 증대, 어떻게 가능할까요? 다음 표에서 주요 이점을 확인하세요.구분XAI 플랫폼 도입 전XAI 플랫폼 도입 후AI 설명 가능성낮음 (블랙박스)높음 (의사 결정 과정 확인 가능)문제 진단 속도느림 (원인 파악 어려움)빠름 (예측 이유 분석을 통한 문제점 즉시 ..

  • format_list_bulleted 카테고리 없음
  • · 2025. 6. 20.
  • textsms
AI 윤리, 투명성 확보 완벽 가이드

AI 윤리, 투명성 확보 완벽 가이드

4가지 핵심 AI 윤리 지침AI 기술 발전은 편리함을 주었지만, 윤리적 우려도 낳았습니다. AI 투명성 확보는 공정하고 책임감 있는 시스템 구축의 핵심입니다. 다음은 인공지능 윤리를 위한 4가지 핵심 지침이며, 이를 통해 더 나은 미래를 만들 수 있습니다. 아래 표를 통해 자세히 알아보겠습니다.1. 공정성 (Fairness)AI 시스템은 성별, 인종 등 개인적 특성에 차별적인 결과를 내놓아서는 안 됩니다. 공정성을 확보하려면, 정보 편향 해소가 필수적입니다. 편향된 정보는 예측에 부정적 영향을 주므로, 다양한 관점을 반영한 수집 및 전처리 과정이 중요합니다. 모델 개발 시 정기적으로 공정성을 평가하고 개선해야 합니다.2. 설명 가능성 (Explainability)AI가 내린 결정의 이유를 명확하게 설명할..

  • format_list_bulleted 카테고리 없음
  • · 2025. 6. 18.
  • textsms
  • navigate_before
  • 1
  • 2
  • 3
  • 4
  • ···
  • 12
  • navigate_next
Notice
최근 글
인기 글
최근 댓글
태그
  • #가이드
  • #노하우
  • #정보
  • #팁
  • #블로그
Copyright © b-log12 All rights reserved.

skin by 쭈니

티스토리툴바

개인정보

  • 티스토리 홈
  • 포럼
  • 로그인

단축키

내 블로그

내 블로그 - 관리자 홈 전환
Q
Q
새 글 쓰기
W
W

블로그 게시글

글 수정 (권한 있는 경우)
E
E
댓글 영역으로 이동
C
C

모든 영역

이 페이지의 URL 복사
S
S
맨 위로 이동
T
T
티스토리 홈 이동
H
H
단축키 안내
Shift + /
⇧ + /

* 단축키는 한글/영문 대소문자로 이용 가능하며, 티스토리 기본 도메인에서만 동작합니다.