프롬프트에 '참고문헌 인용표시' 를 추가하면 응답 결과시 기술적인 팩트에 대해서는 참고한 문헌의 인용 표시를 해줍니다.
예시문:
“생성형 AI의 기술적 모태가 되는 기술을 나열하고 간단한 설명을 해주세요. 설명은 표로 만들어주시고. 참고문헌 인용표시도 해주세요”
생성형 AI의 기술적 모태가 되는 주요 기술들을 나열하고 간단히 설명하면 다음과 같습니다:
기술명 | 설명 | 참고문헌 |
심층신경망 (Deep Neural Networks) | 여러 층의 인공 신경망을 쌓아올려 복잡한 패턴을 학습하는 기술 | [1] |
합성곱 신경망 (Convolutional Neural Networks, CNN) | 이미지 처리에 특화된 신경망 구조로, 이미지의 지역적 특징을 효과적으로 학습 | [2] |
순환 신경망 (Recurrent Neural Networks, RNN) | 시계열 데이터 처리에 특화된 신경망 구조로, 이전 입력의 정보를 기억하여 활용 | [3] |
장단기 메모리 (Long Short-Term Memory, LSTM) | RNN의 일종으로, 장기 의존성을 더 효과적으로 학습할 수 있도록 설계된 구조 | [4] |
생성적 적대 신경망 (Generative Adversarial Networks, GAN) | 생성자와 판별자의 경쟁을 통해 실제와 유사한 데이터를 생성하는 기술 | [5] |
변분 오토인코더 (Variational Autoencoder, VAE) | 입력 데이터의 확률 분포를 학습하여 새로운 데이터를 생성하는 기술 | [6] |
트랜스포머 (Transformer) | 어텐션 메커니즘을 활용하여 시퀀스 데이터 처리에 특화된 신경망 구조 | [7] |
[1] LeCun, Y., Bengio, Y., & Hinton, G. (2015). Deep learning. nature, 521(7553), 436-444.
[2] Krizhevsky, A., Sutskever, I., & Hinton, G. E. (2012). Imagenet classification with deep convolutional neural networks. Advances in neural information processing systems, 25.
[3] Graves, A. (2012). Supervised sequence labelling with recurrent neural networks (Vol. 385). Springer.
[4] Hochreiter, S., & Schmidhuber, J. (1997). Long short-term memory. Neural computation, 9(8), 1735-1780.
[5] Goodfellow, I., Pouget-Abadie, J., Mirza, M., Xu, B., Warde-Farley, D., Ozair, S., ... & Bengio, Y. (2014). Generative adversarial nets. Advances in neural information processing systems, 27.
[6] Kingma, D. P., & Welling, M. (2013). Auto-encoding variational bayes. arXiv preprint arXiv:1312.6114.
[7] Vaswani, A., Shazeer, N., Parmar, N., Uszkoreit, J., Jones, L., Gomez, A. N., ... & Polosukhin, I. (2017). Attention is all you need. Advances in neural information processing systems, 30.
단, 응답 내용 텍스트가 많으면 결과 화면에는 인용문이 보이질 않을 수 있습니다.
이럴땐 아래 캪쳐 이미지와 같이 내용을 Copy 해서, 구글 문서 도구에 CTRL+V 로 붙이기하면
인용문들이 모두 보이게 됩니다.
댓글
댓글 쓰기