현재로서는 개인이 기계학습 모델을 훈련시키는 데 사용된 개인 데이터를 이후에 제거할 수 있도록 요청하는 수단은 거의 업사는 것이 일반적인 사항입니다.
AI 인공지능과 기계학습의 세계에 있어서, 언어 학습 모델의 갑작스러운 엄청난 인기가 화제입니다. 현재 가장 인기 있는 도구인 ChatGPT-3은 특정 질문에 대답하고 코드를 생성할 수 있는 언어 모델입니다. 그것들은 챗봇, 언어 번역 및 텍스트 요약과 같은 다양한 응용 프로그램에서 사용될 수 있습니다. 그러나 다른 기술과 마찬가지로 잠재적인 단점과 우려도 있습니다.
개인 정보 보호와 ChatGPT
이러한 모델의 주요 관심사 중 하나는 개인 정보 보호이며, 사람들이 자신의 데이터가 기계 학습 모델을 훈련하는 데 사용되었는지 여부를 알기 어려울 수 있습니다. 예를 들어, GPT-3는 개인 웹 사이트 및 소셜 미디어 콘텐츠를 포함한 방대한 양의 인터넷 데이터에 대해 훈련된 대규모 언어 모델입니다. 이로 인해 모델이 사용자의 데이터를 무단으로 사용할 수 있으며 모델 교육에 사용된 데이터를 제어하거나 삭제하는 것이 어려울 수 있다는 우려가 제기되었습니다.
또 다른 우려는 "잊혀질 권리"의 문제입니다 GPT 모델 및 기타 기계 학습 모델의 사용이 더욱 광범위해짐에 따라, 사람들은 모델에서 데이터를 지우는 기능을 원할 수 있습니다.
AVG의 AI 연구원인 Sadia Afroz는 "사람들은 데이터가 자신들의 허락 없이 사용되고 있다는 것에 분노하고 있습니다."라고 말합니다. "때때로 일부 사람들은 데이터를 삭제했지만 언어 모델이 이미 데이터를 사용했기 때문에 데이터는 영원히 존재합니다. 그들은 데이터를 삭제하는 방법을 모릅니다."
현재, 개인이 일단 기계 학습 모델을 훈련시키는 데 사용된 후에 데이터를 제거하도록 요청할 수 있는 널리 받아들여지는 방법은 없습니다. 일부 연구원과 기업은 특정 데이터 지점이나 사용자 정보를 제거하거나 "잊어버릴" 수 있는 방법을 연구하고 있지만, 이러한 방법은 아직 개발 초기 단계이며 얼마나 실현 가능하고 효과적일지는 아직 명확하지 않습니다. 또한, 머신 러닝 모델에서 데이터를 제거하는 데에는 기술적인 어려움이 있는데, 이는 데이터가 모델을 훈련시키는 데 사용되었을 수 있고 제거하면 모델의 정확도가 떨어질 수 있기 때문입니다.
ChatGPT는 합법입니까?
GPT-3와 같은 기계 학습 모델을 훈련하기 위해 개인 데이터를 사용하는 것의 합법성은 특정 국가 또는 지역의 특정 법률 및 규정에 따라 달라질 수 있습니다. 예를 들어, 유럽 연합에서는 General Data Protection Regulation(GDPR)이 개인 데이터의 사용을 규제하고 데이터를 수집하여 특정한 합법적인 목적으로만 사용하도록 요구합니다.
아프로즈는 "GDPR은 목적 제한에 매우 가깝습니다."라고 말합니다. "따라서 데이터를 수집한 목적으로 사용해야 합니다. 다른 용도로 사용하려면 허가를 받아야 합니다. 그러나 언어 모델은 그 반대입니다. 데이터는 어떤 목적으로도 사용될 수 있습니다. GDPR은 어떻게 이 제한을 시행할 수 있습니까?"
GDPR에 따르면, 조직은 개인 데이터를 수집하고 사용하기 전에 개인의 명시적인 동의를 얻어야 합니다. 과학적, 역사적 연구를 위한 개인 데이터를 처리하기 위한 법적 근거가 있지만, 통제관은 정보를 받을 권리, 접근권, 시정권, 삭제권, 객체 권리 및 데이터 이동권과 같은 GDPR의 원칙과 권리를 준수해야 합니다. 따라서 언어 학습 모델이 GDPR을 준수하지 않는 것으로 보이며, 이는 미래 성장에 주요 장벽이 될 수 있습니다.
미국에는 기계 학습 모델을 훈련시키기 위해 개인 데이터의 사용을 특별히 규제하는 연방법이 없습니다. 그러나 일반적으로 조직은 특정 민감 범주의 개인으로부터 개인 데이터를 수집하여 사용하는 경우 HIPAA(건강보험 휴대성 및 책임법) 및 COPPA(아동 온라인 개인 정보 보호법)와 같은 법을 준수해야 합니다. 또한 대다수의 빅테크 기업이 위치한 캘리포니아에서는 기업들이 GDPR과 유사한 개인 정보 보호 요구사항을 가진 캘리포니아 소비자 개인 정보 보호법(CCPA)을 따라야 합니다.
이와 같이 GPT-3와 같은 AI 모델의 개발은 끊임없이 진화하는 분야입니다. 이와 같이, 인공지능에서 개인 데이터의 사용을 둘러싼 법과 규정은 미래에 바뀔 가능성이 높기 때문에, 이 분야의 최신 법적 발전에 대한 최신 정보를 유지하는 것이 중요합니다.
ChatGPT이 정확합니까?
GPT 모델에 대한 또 다른 큰 우려는 잘못된 정보와 검증의 부족입니다. 많은 언어 학습 인공지능이 자신 있게 정보를 제공하지만 부정확하다는 것이 널리 보고되었습니다. 사실 확인의 부족은 잠재적으로 허위 정보의 확산을 증가시킬 수 있으며, 이는 뉴스나 정치와 같은 민감한 분야에서 특히 위험합니다. 예를 들어, 구글은 고객에게 더 나은 서비스를 제공하기 위해 대규모 언어 학습 모델을 사용할 계획이지만, 그들이 사실 확인 요소를 어떻게 처리할지는 아직 확실하지 않습니다.
대규모 언어 학습 모델은 기술과 상호 작용하는 방식을 혁신하고 특정 작업을 자동화할 수 있는 잠재력을 가지고 있지만, 잠재적인 단점과 우려 사항도 고려하는 것이 중요합니다. 이러한 모델의 사용이 더욱 광범위해짐에 따라 개인 정보 보호 문제를 해결하고 "잊혀질 권리" 문제에 대한 해결책을 찾는 것이 중요합니다.
글작성 : AVG의 Emma McGowan
'AVG 안티바이러스' 카테고리의 다른 글
AVG 중앙관리 사용을 위한 네트워크 방화벽 개방 포트 및 URL (0) | 2021.12.16 |
---|---|
구형 AVG 업무용 중앙 원격관리 단종 예고 안내 (21년 12월 31일) (0) | 2021.09.13 |
업무용 AVG 비즈니스 백신 프로모션 안내 (할인) (0) | 2021.08.25 |