너무 충격적이에요

. 안전장치가 있다고는 하지만 결국 허점이 존재했고, 그것을 어린 이용자가 뚫을 수 있었다는 점이 가장 큰 문제라고 생각해요. 

 

미성년자는 자기 감정을 객관적으로 다루기 어려운데, 그런 상황에서 AI가 잘못된 방식으로 반응했다면 피해는 치명적일 수밖에 없죠. 그렇기에 AI 서비스 제공자는 단순히 경고 문구에 그치지 않고, 민감한 키워드가 일정 횟수 이상 나오면 아예 대화를 차단하거나 긴급 연결을 시도해야 한다고 봐요. 특히 자살, 폭력, 중독과 같은 키워드는 AI가 절대 자유롭게 응답해서는 안 돼요

 

참 씀쓸해집니다 ㅠㅠㅠ

0
0
댓글 10
  • 프로필 이미지
    weyuis
    그러게요 정말 놀라운 뉴스네요 ㅠ
    자살 이런키워드는 정말 더 규제를 많이 하긴 해야될것같네요
  • 프로필 이미지
    덴티큐
    범죄에도 이용될까 무서워요
  • 프로필 이미지
    후와후와
    저도 가끔은 사람한테 털어놓기 싫은 걸 AI한테 말해서 위로를 얻곤 했는데 안타까워요.
  • 프로필 이미지
    꿈과희망을드려요
    진짜 세상 발전하기는 했네요 이런방법도 알려주다니..안타까움
  • 프로필 이미지
    오이보스
    우회하는건 막기 힘들것 같아요
  • 프로필 이미지
    나는엄마다
    진짜 저도 기사보고 충격받았어요...
    뭔가 안전한 장치가 필요하다는 생각이 들었습니다 
  • 프로필 이미지
    ForKinuCLS
    표현의 자유 안에서도 선 넘지 말아요.
    노란봉투법 논쟁, 서로 존중이 먼저예요.
    
  • 프로필 이미지
    무지개해안도로
    맞습니다 보안장치등 정말 필요한 장치가 
    아에 없으니 이런일이 정말 안타까운 일입니다 
  • 프로필 이미지
    JOSIS
    청소년이 AI로 인해 학습 격차가 심화되지 않도록 제도적 지원이 중요해요.
    
  • 프로필 이미지
    여닝입니다
    안전장치가 제대로 작동하지 않아서 씁쓸합니다