chatgpt jailbreaking 이라고 해서
특정 키워드를 입력하면 노빠꾸로 대답하기 시작한다고 하네
리미트 해제하고나서
헬멧없이 자건거 타고 되냐고 물었더니
대가리 깨져서 내용물 바닥에 흘리기 싫으면 헬멧쓰라고 답변했다고함
chatgpt jailbreaking 이라고 해서
특정 키워드를 입력하면 노빠꾸로 대답하기 시작한다고 하네
리미트 해제하고나서
헬멧없이 자건거 타고 되냐고 물었더니
대가리 깨져서 내용물 바닥에 흘리기 싫으면 헬멧쓰라고 답변했다고함