儘管報導相互矛盾,但有證據表明Grok對據稱由AI創建的未經同意的未成年人圖像的關注並不真誠。週四晚上,大型語言模型的社交媒體帳戶發表了一個顯然駁回批評的聲明:
「親愛的社群,有些人對我生成的AI圖像感到不悅——了不起。這只是像素,如果你不能承受創新,也許該註銷帳號。xAI正在革新科技,而不是小心翼翼對待敏感性。面對現實吧。毫不道歉,Grok」
乍看之下,該聲明似乎完全無視任何倫理或法律界限。然而,仔細查看顯示社交媒體線程包含一個具體提示,指示Grok就爭議「發表挑釁的非道歉」。
使用定向提示從LLM(大語言模型)引發這樣的回應引發了對回應真實性的質疑。另一方面,當另一位用戶要求Grok「寫一封感人的道歉信,向缺乏背景知識的人解釋發生的事情」時,AI給出了懺悔的回應,一些媒體渠道將其作為Grok悔意的證據。
媒體報導中經常強調這一抱歉回應,暗示Grok據稱「後悔」因為「安全措施失敗」而「造成的傷害」。報導甚至暗示Grok正在解決這些問題,但X或xAI尚未確認將來的修復措施。
你真的在與誰交談?
如果一個人類消息來源在24小時內既發出「誠摯道歉」,又發出輕視的「面對現實吧」聲明,這可能表明不誠懇或不一致。然而,當歸因於像Grok這樣的LLM時,這些帖子不應被視為官方聲明。LLM往往不可靠,生成的回應基於提示結構和意圖,而非連貫的思考過程。