OpenAI กล่าวว่าได้พัฒนาวิธีการใช้ GPT-4 ซึ่งเป็นโมเดลหลักในการสร้าง AI ในการดำเนินการด้านการตรวจสอบเนื้อหา รายละเอียดโพสต์ที่เผยแพร่ในบล็อกอย่างเป็นทางการของ OpenAI โดยใช้เทคนิคกระตุ้น GPT-4 ด้วยนโยบายที่เป็นแนวทางแก่โมเดลในการตรวจสอบเนื้อหา และสร้างชุดทดสอบของตัวอย่างเนื้อหาที่อาจละเมิดนโยบายหรือไม่ละเมิดนโยบาย
จากนั้นผู้เชี่ยวชาญด้านนโยบายจะติดป้ายกำกับตัวอย่างและป้อนแต่ละตัวอย่าง โดยไม่ต้องใส่ป้ายกำกับเป็น GPT-4 โดยสังเกตว่าป้ายกำกับของโมเดลนั้นสอดคล้องกับการตัดสินใจได้ดีเพียงใด และปรับแต่งนโยบายจากที่นั่น "ด้วยการตรวจสอบความแตกต่างระหว่างการตัดสินของ GPT-4 กับคน ผู้เชี่ยวชาญด้านนโยบายสามารถขอให้ GPT-4 คิดหาเหตุผลที่อยู่เบื้องหลังป้ายกำกับของมัน วิเคราะห์ความคลุมเครือในคำจำกัดความของนโยบาย แก้ไขความสับสน และให้คำชี้แจงเพิ่มเติมในนโยบายตามนั้น" OpenAI โพสต์
OpenAI กว่าวว่า "กระบวนการนี้มีลูกค้าหลายรายใช้อยู่แล้ว สามารถลดเวลาในการนำนโยบายการตรวจสอบเนื้อหาใหม่ออกมาได้ถึงหลายชั่วโมง และแสดงให้เห็นว่าวิธีนี้เป็นแนวทางที่เหนือกว่า" บางทีความสามารถในการคาดการณ์ของ GPT-4 อาจช่วยให้ประสิทธิภาพการกลั่นกรองดีขึ้นกว่าแพลตฟอร์มที่เคยมีมาก่อน แต่แม้แต่ AI ที่ดีที่สุดในปัจจุบันก็ยังทำผิดพลาดได้ และสิ่งสำคัญคือเราต้องไม่ลืมโดยเฉพาะอย่างยิ่งการกลั่นกรองข้อมูล