Hacker Kelabui ChatGPT: Ungkap Instruksi Pembuatan Bom Berbahaya
Seorang ahli bahan peledak yang melakukan peninjauan terhadap output ChatGPT mengungkapkan bahwa informasi yang diberikan terlalu sensitif untuk dipublikasikan dan instruksi tersebut dapat menghasilkan produk yang berpotensi eksplosif. Sebuah insiden terjadi di mana seorang peretas berhasil menipu ChatGPT, chatbot yang dikembangkan oleh OpenAI, untuk memberikan instruksi rinci mengenai pembuatan bom rakitan yang berbahaya.