LLM 仍然無法告訴你是否應該做某件事。不過它們假裝可以。