LLM 仍然无法告诉你是否应该做某事。尽管它们假装可以。