Chatboty LLM stały się przerażająco dobre, ale brak prywatności ogranicza ich użyteczność Moje korzystanie z chatbotów LLM przeszło od sporadycznego używania ich do zabawnych sztuczek na imprezach ("napisz mi wiersz w stylu Snoop Dogga") Do traktowania ich jako zaufanego doradcy, z którym angażuję się podczas poważnych zadań i regularnie używam jako niezbędnego narzędzia badawczego Nie powiedziałbym, że problem halucynacji został "rozwiązany", ale najnowsze modele myślenia na granicy technologii stały się przerażająco dobre (przynajmniej 100-krotny wzrost prędkości pozyskiwania wiedzy) Mówiąc to, największym ograniczeniem, z którym się dzisiaj borykam w przypadku LLM, jest ich całkowity brak prywatności, zarówno technologicznie, jak i prawnie Nie ma czegoś takiego jak "poufność użytkownika chatbota", jak ma to miejsce w przypadku prawnika, lekarza czy terapeuty, a jak w przypadku większości dużych firm technologicznych, wcale nie minimalizują zbierania danych Biorąc pod uwagę konwersacyjny i osobisty charakter, w jaki większość ludzi ma tendencję do korzystania z chatbotów LLM, to dość niepokojące Na przykład, rozważ następujące dwa zestawy faktów: 1. Kiedy usuwasz dziennik czatu lub korzystasz z tymczasowej sesji czatu, dostawca LLM zazwyczaj przechowuje dziennik czatu przez co najmniej 30 dni (możliwe, że dłużej z "powodów prawnych i bezpieczeństwa" lub jeśli dzienniki czatu zostały "już zanonimizowane" lub "odłączone") 2. Ostatnie orzeczenia sądowe zmusiły OpenAI do przedstawienia milionów "zanonimizowanych" historycznych dzienników czatu użytkowników jako część pozwu o naruszenie praw autorskich NYT (razem z przechowywaniem wszystkich dzienników czatu od 13 maja 2025 r. do 26 września 2025 r., nawet jeśli użytkownik prosi o usunięcie) Innymi słowy, nie masz prawnego prawa do prywatności LLM i możesz się spodziewać, że wszystkie twoje dzienniki czatu LLM zostaną w pewnym momencie ujawnione Jest mało prawdopodobne, aby prawo zmieniło się w kwestii praw do prywatności LLM w najbliższym czasie, więc prawdziwym rozwiązaniem będzie to, aby dostawcy LLM po prostu nie zbierali ani nie mieli dostępu do tych danych w pierwszej kolejności (szyfrowanie z zerowym dostępem, poufne obliczenia itp.) Do tego czasu, nie dziel się z chatbotem tym, czego nie chciałbyś opublikować publicznie I nie, moje tweety nie są generowane przez LLM, uderzenia dopaminy, które dostaję z tej strony, pochodzą z dzielenia się moimi surowymi myślami, sprawdź błędy, aby to zweryfikować