llms.txt to prosty plik tekstowy zapisany w formacie Markdown i umieszczany w głównym katalogu witryny, którego celem jest ułatwienie dużym modelom językowym (LLM) – takim jak ChatGPT, Gemini, Claude czy Perplexity – lepszego rozumienia, interpretowania i wykorzystywania treści strony internetowej. Pełni funkcję „mapy” lub „ściągawki” dla AI, dostarczając kontekstu, hierarchii treści oraz linków do kluczowych podstron.
W odróżnieniu od tradycyjnych plików robots.txt (określających, co może być indeksowane) czy sitemap.xml (wskazujących listę adresów URL), llms.txt koncentruje się na przekazaniu modelom AI znaczenia, struktury i wzajemnych powiązań treści w celu poprawy jakości odpowiedzi generowanych na temat danej witryny.
Co zawiera plik llms.txt?
- Główne nagłówki – tytuł strony lub projektu.
- Bloki tekstowe – zwięzłe opisy kluczowych sekcji lub całej witryny.
- Listy linków – najważniejsze podstrony z opisami, ułatwiające AI nawigację.
- Meta informacje – dodatkowe dane wspierające interpretację treści.
Dlaczego jest ważny?
- Poprawia interakcję z AI, zapewniając modelom lepszy kontekst do udzielania trafnych odpowiedzi.
- Zwiększa kontrolę nad treścią, pozwalając właścicielom stron wpływać na sposób, w jaki AI interpretuje ich content.
- Wspiera nowoczesne SEO, stając się elementem optymalizacji dla wyszukiwarek opartych na AI.
- Ułatwia pracę deweloperom, pomagając szybko odnaleźć kluczowe informacje w dokumentacji.
Różnica wobec robots.txt
- robots.txt – definiuje, co roboty mogą lub nie mogą indeksować.
- llms.txt – wskazuje, które treści są najważniejsze, jak są uporządkowane i jak AI powinno je interpretować.

