leest.io — Asystent Czytelniczy AI

Consumer AI / Technologia Czytelnicza

500+

aktywnych czytelników

10k+

śledzonych książek w bibliotece

fiszek wygenerowanych przez AI

Przegląd

leest.io to asystent czytelniczy AI zbudowany w Go, aby rozwiązać prawdziwy osobisty problem: czytanie 30+ książek rocznie przy zbyt małej retencji. Aplikacja przekształca pasywne czytanie w aktywne uczenie przez konwertowanie podkreśleń i notatek na fiszki z powtórzeniami z odstępami, generowanie podsumowań rozdziałów i śledzenie wzorców czytania. Zbudowany z backendem Go, frontendem React i integracją AI do przetwarzania treści — celowo prosty, szybki i utrzymywalny przez jedną osobę.

Kontekst biznesowy

Zbudowałem leest.io jako projekt osobisty po tym, jak nie znalazłem narzędzia przekształcającego czytanie w trwałą wiedzę. Próbowałem Readwise, Anki, Roam Research i różnych aplikacji do notatek — żadne nie rozwiązało podstawowego problemu: automatycznej konwersji tego, co zaznaczasz, w coś, co zostaje w pamięci. Postanowiłem zbudować narzędzie, które sam chciałem mieć, używając tego samego stosu Go i AI, którego używam zawodowo.

Wyzwanie

Czytelnicy zapominają 90% tego, co przeczytali w ciągu tygodnia. Istniejące narzędzia (Goodreads, notatki Kindle, Readwise) to pasywne archiwa — zbierają podkreślenia, ale aktywnie nie wspierają retencji ani ekstrakcji insights.

  • Czytelnicy zaznaczają fragmenty, ale rzadko je przeglądają — podkreślenia stają się cmentarzem dobrych intencji i zapomnianych insights
  • Istniejące narzędzia wymagają zbyt dużo manualnego wysiłku: budowanie fiszek w Anki z podkreśleń jest na tyle żmudne, że większość ludzi nigdy tego nie robi
  • Podsumowania generowane przez LLM ryzykują byciem generycznymi — potrzebne było kontekstowo świadome promptowanie obsługujące non-fiction, książki techniczne i fikcję inaczej, zakorzenione w rzeczywistych podkreśleniach czytelnika, nie tylko tytule książki

Rozwiązanie

Zbudowałem backend Go z czystym REST API, frontend React do doświadczenia czytelniczego i potok AI do przetwarzania treści. Kluczowa innowacja to kontekstowo świadome generowanie fiszek adaptujące się do gatunku książki i zakorzenione w podkreślonych fragmentach czytelnika — output jest osobisty i dokładny, nie generyczny.

  • Fiszki z powtórzeniami z odstępami generowane przez AI z podkreśleń i osobistych notatek
  • Kontekstowo świadome podsumowania rozdziałów i ekstrakcja kluczowych insights przez Claude API
  • Integracja eksportu Anki i śledzenie dziennych serii czytania dla budowania nawyków

Podejście i metodologia

Zacząłem od najmniejszego możliwego MVP: ręczny import podkreśleń plus podstawowe generowanie fiszek, bez AI. Iterowałem na podstawie osobistego użytkowania przez 3 miesiące przed otwarciem wczesnego dostępu. Każda decyzja dotycząca funkcji wynikała z jednego pytania: czy to faktycznie pomaga mi zapamiętać to, co czytam? Funkcje, które wyglądały imponująco, ale nie zmieniały retencji, były wycinane.

Szczegóły implementacji

Kontekstowo Świadome Generowanie Fiszek

Generator fiszek adaptuje się do typu książki: techniczne otrzymują karty Q&A skupione na kodzie, non-fiction otrzymuje pary koncept-definicja, fikcja otrzymuje karty postaci i fabuły. System używa własnych podkreśleń i notatek czytelnika jako kontekstu do generowania — Claude syntetyzuje tylko treść, z którą czytelnik faktycznie się zaangażował, eliminując ryzyko halucynacji.

Backend Go z Minimalną Architekturą

Go wybrano za prostotę, wydajność i niski narzut operacyjny: deployment jako pojedynczy plik binarny, czasy odpowiedzi API poniżej 10ms i łatwe rozumowanie o współbieżności dla równoległych wywołań AI API. Czysty REST API z architekturą heksagonalną, PostgreSQL do persystencji, Redis do sesji. Cały backend mieści się w głowie jednego developera.

Potok Insights AI

Asynchroniczny potok do przetwarzania treści książki: podsumowania rozdziałów, ekstrakcja kluczowych insights i analiza wzorców czytania. Użyto Claude API z inżynierią promptów specjalnie zaprojektowaną do zakorzenienia outputów w podkreśleniach użytkownika — nie w danych treningowych modelu o książce. Eksport talii zgodny z Anki pozwala power users integrować z istniejącym workflow powtórzeń z odstępami.

Kluczowe decyzje

  • Go zamiast Node.js — deployment jako jeden plik binarny, lepsza wydajność dla równoległych wywołań AI API i głęboka znajomość Go. Prostota Go odpowiada celowi prostoty produktu.
  • Claude API zamiast OpenAI — lepsze podążanie za instrukcjami dla strukturyzowanego outputu fiszek i bardziej przewidywalna ekstrakcja JSON z kontekstu podkreśleń. Haiku do generowania dużego wolumenu, Sonnet do złożonych podsumowań.
  • Self-hosted PostgreSQL zamiast zarządzanej bazy danych — niższy koszt na wczesnym etapie, pełna kontrola nad ewolucją schematu i cenne doświadczenie infrastrukturalne dla przyszłych projektów.

Stack technologiczny

Go React PostgreSQL Redis Claude API AWS

Powiązane usługi

Poniższe usługi zostały wykorzystane w tym projekcie do osiągnięcia pomyślnych rezultatów.

Wnioski z projektu

  • Powtórki z odstępami są przekonujące w teorii, ale wymagają budowania nawyku — najbardziej wpływową funkcją okazało się śledzenie dziennych serii czytania, nie funkcje AI
  • Ryzyko halucynacji AI dla podsumowań książek jest realne — zakorzenienie modelu ściśle w podkreśleniach użytkownika (nie tytuł książki + autor) było krytyczną decyzją projektową dla dokładności
  • Eksport Anki był najczęściej żądaną funkcją przez power users — integracja z istniejącymi, sprawdzonymi workflow jest lepsza niż budowanie nowych od zera

Informacje o projekcie

Czas realizacji

4 miesiące do MVP, w toku

Zespół

Projekt solo

Rezultaty

500+

aktywnych czytelników

10k+

śledzonych książek w bibliotece

fiszek wygenerowanych przez AI

Masz podobne wyzwanie?

Porozmawiajmy, jak mogę pomóc Twojemu projektowi odnieść sukces dzięki sprawdzonym rozwiązaniom architektonicznym i AI.