Portfolio
leest.io — Asystent Czytelniczy AI
Consumer AI / Technologia Czytelnicza
500+
aktywnych czytelników
10k+
śledzonych książek w bibliotece
∞
fiszek wygenerowanych przez AI
Przegląd
leest.io to asystent czytelniczy AI zbudowany w Go, aby rozwiązać prawdziwy osobisty problem: czytanie 30+ książek rocznie przy zbyt małej retencji. Aplikacja przekształca pasywne czytanie w aktywne uczenie przez konwertowanie podkreśleń i notatek na fiszki z powtórzeniami z odstępami, generowanie podsumowań rozdziałów i śledzenie wzorców czytania. Zbudowany z backendem Go, frontendem React i integracją AI do przetwarzania treści — celowo prosty, szybki i utrzymywalny przez jedną osobę.
Kontekst biznesowy
Zbudowałem leest.io jako projekt osobisty po tym, jak nie znalazłem narzędzia przekształcającego czytanie w trwałą wiedzę. Próbowałem Readwise, Anki, Roam Research i różnych aplikacji do notatek — żadne nie rozwiązało podstawowego problemu: automatycznej konwersji tego, co zaznaczasz, w coś, co zostaje w pamięci. Postanowiłem zbudować narzędzie, które sam chciałem mieć, używając tego samego stosu Go i AI, którego używam zawodowo.
Wyzwanie
Czytelnicy zapominają 90% tego, co przeczytali w ciągu tygodnia. Istniejące narzędzia (Goodreads, notatki Kindle, Readwise) to pasywne archiwa — zbierają podkreślenia, ale aktywnie nie wspierają retencji ani ekstrakcji insights.
- Czytelnicy zaznaczają fragmenty, ale rzadko je przeglądają — podkreślenia stają się cmentarzem dobrych intencji i zapomnianych insights
- Istniejące narzędzia wymagają zbyt dużo manualnego wysiłku: budowanie fiszek w Anki z podkreśleń jest na tyle żmudne, że większość ludzi nigdy tego nie robi
- Podsumowania generowane przez LLM ryzykują byciem generycznymi — potrzebne było kontekstowo świadome promptowanie obsługujące non-fiction, książki techniczne i fikcję inaczej, zakorzenione w rzeczywistych podkreśleniach czytelnika, nie tylko tytule książki
Rozwiązanie
Zbudowałem backend Go z czystym REST API, frontend React do doświadczenia czytelniczego i potok AI do przetwarzania treści. Kluczowa innowacja to kontekstowo świadome generowanie fiszek adaptujące się do gatunku książki i zakorzenione w podkreślonych fragmentach czytelnika — output jest osobisty i dokładny, nie generyczny.
- Fiszki z powtórzeniami z odstępami generowane przez AI z podkreśleń i osobistych notatek
- Kontekstowo świadome podsumowania rozdziałów i ekstrakcja kluczowych insights przez Claude API
- Integracja eksportu Anki i śledzenie dziennych serii czytania dla budowania nawyków
Podejście i metodologia
Zacząłem od najmniejszego możliwego MVP: ręczny import podkreśleń plus podstawowe generowanie fiszek, bez AI. Iterowałem na podstawie osobistego użytkowania przez 3 miesiące przed otwarciem wczesnego dostępu. Każda decyzja dotycząca funkcji wynikała z jednego pytania: czy to faktycznie pomaga mi zapamiętać to, co czytam? Funkcje, które wyglądały imponująco, ale nie zmieniały retencji, były wycinane.
Szczegóły implementacji
Kontekstowo Świadome Generowanie Fiszek
Generator fiszek adaptuje się do typu książki: techniczne otrzymują karty Q&A skupione na kodzie, non-fiction otrzymuje pary koncept-definicja, fikcja otrzymuje karty postaci i fabuły. System używa własnych podkreśleń i notatek czytelnika jako kontekstu do generowania — Claude syntetyzuje tylko treść, z którą czytelnik faktycznie się zaangażował, eliminując ryzyko halucynacji.
Backend Go z Minimalną Architekturą
Go wybrano za prostotę, wydajność i niski narzut operacyjny: deployment jako pojedynczy plik binarny, czasy odpowiedzi API poniżej 10ms i łatwe rozumowanie o współbieżności dla równoległych wywołań AI API. Czysty REST API z architekturą heksagonalną, PostgreSQL do persystencji, Redis do sesji. Cały backend mieści się w głowie jednego developera.
Potok Insights AI
Asynchroniczny potok do przetwarzania treści książki: podsumowania rozdziałów, ekstrakcja kluczowych insights i analiza wzorców czytania. Użyto Claude API z inżynierią promptów specjalnie zaprojektowaną do zakorzenienia outputów w podkreśleniach użytkownika — nie w danych treningowych modelu o książce. Eksport talii zgodny z Anki pozwala power users integrować z istniejącym workflow powtórzeń z odstępami.
Kluczowe decyzje
- Go zamiast Node.js — deployment jako jeden plik binarny, lepsza wydajność dla równoległych wywołań AI API i głęboka znajomość Go. Prostota Go odpowiada celowi prostoty produktu.
- Claude API zamiast OpenAI — lepsze podążanie za instrukcjami dla strukturyzowanego outputu fiszek i bardziej przewidywalna ekstrakcja JSON z kontekstu podkreśleń. Haiku do generowania dużego wolumenu, Sonnet do złożonych podsumowań.
- Self-hosted PostgreSQL zamiast zarządzanej bazy danych — niższy koszt na wczesnym etapie, pełna kontrola nad ewolucją schematu i cenne doświadczenie infrastrukturalne dla przyszłych projektów.
Stack technologiczny
Powiązane usługi
Poniższe usługi zostały wykorzystane w tym projekcie do osiągnięcia pomyślnych rezultatów.
Wnioski z projektu
- Powtórki z odstępami są przekonujące w teorii, ale wymagają budowania nawyku — najbardziej wpływową funkcją okazało się śledzenie dziennych serii czytania, nie funkcje AI
- Ryzyko halucynacji AI dla podsumowań książek jest realne — zakorzenienie modelu ściśle w podkreśleniach użytkownika (nie tytuł książki + autor) było krytyczną decyzją projektową dla dokładności
- Eksport Anki był najczęściej żądaną funkcją przez power users — integracja z istniejącymi, sprawdzonymi workflow jest lepsza niż budowanie nowych od zera
Informacje o projekcie
Czas realizacji
4 miesiące do MVP, w toku
Zespół
Projekt solo
Rezultaty
500+
aktywnych czytelników
10k+
śledzonych książek w bibliotece
∞
fiszek wygenerowanych przez AI
Masz podobne wyzwanie?
Porozmawiajmy, jak mogę pomóc Twojemu projektowi odnieść sukces dzięki sprawdzonym rozwiązaniom architektonicznym i AI.