AI jest nieuniknione. Kto myśli inaczej, jest po prostu w błędzie.
Dlaczego?
AI realnie pomaga w pracy
AI automatyzuje wiele rutynowych zadań, pomaga w researchu, tworzy treści, analizuje dane i wspomaga podejmowanie decyzji. To już się dzieje!
Pod koniec 2024 roku temat AI był dla mnie abstrakcyjny, ale wraz z upływem czasu i rozwojem LLM, widzę że AI coś jednak potrafi.
Niedawno Microsoft ogłosił, że usuwa modele premium z GitHub Copilot dla studentów. Copilot to nieironicznie bardzo dobre narzędzie. Po usunięciu tych modeli zauważyłem ogromny spadek jakości generowanego kodu. To tak jakby programować po dwóch godzinach snu.
Bardzo ważne jest nie polegać w 100% na tych narzędziach, ponieważ człowiek się rozleniwia. Zauważyłem, że po kilku dniach delegowania zadań do LLM, nie chciało mi się myśleć samodzielnie. Zdarzyło się nawet kilka razy, że pomijałem sprawdzanie wygenerowanego kodu, bo wcześniejsze próby okazały się prawidłowe.
Drugi przykład, to sytuacja, w której nakazywałem Copilotowi aktualizację paczek… Samo pisanie prompta zajęło mi więcej czasu, niż manualny research i aktualizacja zmian, nie wspominając o konieczności code review. Trzeba na to uważać.
Korporacje podążają za trendami
Wielkie firmy technologiczne, takie jak Microsoft, Google, Amazon, Meta i inne, inwestują ogromne środki w rozwój AI.
Każdy nowy produkt, który wprowadzają, musi wspierać integrację z AI.
Moim zdaniem, jest to bardzo ogłupiające, ponieważ tworzy sporo bloatware’u, ale z drugiej strony, przynosi to korzyści finansowe, ponieważ inwestorzy chętniej inwestują w firmy, które mają AI w swoich produktach.
Koszt AI a korzyści
Za kilka miesięcy kończy mi się licencja na VPS, ale postanowiłem jej nie przedłużać. Cena wzrosła o 100% i nie jest to już opłacalne. Moje projekty, które tam hostuję, nie generują przychodów, więc nie widzę sensu w płaceniu takiej kwoty.
Cena LLM jest bardzo wysoka, ale jest ukryta, ponieważ jest pokrywana przez pieniądze inwestorów. Niedawno Anthropic wydało Claude Code Review, okazało się, że jest bardzo drogie!
Reviews are billed on token usage and generally average $15–25, scaling with PR size and complexity.
Według mnie to duża kwota, biorąc pod uwagę, że na PLN jest to około 50-80 złotych za jedno review.
Pytanie, kiedy przekroczymy próg, w którym paradoksalnie człowiek będzie tańszy niż AI.
Co jeśli centra danych, prąd i koniec dopłat inwestorów sprawią, że Chat GPT zamiast 100 złotych będzie kosztować 1000 złotych miesięcznie za podstawowy model?
Możliwe, że powstaną wyspecjalizowane modele pod konkretny język programowania, które będą tańsze, ale to tylko spekulacje.
No bo przecież firmy AI raczej nie robią tego, żeby zarabiać pieniądze, tylko po to, żeby zmieniać świat, prawda? 😉
Jak nie zostać w tyle?
- Ucz się korzystać z AI, ale nie polegaj na nim.
- Traktuj LLM jako nauczyciela lub stażystę, ale nie jako zastępstwo.
- Bądź świadomy ograniczeń AI i nie daj się zwieść marketingowym sloganom.
- Inwestuj w rozwój umiejętności miękkich.
Podczas nauki, najważniejsze jest, aby się nie przemęczać. AI to kolejne narzędzie, jedne z wielu, po prostu okres przejściowy jest stresujący, ale nie ma innego wyjścia.
Jak będzie wyglądać praca programisty?
Praca programisty będzie się zmieniać, ale na pewno nie zniknie.
Myślę, że nie będzie specjalistów w jednej dziedzinie, ale raczej osoby, które są średnie, ale wystarczająco dobre, aby programować ze wsparciem AI i rozumieć, kiedy się myli.
Najważniejsze jest, aby nie dać się pokonać doomerom z LinkedIna, którzy twierdzą, że za pół roku wszyscy stracimy pracę. codingissolved.com, strona pokazuje, że przepowiednie CEO są po prostu bajkami, aby zwabić inwestorów.
5 Przykładów, kiedy AI pomyliło się w mojej pracy
- Gemini, model od Google, tworzył pętlę zapominania zmiennych. Każdy kolejny prompt powodował, że usuwał połowę wcześniejszego kodu.
- Żaden LLM nie jest w stanie napisać dobrych testów jednostkowych. Zawsze brakuje im kontekstu, a nawet jeśli go mają, to i tak testują implementation details, a nie zachowanie.
- GPT‑5.3‑Codex w Visual Studio Code w trybie agenta ma tendencję do nadmiernego buildowania, testowania i uruchamiania aplikacji. Często w moim przypadku wpadał w pętle, gdzie po dodaniu jednej linijki kodu, budował cały projekt, a następnie testował i uruchamiał go.
- LLM nie jest w stanie zrozumieć pojęcia refaktoryzacji. Zawsze będzie dopisywał lub psuł kod, zamiast go upraszczać.
- AI halucynuje. Zawsze. Przy refaktorze z
SatorinaTakumi(narzędzia do generowania obrazków kodem), model zaczął wymyślać API. Myślałem, że dopięcie dokumentacji do LLMa rozwiąże problem, ale niestety, nic to nie pomogło. Jest to duży problem, ponieważ istnieje dużo świetnych bibliotek, które są słabo udokumentowane, a AI nie jest w stanie sobie z tym poradzić.
Jak promptować AI i nie stracić cierpliwości
- Daj maksymalnie dużo kontekstu.
Nazwa frameworka, wersja, dokumentacja, skille AI, styl kodu, wszystko, co może pomóc AI zrozumieć, czego oczekujesz. - Pisz maksymalnie precyzyjnie, ale nie za dużo.
Nie pisz zbyt ogólnych promptów, ale też nie przesadzaj z detalami. Znajdź złoty środek. - Wymuszaj format odpowiedzi.
Chcesz tylko fragment kodu? Napisz mu to! Testy E2E? Powiedz mu, że nie chcesz testów jednostkowych. - Używaj trybu planowania w agentach.
Zamiast dawać mu zadanie do wykonania, poproś go o rozplanowanie. - Resetuj kontekst, jeśli widzisz, że się gubi.
Jeśli zauważysz, że AI zaczyna halucynować lub zapominać, nie bój się zresetować kontekstu i zacząć od nowa. - Porównuj odpowiedzi z różnych modeli.
Nie polegaj na jednym, sprawdzaj, jak radzą sobie modele różnych firm.