Gość (37.30.*.*)
Często myślimy o sobie jako o istotach racjonalnych, które podejmują decyzje na podstawie faktów i chłodnej kalkulacji. Z drugiej strony mamy sztuczną inteligencję – twór czysto matematyczny, który wydaje się być ucieleśnieniem logiki. Rzeczywistość jest jednak znacznie bardziej skomplikowana. Porównanie logiki ludzkiej i tej prezentowanej przez AI to fascynująca podróż przez psychologię, matematykę i błędy poznawcze, które definiują naszą codzienność.
Ludzie rzadko bywają w pełni logiczni w sensie matematycznym. Nasz proces myślowy jest ewolucyjnie zaprogramowany do przetrwania, a nie do rozwiązywania skomplikowanych równań w każdej sekundzie życia. Daniel Kahneman, laureat Nagrody Nobla, w swojej książce „Pułapki myślenia”, opisał dwa systemy, którymi się posługujemy. System 1 jest szybki, intuicyjny i emocjonalny, natomiast System 2 jest wolny, analityczny i wymaga wysiłku.
Problem polega na tym, że przez większość czasu działamy na „autopilocie” Systemu 1. Ulegamy błędom poznawczym, takim jak efekt potwierdzenia (szukamy informacji, które pasują do naszych tez) czy heurystyka dostępności (oceniamy prawdopodobieństwo zdarzeń na podstawie tego, jak łatwo przychodzą nam do głowy przykłady). W efekcie nasza logika jest często „dziurawa” i podatna na wpływ nastroju, głodu czy zmęczenia.
Nasza nielogiczność ma jednak swoje zalety. Pozwala nam na empatię, kreatywność i podejmowanie decyzji w sytuacjach, gdzie brakuje danych. Tam, gdzie AI mogłoby się „zawiesić” z powodu braku wystarczających informacji, człowiek używa intuicji, która jest rodzajem skrótu myślowego opartego na doświadczeniu.
Sztuczna inteligencja, szczególnie modele językowe (LLM), działa na zupełnie innych zasadach. AI nie „myśli” w ludzkim znaczeniu tego słowa. Jej logika opiera się na statystyce i przewidywaniu kolejnych elementów ciągu danych (np. słów w zdaniu) na podstawie ogromnych zbiorów treningowych.
AI jest niezwykle logiczna w zadaniach formalnych. Jeśli poprosisz ją o rozwiązanie zadania z logiki matematycznej, zrobi to bezbłędnie, o ile schemat mieści się w jej danych treningowych. Nie miewa gorszych dni, nie ulega emocjom i nie zmienia zdania pod wpływem nastroju rozmówcy. Jednak ta „logika” jest ograniczona do ram, które nadali jej programiści i dane.
Modele AI potrafią stosować rozumowanie dedukcyjne (od ogółu do szczegółu), ale często zawodzą przy rozumowaniu indukcyjnym lub przy tzw. „zdrowym rozsądku”. AI może wygenerować genialny kod programistyczny, a chwilę później stwierdzić coś absurdalnego, ponieważ nie rozumie fizycznej natury świata. Jej logika jest cyfrowa i oderwana od rzeczywistości materialnej.
Porównując oba rodzaje logiki, można zauważyć wyraźny podział kompetencji. AI dominuje tam, gdzie liczy się przetwarzanie ogromnych ilości danych bez uprzedzeń emocjonalnych. Człowiek wygrywa w sytuacjach wymagających kontekstu kulturowego, moralnego i etycznego.
Warto wspomnieć o czymś, co naukowcy nazywają paradoksem Moraveca. Odkryto, że wysokopoziomowe rozumowanie (logika, szachy, analiza giełdowa) wymaga stosunkowo niewielkiej mocy obliczeniowej, podczas gdy niskopoziomowe umiejętności sensoryczno-motoryczne (chodzenie, rozpoznawanie twarzy w tłumie, omijanie przeszkód) wymagają ogromnych zasobów. To dlatego AI łatwiej jest wygrać w szachy, niż posprzątać pokój – dla nas jest dokładnie odwrotnie.
Obecnie dąży się do tego, aby AI nie tylko liczyła, ale też „rozumiała” kontekst. Poprzez techniki takie jak Chain of Thought (łańcuch myśli), modele są zmuszane do rozbijania problemów na mniejsze kroki, co imituje ludzkie rozumowanie analityczne. Mimo to, AI zawsze pozostanie systemem opartym na prawdopodobieństwie.
Z kolei ludzie, dzięki technologii i świadomości własnych błędów poznawczych, starają się być bardziej „algorytmiczni” w kluczowych dziedzinach, takich jak medycyna czy lotnictwo, stosując listy kontrolne i procedury, które mają wyeliminować zawodną ludzką logikę.
Ostatecznie, ani ludzie, ani AI nie są w 100% logiczni. My jesteśmy zbyt emocjonalni, a AI jest zbyt zależna od danych, na których się uczyła. Najlepsze efekty osiągamy wtedy, gdy te dwa rodzaje logiki współpracują: człowiek dostarcza cel i wartości, a AI dba o precyzję i analizę faktów.