Gość (37.30.*.*)
Wizja rodem z filmów science fiction, w której jednym kliknięciem wgrywamy sobie do głowy znajomość języka japońskiego albo umiejętność pilotażu helikoptera, od lat rozpala wyobraźnię. Choć technologia pędzi do przodu, a nasze smartfony stają się coraz potężniejsze, wciąż nie doczekaliśmy się masowego wszczepiania chipów, które realnie „podkręcałyby” nasz mózg. Dlaczego tak się dzieje? Odpowiedź kryje się w niezwykle skomplikowanej biologii, barierach technicznych oraz dylematach etycznych, które na ten moment wydają się nie do przeskoczenia.
Największym wyzwaniem jest fakt, że ludzki mózg nie działa jak cyfrowy komputer. W tradycyjnym pececie mamy procesor, pamięć RAM i dysk – wszystko połączone jasnymi, zrozumiałymi dla inżynierów ścieżkami. Mózg to z kolei około 86 miliardów neuronów, które tworzą biliony połączeń (synaps). Co więcej, te połączenia są płynne i ciągle się zmieniają w procesie zwanym neuroplastycznością.
Obecnie nie potrafimy jeszcze w pełni „rozszyfrować” kodu, jakim posługuje się mózg do przechowywania złożonych informacji, takich jak wspomnienia czy abstrakcyjne pojęcia. Potrafimy odczytać proste sygnały ruchowe (np. „chcę poruszyć kursorem”), co wykorzystują firmy takie jak Neuralink czy Synchron, ale „zapisywanie” danych w mózgu w sposób, który poprawiłby naszą inteligencję czy pamięć, to wciąż melodia dalekiej przyszłości.
Nasze ciało jest zaprogramowane tak, aby zwalczać wszystko, co obce. Wszczepienie chipa do tkanki mózgowej wiąże się z ryzykiem infekcji oraz reakcją układu odpornościowego. Organizm traktuje implant jak ciało obce i próbuje go odizolować, tworząc wokół niego tkankę bliznowatą (glejozę). Ta warstwa izolacyjna z czasem utrudnia przepływ sygnałów elektrycznych między neuronami a elektrodami chipa, co sprawia, że urządzenie traci swoją skuteczność.
Dodatkowym problemem jest trwałość materiałów. Środowisko wewnątrz czaszki jest wilgotne i aktywne chemicznie, co prowadzi do korozji elektroniki. Stworzenie urządzenia, które mogłoby bezpiecznie i wydajnie działać w mózgu przez kilkadziesiąt lat, jest ogromnym wyzwaniem inżynieryjnym.
Każdy procesor generuje ciepło. O ile w laptopie mamy wentylatory, o tyle wewnątrz czaszki nie ma miejsca na system chłodzenia. Nawet niewielki wzrost temperatury tkanki mózgowej może doprowadzić do nieodwracalnych uszkodzeń neuronów.
Pozostaje też kwestia zasilania. Baterie litowo-jonowe, które znamy z telefonów, nie są idealnym rozwiązaniem do wszczepienia w głąb czaszki ze względu na ryzyko wycieku czy konieczność regularnego ładowania. Naukowcy pracują nad ładowaniem indukcyjnym (bezprzewodowym) przez skórę, ale wciąż jest to rozwiązanie mało wydajne, jeśli chip miałby pracować na „wysokich obrotach” przez całą dobę.
Nawet jeśli pokonamy bariery techniczne, staniemy przed pytaniami, na które jako społeczeństwo nie mamy jeszcze odpowiedzi.
Wizja „zhakowanego mózgu” lub wyświetlania reklam bezpośrednio w polu widzenia (tzw. spam wewnątrzczaszkowy) skutecznie studzi entuzjazm wielu potencjalnych użytkowników.
Mimo tych trudności, nie stoimy w miejscu. Interfejsy mózg-komputer (BCI – Brain-Computer Interface) są już stosowane w medycynie.
Pierwsze próby łączenia mózgu z maszyną miały miejsce już w latach 70. XX wieku. Jacques Vidal, naukowiec z UCLA, ukuł wtedy termin BCI i udowodnił, że sygnały EEG (z powierzchni głowy) mogą być wykorzystane do sterowania prostymi obiektami graficznymi na ekranie komputera. Od tego czasu przeszliśmy drogę od wielkich maszyn do chipów wielkości monety.
Większość ekspertów uważa, że w najbliższych dekadach chipy będą służyć głównie celom terapeutycznym – przywracaniu wzroku, słuchu czy sprawności ruchowej. Masowe wszczepianie implantów w celu poprawy wydajności intelektualnej to perspektywa co najmniej 30-50 lat, o ile w ogóle uznamy to za bezpieczne i pożądane społecznie. Na razie najlepszym sposobem na „podkręcenie” naszego naturalnego komputera pozostaje zdrowy sen, nauka nowych umiejętności i odpowiednia dieta.