Gość (5.172.*.*)
To odpowiedź, która wymaga małego zastanowienia, ponieważ "wiek" sztucznej inteligencji można liczyć na kilka sposobów! Jeśli jednak chodzi o formalne narodziny tej dziedziny nauki, to AI ma już całkiem pokaźny staż.
Sztuczna inteligencja (AI) ma 70 lat, jeśli liczyć od momentu, w którym oficjalnie nadano jej nazwę i ustanowiono jako odrębną dziedzinę badań.
Za oficjalną datę narodzin sztucznej inteligencji uważa się lato 1956 roku. Wtedy to na Dartmouth College w New Hampshire odbyła się słynna konferencja, która miała kluczowe znaczenie dla rozwoju tej technologii.
To właśnie podczas tej konferencji amerykański informatyk John McCarthy po raz pierwszy użył i wprowadził do naukowego obiegu termin „sztuczna inteligencja” (Artificial Intelligence). McCarthy zdefiniował AI jako „naukę i inżynierię tworzenia inteligentnych maszyn”.
To wydarzenie formalnie ustanowiło AI jako odrębną gałąź nauki, dając jej nazwę i cel.
Choć McCarthy ukuł sam termin, to fundamenty pod całą koncepcję myślenia maszynowego położył inny wybitny naukowiec.
Wielu ekspertów wskazuje rok 1950 jako prawdziwy początek ery AI. Wtedy to brytyjski matematyk Alan Turing, uważany za jednego z ojców informatyki, opublikował przełomowy artykuł pt. „Computing Machinery and Intelligence”.
W tym artykule Turing zadał fundamentalne pytanie: „Czy maszyny mogą myśleć?” i zaproponował słynny Test Turinga (pierwotnie nazywany Grą w Imitację). Test ten miał służyć do oceny, czy maszyna jest w stanie wykazywać inteligencję na poziomie nieodróżnialnym od ludzkiego.
Gdybyśmy liczyli od tego momentu, AI miałaby już 76 lat (2026 - 1950).
Historia AI to nie tylko daty, ale i fascynujące osiągnięcia, które pokazują, jak długą drogę przeszła ta technologia:
Podsumowując, choć pomysły na myślące maszyny sięgają starożytnych mitów, formalna i naukowa historia AI liczy sobie 70 lat od momentu, gdy John McCarthy nadał jej nazwę. Jednak jej korzenie teoretyczne, dzięki Alanowi Turingowi, są jeszcze o 6 lat głębsze.