Китайската стая експериментира компютри с умове?
Мисловният експеримент на китайската стая е хипотетична ситуация, поставена от американския философ Джон Сиръл, за да покаже, че способността да се манипулира правилно набор от символи не означава непременно, че има разбиране или езиково разбиране на тези символи. Това означава, че способността за разбиране не произтича от синтаксиса, който се поставя под въпрос компютърната парадигма, разработена от когнитивните науки, за да се разбере функционирането на човешкия ум.
В тази статия ще видим точно от какво се състои този мисловен експеримент и какви философски дебати е генерирал.
- Свързана статия: "Каква е психологията и философията?"
Машината на Тюринг и изчислителната парадигма
Развитието на изкуствения интелект е един от големите опити на ХХ век разбират и дори възпроизвеждат човешкия ум чрез използване на компютърни програми. В този контекст една от най-популярните модели е машината на Тюринг.
Алън Тюринг (1912-1954) искаше да покаже, че една програмирана машина може да поддържа разговори като човешко същество. За това той предложи хипотетична ситуация, основана на имитация: ако програмираме машина, за да имитираме езиковия капацитет на ораторите, тогава го поставяме пред съдия и постигаме, че 30% от тези съдии смятат, че говорят с Това би било достатъчно доказателство, за да се покаже, че една машина може да бъде програмирана по такъв начин, че да възпроизведе менталните състояния на хората; и обратното, това би било и обяснителен модел за това как функционират човешките психични състояния.
От изчислителната парадигма част от когнитивния ток предполага, че най-ефективният начин за придобиване на знания за света е чрез все по-прецизно възпроизвеждане на правила за обработка на информация, така че, независимо от субективността или историята на всеки един, можем да функционираме и да реагираме в обществото. По този начин, умът ще бъде точно копие на реалността, това е мястото на съвършенство на знанието и инструмент за представяне на външния свят.
След машината на Тюринг дори програмирани са някои компютърни системи, които се опитват да преминат теста. Една от първите е Елиза, проектирана от Джозеф Вайзенбаум, която отговори на потребителите чрез модел, регистриран преди това в база данни, което накара някои събеседници да повярват, че говорят с човек.
Сред най-новите изобретения, които са подобни на машината на Тюринг, намираме, например, CAPTCHA за откриване на спам или SIRI на операционната система iOS. Но точно както е имало онези, които се опитват да докажат, че Тюринг е бил прав, има и такива, които го оспорват.
- Може би се интересувате: "Проблемът на Молине: любопитен умствен експеримент"
Китайската стая: работи ли умът като компютър?
От експериментите, които се стремят да одобрят теста на Тюринг, Джон Сирл прави разлика между слабата изкуствена интелигентност (тази, която симулира разбирането, без, но интенционални състояния, т.е. описва ума, но не го равнява); и силен изкуствен интелект (когато машината има психични състояния като тези на човешките същества, например, ако може да разбере историите като човек).
Невъзможно е Сиръл да създаде силна артистична интелигентност, това, което искаше да докаже с помощта на умствен експеримент, известен като китайската стая или китайското парче. Този експеримент се състои в представяне на хипотетична ситуация, която е следната: роден говорител на английски, който не знае китайски, е заключен в една стая и трябва да отговаря на въпроси относно история, разказана на китайски.
Как отговаряте? през книга с правила, написана на английски език, която служи за синтактично подреждане на китайски символи без да обясняват тяхното значение, само обяснявайки как трябва да се използват. Чрез това упражнение на въпросите се отговаря правилно от лицето, което е в стаята, дори ако този човек не е разбрал съдържанието му.
Да предположим, че има външен наблюдател, какво виждате? Че човекът, който е вътре в стаята, се държи точно като човек, който разбира китайския.
За Сиър това показва, че компютърната програма може да имитира човешкия ум, но това не означава, че компютърната програма е равна на човешкия ум, защото Той няма семантичен капацитет или интенционалност.
Въздействие върху разбирането на човешкия ум
Взето в полето на човека, гореизложеното означава, че процесът, чрез който развиваме способността да разбираме език, надхвърля наличието на набор от символи; други елементи, които компютърните програми не могат да имат, са необходими.
Не само това, но и от този експеримент Проучванията са разширени за това как се изгражда значението, и къде е това значение. Предложенията са много разнообразни, вариращи от когнитивни перспективи, които казват, че е в главата на всеки човек, произтичащи от набор от ментални състояния или които са дадени по вроден начин, към по-конструктивни перспективи, които питат как са изградени социалните системи и практики, които са исторически и дават социален смисъл (че терминът има смисъл не защото е в главите на хората, а защото влиза в набор от практически езикови правила).
Критиките за умствения експеримент на китайската стая
Някои изследователи, които не са съгласни със Сиър, смятат, че експериментът е невалиден защото, дори и човекът в стаята да не разбира китайски, може да се окаже, че в съчетание с елементите, които го заобикалят (една и съща стая, недвижимите имоти, ръководството за правилата), има разбиране за китайски.
Преди това, Сърл отговаря с нова хипотетична ситуация: дори и да изчезнем елементите, които заобикалят човека, който е вътре в стаята, и го молим да запомни ръководствата за правилата, за да манипулира китайските символи, този човек няма да разбира китайски, което също не създава изчислителен процесор.
Отговорът на същата тази критика е, че китайската стая е технически невъзможен експеримент. От своя страна отговорът на това е, че това, което е технически невъзможно не означава, че е логически невъзможно.
Друга от най-популярните критики е тази, извършена от Деннет и Хофстадтер, които се отнасят не само за експеримента на Сиръл, но и за множеството умствени експерименти, разработени през последните векове, тъй като надеждността е съмнителна, защото те нямат емпирична реалност. строг, но спекулативен и близо до здрав разум, с който те са преди всичко "бомба от интуиции".
Библиографски препратки:
- González, R. (2012). Китайската част: ментален експеримент с декартови пристрастия? Chilean Journal of Neuropsychology, 7 (1): 1-6.
- Sandoval, J. (2004). Представителство, дискурсивност и разположено действие. Критично въведение в социалната психология на знанието. Университет на Валпараисо: Чили.
- González, R. (S / A). "Помпи на интуициите", ум, материализъм и дуализъм: проверка, опровержение или епоха. Хранилище на Университета в Чили. [Онлайн]. Достъпен на 20 април 2018 г. Достъпен на адрес http://repositorio.uchile.cl/bitstream/handle/2250/143628/Bombas%20de%20intuiciones.pdf?sequence=1.