Filosofin kring artificiell intelligens
From Wikipedia, the free encyclopedia
Filosofin kring artificiell intelligens (förenklat: AI-filosofi) försöker besvara sådana frågor som följer:[1]
- Kan en maskin agera intelligent? Kan den lösa eventuella problem som en person skulle lösa genom att tänka?
- Är mänsklig intelligens och maskinell intelligens samma sak? Är den mänskliga hjärnan i huvudsak en dator?
- Kan en maskin har ett sinne, mentala tillstånd och ett medvetande på samma sätt som en människa kan? Kan den känna saker?
Dessa tre frågor återspeglar de olika intressena hos AI-forskare, lingvister, kognitiva forskare resp. filosofer. De vetenskapliga svaren på dessa frågor beror på definitionen av "intelligens" och "medvetande" samt exakt vilka "maskiner" som diskuteras.
Viktiga förslag inom AI-filosofin är:
- Turingtestet: Om en maskin beter sig så intelligent som en människa, så är den lika intelligent som en människa[2]
- Dartmouthförslaget: Varje aspekt av lärande eller någon annan egenskap hos intelligens kan beskrivas så exakt att en maskin kan tillverkas för att simulera det[3]
- Newells och Simons hypotes om fysiska symbolsystem: Ett fysiskt symbolsystem har nödvändiga och tillräckliga medel för allmänt intelligenta handlingar[4]
- Searles starka AI-hypotes: Den ändamålsmässigt programmerade datorn med rätt in- och utdata skulle kunna ha ett sinne i exakt samma mening som människor har sinnen[5]
- Hobbes mekanism: Orsak är inget annat en beräkning[6]