Vad är svag AI
Svag AI, eller smal AI, är en maskininformation som är begränsad till ett specifikt eller smalt område. Weak Artificial Intelligence (AI) simulerar mänsklig kognition och gynnar mänskligheten genom att automatisera tidskrävande uppgifter och genom att analysera data på sätt som människor ibland inte kan.
BREAKING NED Svag AI
Svag AI saknar mänskligt medvetande, även om det kanske kan simulera det. Den klassiska illustrationen av svag AI är John Searles kinesiska rumtankeexperiment. I detta experiment sägs att en person utanför ett rum kan ha det som verkar vara en konversation på kinesiska med en person i ett rum som får instruktioner om hur man svarar på samtal på kinesiska. Personen inuti rummet tycktes prata kinesiska, men i verkligheten kunde de faktiskt inte tala eller förstå ett ord av det frånvarande instruktionerna de får. Det beror på att personen är bra på att följa instruktioner, inte att tala kinesiska. De kan tyckas ha stark AI - maskininformation som motsvarar mänsklig intelligens - men de har egentligen bara svag AI.
Smala eller svaga AI-system har inte allmän intelligens; de har specifik intelligens. En AI som är expert på att berätta hur man kör från punkt A till punkt B är vanligtvis oförmögen att utmana dig till ett schackspel. Och en AI som kan låtsas prata kinesiska med dig kan förmodligen inte sopa dina golv.
Svag AI hjälper till att förvandla big data till användbar information genom att upptäcka mönster och göra förutsägelser. Exempel inkluderar Facebooks nyhetsflöde, Amazons föreslagna köp och Apples Siri, iPhone-tekniken som svarar på användarnas talade frågor. Skräppostfilter via e-post är ett annat exempel på svag AI där en dator använder en algoritm för att lära sig vilka meddelanden som sannolikt kommer att vara skräppost, och sedan omdirigerar dem från inkorgen till skräppostmappen.
Begränsningar av svag AI
Problem med svag AI förutom dess begränsade kapacitet inkluderar möjligheten att orsaka skada om ett system misslyckas - tänk på en förarlös bil som felberäknar platsen för ett ankommande fordon och orsakar en dödlig kollision - och möjligheten att orsaka skada om systemet används av någon som vill orsaka skada - till exempel en terrorist som använder en självkörande bil för att sprida sprängämnen i ett trångt område. En annan fråga med det är att bestämma vem som har fel för ett fel eller en designfel.
Ytterligare en oro är förlusten av jobb orsakade av automatisering av ett ökande antal uppgifter. Kommer arbetslösheten att skyrocket eller kommer samhället att hitta nya sätt för människor att vara ekonomiskt produktiva? Även om utsikterna för att en stor andel arbetare förlorar sina jobb kan vara skrämmande, är det rimligt att förvänta sig att om detta skulle hända kommer nya jobb att dyka upp som vi ännu inte kan förutsäga, eftersom användningen av AI blir allt mer utbredd.
