Kunstmatige intelligentie zal nog steeds niet zo slim zijn als mensen


Jonathan Knowles/Getty, StudioM1/Getty, Tyler Le/BI

AI domineerde dit jaar de agenda op het World Economic Forum in Davos.

Deskundigen benadrukten dat ondanks de hype AI – althans in zijn huidige vorm – vrij beperkt is.

Voor het creëren van AI die vergelijkbaar is met die van mensen zijn nieuwe modellen nodig, zeiden ze deze week tijdens een panel.

Dit is een machinevertaling van een artikel van onze Amerikaanse collega's bij Business Insider. Het werd automatisch vertaald en gecontroleerd door een redacteur.

AI was misschien dit jaar op ieders lippen in Davosmaar sommige aanwezige experts hadden een behoorlijk ontnuchterende boodschap voor alle aanwezigen: AI heeft nog een lange weg te gaan voordat het echt intelligent is.

Het is gemakkelijk te begrijpen Waarom AI stond bovenaan de agenda van het World Economic Forum in Zwitserland. Ze zit er tenslotte middenin Een hype-cyclus die Web3 zou doen blozen.

In het jaar sinds wereldleiders voor het laatst bijeenkwamen voor de jaarlijkse vakbeurs, hebben grote tech-titanen als Google en Microsoft moeite gehad om de ChatGPT van OpenAI in te halen, terwijl Bill Gates prees de wereldveranderende mogelijkheden van de technologie hoed.

Maar ondanks alle hype benadrukten AI-experts deze week dat AI – in zijn huidige vorm tenminste – is vrij beperkt van omvang. Vooral als het doel is om algemene kunstmatige intelligentie te creëren. Dit is waarom.

AI krast alleen maar op het oppervlak

Tijdens een paneldiscussie op dinsdag over generatieve KI Experts wezen eerst op de data-uitdagingen die moeten worden overwonnen om de huidige AI veel slimmer te maken.

Daphne Koller, een computerwetenschapper en MacArthur-‘genie’, vertelde het panel dat ‘we nog maar net aan de oppervlakte van de beschikbare gegevens beginnen te komen.’

Veel van de populairste AI-modellen van vandaag, zoals Sommige technologieën, zoals GPT-4 van OpenAI, worden getraind met behulp van gegevens die publiekelijk beschikbaar zijn op internet. Het soort data dat Koller graag wil verwerken met AI gaat verder dan dat.

Daphne Koller.

Daphne Koller.
Neilson Barnard/Getty Images

Aan de ene kant is er een scala aan gegevens die afkomstig kunnen zijn van zogenaamde ‘belichaamde AI’, dat wil zeggen AI ingebed in agenten zoals robots die kunnen interageren met de fysieke omgeving. De huidige chatbots ontvangen niet echt veel van deze gegevens.

Momenteel zijn er bepaalde gevallen waarin AI interageert met dit soort omgevingen om gegevens te verzamelen. Denk maar aan de manier waarop autonome auto’s gegevens over het wegverkeer verzamelen en analyseren de manier waarop AI wordt gebruikt om vroege tekenen van netvliesziekten op te sporen.

Het probleem is dat er nog geen universeel AI-model bestaat dat al deze data naast de data van internet kan analyseren en verwerken.

Er is ook een gebrek aan gegevens uit experimenten.

Zoals Koller opmerkte, maakt het vermogen om ‘met deze wereld te experimenteren’ deel uit van wat mensen zo effectief maakt in het leren. Het vermogen van AI om dit te doen is op dit moment in vergelijking ontoereikend.

Eén oplossing voor dit dataprobleem is om machines de mogelijkheid te geven hun eigen synthetische data te creëren, in plaats van alleen maar te vertrouwen op de door mensen gecreëerde data die ze via internet krijgen.

“Als we willen dat deze machines groeien, moeten we ze de mogelijkheid geven om niet alleen ‘in silico’ met elkaar te praten… maar om echt met de wereld te experimenteren en het soort gegevens te produceren dat hen zal helpen te blijven groeien. en evolueren, ontwikkelen”, zei ze.

Het architecturale probleem

Het andere probleem waar de experts op wezen, draait om architectuur.

Voor Yann LeCun, senior AI-wetenschapper bij Meta iHet is duidelijk dat autoregressieve grote taalmodellen (LLM's) – de modellen die ten grondslag liggen aan de huidige AI-chatbots – “een aantal nieuwe architecturen” nodig hebben om het volgende niveau van intelligentie te bereiken.

Momenteel werken AI-modellen zoals LLM's door bijvoorbeeld een tekstgedeelte te nemen, dit te vervormen door woorden te verwijderen, en vervolgens de modellen de volledige tekst te laten reconstrueren. LeCun merkt op dat ze dit best goed kunnen doen met tekst, maar met afbeeldingen of video's? Laat maar.

“Ik neem een ​​afbeelding die beschadigd is door enkele onderdelen te verwijderen en train vervolgens een groot neuraal netwerk om de afbeelding te herstellen. En dat werkt niet, of niet zo goed”, zegt de metawetenschapper.

Het is vermeldenswaard dat er tegenwoordig AI-modellen zijn die behoorlijk effectief zijn in het genereren van afbeeldingen, maar dit zijn tekst-naar-afbeelding-modellen zoals Midjourney en Stable Diffusion. OpenAI heeft ook een AI-model genaamd DALL-E voor het genereren van afbeeldingen dat onafhankelijk is van GPT-4.

Voor LeCun ligt de weg naar een AI-model dat alles kan, misschien niet in de dingen waar iedereen momenteel door geobsedeerd is.

“Er is nog geen echte oplossing, maar de dingen die op dit moment het meest veelbelovend zijn, in ieder geval de dingen die werken voor beeldherkenning – ik zal iedereen verrassen – zijn niet-generatief, oké”, zei hij.

Koller ziet ook problemen met de huidige LLM's. Volgens hen zijn de huidige versies van deze modellen bijvoorbeeld niet erg goed in het begrijpen van fundamentele cognitieve logica, zoals oorzaak en gevolg.

“Het zijn pure voorspellingsmachines die alleen maar associaties maken”, zei ze.

Dit is niet de eerste keer dat er twijfels rijzen over de prestaties van de huidige AI-modellen.

A voorgedrukt papier dat in november door een drietal Google-onderzoekers bij ArXiv werd ingediend, ontdekte dat de transformatortechnologie die ten grondslag ligt aan LLM's niet erg goed is in het generaliseren buiten de bestaande dataset. Als AGI het grote doel is, is dat niet veelbelovend.

01.AI-oprichter Kai-Fu Lee.

01.AI-oprichter Kai-Fu Lee.
Steve Jennings/Getty Images voor TechCrunch

Dit wil niet zeggen dat de huidige LLM's nutteloos zijn. De Taiwanese computerwetenschapper en 01.AI-oprichter Kai-Fu Leedie ook aan de paneldiscussie deelnam, sprak over de “ongelooflijke commerciële waarde” ervan: zijn bedrijf heeft minder dan acht maanden na de lancering een waardering van $1 miljard bereikt.

“Ze lossen echte problemen op, ze kunnen inhoud genereren, ze verbeteren onze productiviteit dramatisch, ze worden overal gebruikt”, zei hij.

Staan ze echter op het punt machines net zo intelligent te maken als mensen? In ieder geval niet in zijn huidige vorm.

Visited 1 times, 1 visit(s) today