11.8 C
Скопје
15 јуни, 2024
Inbox7.mk
НАУКА

Се вшештува борбата во вештачката интелигенција: Гугл го претстави PaLM 2, дали е подобар од GPT-4?

Во средата, Google го претстави PaLM 2, семејство на основни јазични модели споредливи со GPT-4 на OpenAI. На својот настан Google I/O во Маунтин Вју, Калифорнија, Google откри дека веќе користи PaLM 2 за напојување на 25 производи, вклучувајќи го и неговиот асистент за разговорна вештачка интелигенција Bard.

Како семејство на големи јазични модели (LLMs), PaLM 2 е обучен за огромен обем на податоци и прави предвидување на следниот збор, што го издава најверојатниот текст по брзо внесување од страна на луѓето. PaLM е кратенка за „Pathways Language Model“, а „Pathways“ е техника за машинско учење создадена во Google. PaLM 2 го следи оригиналниот PaLM, кој Google го објави во април 2022 година.

Според Google, PaLM 2 поддржува над 100 јазици и може да врши „резонирање“, генерирање кодови и повеќејазичен превод. За време на неговиот главен говор на Google I/O во 2023 година, извршниот директор на Google, Сундар Пичаи, рече дека PaLM 2 доаѓа во четири големини: геко, видра, бизон, еднорог. Геко е најмалиот и наводно може да работи на мобилен уред. Освен Бард, PaLM 2 стои зад карактеристиките на вештачката интелигенција во Документи, Листови и Слајдови.

Сето тоа е добро и добро, но како PaLM 2 се собира на GPT-4? Во техничкиот извештај на PaLM 2, се чини дека PaLM 2 го победи GPT-4 во некои математички, преведувачки и расудувачки задачи. Но, реалноста можеби не одговара на одредниците на Google. Во површна евалуација на верзијата PaLM 2 на Бард од Итан Молик, професор од Вартон, кој често пишува за вештачката интелигенција, Молик открива дека перформансите на PaLM 2 изгледаат полоши од GPT-4 и Bing на различни неформални јазични тестови, кои ги детализираше на Твитер.

До неодамна, семејството на јазични модели PaLM беше внатрешен производ на Google Research без изложеност на потрошувачите, но Google почна да нуди ограничен пристап до API во март. Сепак, првиот PalM беше забележлив по својата огромна големина: 540 милијарди параметри. Параметрите се нумерички променливи кои служат како научено „знаење“ на моделот, овозможувајќи му да прави предвидувања и да генерира текст врз основа на влезот што го прима.

Related posts

Здраво Winamp, одамна не сме се виделе

ninja

Ќе наплаќа ли Фејсбук за негово користење?

admin

Мира Мурати од OpenAI: жената виновна за туркање на генеративната вештачка интелигенција во реалниот свет

admin

ВИДЕО: Роботи-кучиња ќе им помагаат на полицајците во Њујорк

ninja

Добра вест за дебелите: Pfizer со орален лек за намалување на телесната тежина

admin

Обичниот iPhone ќе биде без овие функции и во следните две генерации

ninja