14 јануари, 2025
Inbox7.mk
НАУКА

Се вшештува борбата во вештачката интелигенција: Гугл го претстави PaLM 2, дали е подобар од GPT-4?

Во средата, Google го претстави PaLM 2, семејство на основни јазични модели споредливи со GPT-4 на OpenAI. На својот настан Google I/O во Маунтин Вју, Калифорнија, Google откри дека веќе користи PaLM 2 за напојување на 25 производи, вклучувајќи го и неговиот асистент за разговорна вештачка интелигенција Bard.

Како семејство на големи јазични модели (LLMs), PaLM 2 е обучен за огромен обем на податоци и прави предвидување на следниот збор, што го издава најверојатниот текст по брзо внесување од страна на луѓето. PaLM е кратенка за „Pathways Language Model“, а „Pathways“ е техника за машинско учење создадена во Google. PaLM 2 го следи оригиналниот PaLM, кој Google го објави во април 2022 година.

Според Google, PaLM 2 поддржува над 100 јазици и може да врши „резонирање“, генерирање кодови и повеќејазичен превод. За време на неговиот главен говор на Google I/O во 2023 година, извршниот директор на Google, Сундар Пичаи, рече дека PaLM 2 доаѓа во четири големини: геко, видра, бизон, еднорог. Геко е најмалиот и наводно може да работи на мобилен уред. Освен Бард, PaLM 2 стои зад карактеристиките на вештачката интелигенција во Документи, Листови и Слајдови.

Сето тоа е добро и добро, но како PaLM 2 се собира на GPT-4? Во техничкиот извештај на PaLM 2, се чини дека PaLM 2 го победи GPT-4 во некои математички, преведувачки и расудувачки задачи. Но, реалноста можеби не одговара на одредниците на Google. Во површна евалуација на верзијата PaLM 2 на Бард од Итан Молик, професор од Вартон, кој често пишува за вештачката интелигенција, Молик открива дека перформансите на PaLM 2 изгледаат полоши од GPT-4 и Bing на различни неформални јазични тестови, кои ги детализираше на Твитер.

До неодамна, семејството на јазични модели PaLM беше внатрешен производ на Google Research без изложеност на потрошувачите, но Google почна да нуди ограничен пристап до API во март. Сепак, првиот PalM беше забележлив по својата огромна големина: 540 милијарди параметри. Параметрите се нумерички променливи кои служат како научено „знаење“ на моделот, овозможувајќи му да прави предвидувања и да генерира текст врз основа на влезот што го прима.

Related posts

Мира Мурати од OpenAI: жената виновна за туркање на генеративната вештачка интелигенција во реалниот свет

admin

Напорот на Русија да се врати на Месечината заврши со срамен крај

admin

Том Хенкс за вештачката интелигенција што го прави возможно да продолжи да се појавува во филмови дури и по смртта

admin

Не симнувај апликација за Вештачка Интелигенција без да го прочиташ ова

admin

Обичниот iPhone ќе биде без овие функции и во следните две генерации

ninja

Гугл има монопол, Европска комисија бара злоупотреба

admin