17.8 C
Скопје
8 мај, 2024
Inbox7.mk
НАУКА

Се вшештува борбата во вештачката интелигенција: Гугл го претстави PaLM 2, дали е подобар од GPT-4?

Во средата, Google го претстави PaLM 2, семејство на основни јазични модели споредливи со GPT-4 на OpenAI. На својот настан Google I/O во Маунтин Вју, Калифорнија, Google откри дека веќе користи PaLM 2 за напојување на 25 производи, вклучувајќи го и неговиот асистент за разговорна вештачка интелигенција Bard.

Како семејство на големи јазични модели (LLMs), PaLM 2 е обучен за огромен обем на податоци и прави предвидување на следниот збор, што го издава најверојатниот текст по брзо внесување од страна на луѓето. PaLM е кратенка за „Pathways Language Model“, а „Pathways“ е техника за машинско учење создадена во Google. PaLM 2 го следи оригиналниот PaLM, кој Google го објави во април 2022 година.

Според Google, PaLM 2 поддржува над 100 јазици и може да врши „резонирање“, генерирање кодови и повеќејазичен превод. За време на неговиот главен говор на Google I/O во 2023 година, извршниот директор на Google, Сундар Пичаи, рече дека PaLM 2 доаѓа во четири големини: геко, видра, бизон, еднорог. Геко е најмалиот и наводно може да работи на мобилен уред. Освен Бард, PaLM 2 стои зад карактеристиките на вештачката интелигенција во Документи, Листови и Слајдови.

Сето тоа е добро и добро, но како PaLM 2 се собира на GPT-4? Во техничкиот извештај на PaLM 2, се чини дека PaLM 2 го победи GPT-4 во некои математички, преведувачки и расудувачки задачи. Но, реалноста можеби не одговара на одредниците на Google. Во површна евалуација на верзијата PaLM 2 на Бард од Итан Молик, професор од Вартон, кој често пишува за вештачката интелигенција, Молик открива дека перформансите на PaLM 2 изгледаат полоши од GPT-4 и Bing на различни неформални јазични тестови, кои ги детализираше на Твитер.

До неодамна, семејството на јазични модели PaLM беше внатрешен производ на Google Research без изложеност на потрошувачите, но Google почна да нуди ограничен пристап до API во март. Сепак, првиот PalM беше забележлив по својата огромна големина: 540 милијарди параметри. Параметрите се нумерички променливи кои служат како научено „знаење“ на моделот, овозможувајќи му да прави предвидувања и да генерира текст врз основа на влезот што го прима.

Related posts

Бил Гејтс вели дека вештачката интелигенција ќе ги застари Amazon и Google Search

admin

ВИДЕО: Роботи-кучиња ќе им помагаат на полицајците во Њујорк

ninja

Гугл има монопол, Европска комисија бара злоупотреба

admin

ВИДЕО: SpaceX објави анимација од слетувањето на ракетата Starship на Марс

ninja

Може ли ChatGPT да ви помогне да ја добиете вашата следна работа од соништата?

admin

Овој е најопасниот хакер на светот

admin