14.8 C
Скопје
26 април, 2024
Inbox7.mk
НАУКА

Се вшештува борбата во вештачката интелигенција: Гугл го претстави PaLM 2, дали е подобар од GPT-4?

Во средата, Google го претстави PaLM 2, семејство на основни јазични модели споредливи со GPT-4 на OpenAI. На својот настан Google I/O во Маунтин Вју, Калифорнија, Google откри дека веќе користи PaLM 2 за напојување на 25 производи, вклучувајќи го и неговиот асистент за разговорна вештачка интелигенција Bard.

Како семејство на големи јазични модели (LLMs), PaLM 2 е обучен за огромен обем на податоци и прави предвидување на следниот збор, што го издава најверојатниот текст по брзо внесување од страна на луѓето. PaLM е кратенка за „Pathways Language Model“, а „Pathways“ е техника за машинско учење создадена во Google. PaLM 2 го следи оригиналниот PaLM, кој Google го објави во април 2022 година.

Според Google, PaLM 2 поддржува над 100 јазици и може да врши „резонирање“, генерирање кодови и повеќејазичен превод. За време на неговиот главен говор на Google I/O во 2023 година, извршниот директор на Google, Сундар Пичаи, рече дека PaLM 2 доаѓа во четири големини: геко, видра, бизон, еднорог. Геко е најмалиот и наводно може да работи на мобилен уред. Освен Бард, PaLM 2 стои зад карактеристиките на вештачката интелигенција во Документи, Листови и Слајдови.

Сето тоа е добро и добро, но како PaLM 2 се собира на GPT-4? Во техничкиот извештај на PaLM 2, се чини дека PaLM 2 го победи GPT-4 во некои математички, преведувачки и расудувачки задачи. Но, реалноста можеби не одговара на одредниците на Google. Во површна евалуација на верзијата PaLM 2 на Бард од Итан Молик, професор од Вартон, кој често пишува за вештачката интелигенција, Молик открива дека перформансите на PaLM 2 изгледаат полоши од GPT-4 и Bing на различни неформални јазични тестови, кои ги детализираше на Твитер.

До неодамна, семејството на јазични модели PaLM беше внатрешен производ на Google Research без изложеност на потрошувачите, но Google почна да нуди ограничен пристап до API во март. Сепак, првиот PalM беше забележлив по својата огромна големина: 540 милијарди параметри. Параметрите се нумерички променливи кои служат како научено „знаење“ на моделот, овозможувајќи му да прави предвидувања и да генерира текст врз основа на влезот што го прима.

Related posts

Најновиот стелт-бомбардер е нуклеарен и само што го направи својот прв лет

admin

Вештачката интелигенција станува национална опасност, може да служи како алатка за терористите

admin

По обуката со Ф-35 пилотите изгледаат како да имаат 100 години

admin

Зошто пред земјотресите се појавува чуден светлосен феномен?

admin

Гугл има монопол, Европска комисија бара злоупотреба

admin

Обичниот iPhone ќе биде без овие функции и во следните две генерации

ninja