Рубрика: Новини

  • Розробник забезпечив енергонезалежність власного будинку всього за 35 000 грн. Ось його рішення

    Розробник забезпечив енергонезалежність власного будинку всього за 35 000 грн. Ось його рішення

    «Зараз тема відключень, по-моєму, торкнулася всіх, то ж налітайте», — написав він. 

    В його сетапі, щоб комфортно пережити відключення: 

    • гібридний інвертор (24 В, 3-4 кВт) найпопулярніший Must PV18-3224VPM 3.2 кВт на OLX можна купити за 10 000 грн.
    • lifepo4 акумулятор (24 В, 100 Аг). На Rozetka знайшов за 20 000 грн прямо зараз. Ніяких гелевих — вони довго заряджаються
    • АВР (будь-який) — до 1500 грн.
    • розподільний щиток, силові кабелі — 2 000-2 500 грн.
    • послуги по монтажу — як домовитесь.

    «Звісно, вмикати праски, фени, чайники не варто, особливо одночасно. Для цього треба більш потужне обладнання.  Проте, котел, холодильник, телевізор, комп, мікрохвильовка і, звісно, світло по всій квартирі, цілком добре працює», — зазначив айтівець.

    Важливе застереження від автора: інвертор досить шумний, а ще його не можна ховати в шафи (доступ повітря для охолодження повинен бути), АВР теж досить голосно клацає при перемиканні. Особливо вночі це добре відчувається. То ж монтувати краще подалі від жилих приміщень.

    https://dev.ua/news/35000-1763968461

  • У півтора раза швидше, ніж Gemma 3. Інтерв’ю з лідером проєкту Lapa LLM — найефективнішою великою мовною моделлю для української мови 

    У півтора раза швидше, ніж Gemma 3. Інтерв’ю з лідером проєкту Lapa LLM — найефективнішою великою мовною моделлю для української мови 

    — Розкажіть про ваш бекграунд. Хто ви і чим займаєтеся?

    Мене звати Юрій Панів. Я аспірант УКУ на комп’ютерних науках. Тема моєї дисертації присвячена вивченню того, як тренувати великі мовні моделі (LLM) на якомога меншій кількості даних. Крім аспірантури, я працюю дата-сайєнтистом у компанії Nortal і є лідером проєкту Lapa LLM.

    У рамках цього проєкту ми тренували українську велику мовну модель. Всі датасети, на яких ми працювали, є максимально відкритими, і всі файли моделі також перебувають у відкритому доступі, включно з можливістю комерційного використання.

    — Як формувалася команда дослідників, які створювали Lapa, враховуючи, що це міжнародна співпраця, яка включала кілька університетів?

    Наша співпраця — це результат соціального капіталу, накопиченого за багато років. Я працюю в Open Source з 2020 року, розпочавши з проєкту для українського text to speech проєкту (синтез мовлення). Знайомства відбувалися через профільні групи.

    Після 2022 року, коли з’явилися великі мовні моделі, більшість команди перемикнулася на обробку природної мови. Старша частина команди познайомилася в рамках Open Source роботи, тоді як молодша частина — це студенти, з якими ми працювали під час їхніх магістерських чи бакалаврських робіт.

    Загалом, команда налічує приблизно 15 осіб. Якщо говорити про тих, хто працює постійно, то це близько 12.

    — Розкажіть детальніше про назву Lapa та про дослідника, на честь якого її назвали

    За назву треба віддати належне члену нашої команди Богдану Діденку. Ми назвали модель на честь Валентина Лапи — українського дослідника, який у 1950-х роках разом з Олексієм Івахненком створив метод групового врахування аргументів. Цей метод є попередником Deep Learning. Хоча він був розроблений під задачею оптимізації, його важливість підкреслюється в дослідженнях. Наприклад, відомий дослідник ШІ Юрґен Шмідгубер агітує за те, щоб згадувати метод Івахненка та Лапи як один із попередників глибокого навчання.

    — У чому полягають переваги Lapa LLM і як ви досягли того, що вона вважається однією з найкращих моделей для української мови?

    Перша велике досягнення проєкту — ефективність токенізації. Якщо дуже спростити: кожна велика мовна модель не оперує текстом як таким, вона оперує наперед заданими частинками слів (токенами), перетворюючи їх на числа. Наскільки добре текст стискається у ці числа, настільки швидко модель видаватиме результат і тим краще буде тренуватися сама модель, оскільки чим довший контекст, тим гірше навчається модель в результаті. Змінити токенізатор сам по собі не проблема, але більшість відомих методів до цього призводили до того, що втрачалися якість моделі. Наша команда, зокрема Микола Гальтюк, розробила метод адаптації наявного токенізатора для української мови без втрати якості. У результаті ми можемо в півтора раза ефективніше перетворювати український текст у токени. Це означає, що сама генерація моделі відбувається у півтора раза швидше, ніж в оригінальній Gemma 3, на якій ми тренували.

    Друге досягнення — відкриті дата-сети на різні задачі. Завдяки якісним відкритим датасетам на переклади, Lapa є найкращим перекладачем у парі з англійської на українську. Ми проводили заміри на різних доменах, включаючи енциклопедичний текст, соцмережі та робочі документи. Ми дотреновували модель на юридичні переклади, використовуючи паралельні корпуси законодавства ЄС та України. За деякими розрахунками, якби адаптація українського законодавства до стандартів ЄС виконувалася лише людьми, це зайняло б приблизно дев’ять років. Наша модель може значно прискорити цей процес, працюючи у безпечному, закритому середовищі, і видавати класні юридичні переклади.

    Ми також дотреновували модель на підсумовування текстів та питання-відповіді з тексту. Це важливо для чатботів, аналізу документів та RAG-систем.

    — Чи зверталися до вас представники Мінцифри з пропозиціями співпраці після того, як дізналися про розробку такої потужної українськомовної моделі?

    Ми активно спілкуємося з усіма, оскільки ми зробили модель, але не можемо вгадати всі юскейси, які можуть виникнути у людей. Зараз ми активно збираємо фідбеки через демо та в особистому спілкуванні. Мінцифри вже пробувала модель, проганяючи свої тести. Ми отримали від них фідбеки, які врахуємо для наступної ітерації.

    — Який відсоток галюцинацій зараз має Lapa і які кроки ви робите для їхнього зменшення? Я сам стикнувся з галюцинацією, коли модель приписала Тарасу Шевченку авторство вигаданих «хорор-казок».

    Це активна робота на другу фазу проєкту, і, якщо говорити відверто, ми ще не знаємо, як це повністю виправити. У нас була проблема, коли ми запитували модель, як її звати, вона відповідає все, що завгодно, крім, власне, назви, попри те що ми дали достатньо даних, які вона повинна була запам’ятати. Навіть у великих API-провайдерів, як-от OpenAI, які тренують моделі на гігантських обсягах даних, проблема галюцинацій присутня.

    Наприклад, нещодавно був скандал із моделлю Gemma, яку видалили з Google AI Studio через галюцинацію про кримінальне провадження щодо конгресвумен.

    Наразі найбільш робочий спосіб — це тренувати модель на всій інформації, яка тільки є. Для розв’язання проблеми, пов’язаної з невірними контекстами, як у прикладі з казками, нам потрібно допрацювати датасет і проаналізувати дані, які ми отримали з веб-демо.

    — Зазначається, що Lapa може працювати з конфіденційними даними та використовуватися в оборонному секторі. Наскільки це безпечно, враховуючи, що команда невелика і ресурсів небагато?

    Безпека має кілька вимірів:

    По-перше, надсилати військові чи конфіденційні документи через API небезпечно. Оскільки Lapa є локальною і відкритою моделлю, її можна завантажити та використовувати в закритому контурі, що усуває цей ризик.

    По-друге, перед будь-яким використанням потрібно обов’язково робити заміри (бенчмаркінг), щоб переконатися, наскільки добре модель працює під конкретний юскейс.

    По-третє, у тренувальних даних можуть бути закладені вразливості. Наприклад, оригінальна Gema тренувалася на 6 трильйонах токенів, які нереально перевірити вручну. Ми ж зі свого боку дотреновуємо модель поверх цих трильйонів, додавши 35 мільярдів токенів. У цих даних ми впевнені, оскільки виклали їх у відкритий доступ на Hugging Face. Інші дослідники можуть перевірити ці дані, як ми оцінювали їхню якість та дати фідбек. Це гарантує, що модель є безпечною з точки зору прозорості тренувальних даних.

    — Як Lapa захищена від російської пропаганди та дезінформації, яка часто потрапляє у великі мовні моделі?

    Це було зверху нашого списку пріоритетів, і ми підійшли до проблеми в кілька етапів. Спочатку створили кілька датасетів на основі джерел, де, наприклад, спеціалісти з дезінформації вже зробили розмітку з наявними ворожими наративами. Одне з джерел, які ми використали, це був дуже класно структурований VoxCheck, який містив пари «пропагандистський клейм» та «контраргумент». Ми використали ці пари, аби через інші моделі згенерувати схожі пари. Тобто в нас був наратив і дві відповіді: правильна на основі фактів і відповідь з точки зору пропаганди.

    Далі розробили класифікатор, який видає оцінку, наскільки той чи інший текст є правдивим чи неправдивим. Потім прогнали цей класифікатор на нашому претрейнінг датасеті та відфільтрували всі кейси, де була пропаганда. Ми використали ці пари як умовно дискусійні питання та правильні, засновані на фактах відповіді. Наші тести підтвердили, що модель добре працює з дезінформацією, і ми задоволені цим результатом.

    — Що було найважчим і найбільш ресурсозатратним етапом у розробці та тренуванні моделі?

    80% роботи — це робота з даними, і по 10% на інженерні рішення та навчання моделі. Найбільше ресурсів займала обробка даних, а не саме тренування. Зокрема під час претрейнінгу модель навчається вгадувати наступне найбільш імовірне слово на величезному масиві текстів. На цьому етапі ми проводили фільтрацію та оцінку якості 35 мільярдів токенів. Ми міряли: легкість читання, навчальну цінність, граматичну правильність, через що виключили суржик, та маніпулятивність. Цей етап зайняв трохи понад два місяці (замість очікуваного одного) через інженерні проблеми, пов’язані з масштабом. Навіть наявного ресурсу в 64 відеокарти H100 було замало.

    Далі модель навчається відповідати у форматі чату. Тобто перетворили наявні датасети у чат-формат, а решту — переклали. Сам лише переклад 1,5 мільярда токенів датасетів для інструкцій зайняв приблизно 15 днів.

    — З чого ви починали, які обчислювальні потужності мали на початку і як залучали додаткове фінансування?

    На жаль, фінансування на зарплати не було. Уся команда працювала як волонтери у вільний від роботи час. Дякую всій команді, що долучилися до такого великого проєкту і в вільний від роботи час, після обстрілів люди виходили на наші регулярні дзвінки та робили цю модель. Це дуже приємно розуміти, що є багато людей, які хочуть зробити щось корисне для всієї спільноти. 

    Ми починали з серверів УКУ, де було дві відеокарти A6000. Ці сервери ми отримали завдяки підтримці компанії Eleks в рамках гранту у памʼять про Олексія Скрипника і вони є спільними для використання аспірантами. Ми розробили scope план проєкту, що ми розробимо в першу чергу: датасети, бенчмарки та вже цей план пітчили усюди. 

    Далі через знайомих натрапили на французький стартап Comand AI. Їх зацікавила українська модель, здатна працювати з документами в закритому контурі (переважно для військових юскейсів). Це було взаємовигідно: їм для їхніх потреб, а нам для того, щоб модель була відкритою та комерційно доступною.

    Hugging Face підтримали нас, надавши корпоративну підписку. Це дозволило нам легко працювати, зберігати датасети та моделі, а також хостити їх.

    Ми будемо раді будь якій підтримці та партнерству. Основне, що ми шукаємо — це обчислювальні ресурси, оскільки станом на зараз це наше головне вузьке місце.

    — Чи існують обмеження, наприклад, для малого бізнесу, який захоче використовувати Lapa LLM у своїх системах?

    Обмежень немає. Модель покривається стандартною ліцензією Gema. Єдині обмеження, прописані в ліцензії, стосуються поширення дезінформації. Немає обмежень ні на військове, ні на цивільне використання.

    — Чи достатньо тих 25 датасетів, які ви використовували, чи потрібно створювати нові?

    Додавати дані завжди є куди. Ми не сприймаємо Lapa LLM як фінальну модель. Є така стаття від дослідників, називається Chinchilla Scaling Laws, яка розраховує скільки потрібно додати даних, аби донавчити модель до того стану, який ми хочемо.

    Навіть за розрахунками, є ще простір для вдосконалення. Ми додали 37 мільярдів токенів, тоді як Google тренував на 6 трильйонах. Головна мета проєкту — розігнати ком’юніті, щоб інші дослідники могли додати власні датасети та дотренувати модель під свої потреби, маючи вже класну українськомовну основу.

    — Які неочікувані запити до Lapa LLM ви отримали за місяць після публічного запуску?

    Ми ще аналізуємо фідбек. Серед найбільш частих і, напевно, кумедних запитів, є два лідери. Перший — це «Хто тримає цей район?» (приблизно 40% запитів до LLM). Можна сказати, це, я долучився до того, щоб популяризувати це питання. Я всі нові моделі тестував на «хто тримає цей район», поки у Mamay LLM Ганна Юхименко, яка працювала над цією моделлю, під цим натхненням, так розумію, додала це питання в датасет.

    І другий популярний запит — генерація різних анекдотів, поки що думаємо як допрацювати цей юскейс. 

    — Розкажіть про подальші плани щодо Lapa LLM.

    Наші плани на наступний місяць активної розробки включають:

    • Врахування фідбеків.
    • Робота над узагальненням та reinforcement learning. Тобто, коли модель не навчається запам’ятовувати, а вона отримує тільки оцінку, чи правильна відповідь, чи ні. 
    • Обробка зображень: розпізнавання друкованих та рукописних текстів. Насправді дуже багато бізнесів та й не тільки, працюють з рукописними документами, які потрібно якось перетворити в текст та проаналізувати.
    • Створення асистента з програмування, який може працювати в закритому контурі з українською мовою.

    Спробувати модель можна за посиланням на Hugging Face, а код доступний на GitHub.

    https://dev.ua/news/lapa-llm-interview

  • «Станом на зараз навіть балістика у нас — це безпілотник». Fire Point планують поставити на озброєння дві балістичні ракети і запустити серійне виробництва балістики. Про що мова

    «Станом на зараз навіть балістика у нас — це безпілотник». Fire Point планують поставити на озброєння дві балістичні ракети і запустити серійне виробництва балістики. Про що мова

    Компанія-виробник ракет «Фламінго» ще у вересні оголосила про розробку балістичних ракет FP-7 та FP-9, що мають перспективу розвитку для протиповітряної оборони. Балістичну ракету FP-7 почали розробляти у серпні 2024 року. Її заявлена робоча дальність — до 200 км, а максимальне корисне навантаження — 150 кг. Друга ракета — FP-9 може долітати на відстань 855 км і нести 800 кг корисного навантаження.

    «FP-7 — готова ракета, вона літає, зараз ми фіналізуємо наші іспити й сподіваємося стати на озброєння до нового року. Тільки це не ракета, а балістичний дрон. Другий балістичний дрон FP-9 — до червня плануємо поставити на озброєння», — прокоментував співвласник і головний конструктор Fire Point Денис Штілерман.

    Розробники кажуть, що в Україні нині багато ракет кодифіковані як БПЛА. Це потрібно для того, щоб вони швидше могли пройти тестування і поступити на озброєння. «Станом на зараз навіть балістика у нас — це безпілотник», — каже CTO компанії Ірина Терех. За її словами, якщо регуляції для ракетної програми спростять, то індустрія переназветься в ракетну.  

    В планах компанії — запустити серійне виробництво балістичних ракет.

    «Ми будуємо у Данії завод для виготовлення твердопаливних двигунів для прискорювачів для FP-5 („Фламінго“ — ред.), а також для наших балістичних ракет FP-7 і FP-9. Це такий завод, який дуже небезпечно мати зараз в Україні, тому що при влучанні у повітря виділиться соляна кислота і це спричинить екологічну катастрофу», — зазначив Штілерман.

    https://dev.ua/news/fire-point-1763960949

  • Як працюють групові чати у ChatGPT: 10 особливостей нового ШІ-інструменту

    Як працюють групові чати у ChatGPT: 10 особливостей нового ШІ-інструменту

    «Цього дуже не вистачало. Особливо бізнесам. Бо не було можливостей для спільної роботи співробітників у ChatGPT, якщо в тебе не Enterprise-тариф за всі кошти світу. Тому це дуже корисна нова функція — обов’язково протестуйте», — зауважив він.

    Ось 10 ключовихособливостей нового інструменту.

    1. Зараз можна спільно з іншими користувачами в одному чаті брейнштормити, обговорювати ідеї, розв’язувати питання, ділитися контекстом, проводити колективні дослідження, співпрацювати над одним проєктом.
    2. У груповому чаті може бути до 20 осіб.
    3. Щоб долучити користувачів до групового чату, треба надіслати їм посилання на цей груповий чат. За цим посиланням будь-хто може приєднатися до групового чату та бачити попередні повідомлення.
    4. Додавання людей до існуючого чату створює копію оригінальної розмови як новий груповий чат. Попередній чат без інших користувачів залишиться окремо в розділі «Ваші чати».
    5. Будь-хто в групі може поділитися посиланням, щоб залучити інших. І будь-який учасник може видалити іншого, за винятком автора чату.
    6. За замовчуванням, ШІ відповідатиме автоматично в чаті за потребою, якщо хтось ставить питання або просить про допомогу. А можна це вимкнути в налаштуваннях, і тоді буде працювати, тільки якщо його окремо покликати (тегнути через @).
    7. Можна налаштувати ChatGPT для кожного групового чату, прописавши спеціальні інструкції, які йому враховувати.
    8. Наразі в групових чатах поки немає голосового режиму, глибоких досліджень, Canva, Python / Аналіз даних, завдань, колекторів, режиму агента.
    9. Можна реагувати на повідомлення ChatGPT за допомогою емодзі. Дрібничка, але чому б і не ставити сердечко чи вогник корисній відповіді ChatGPT, щоб відзначати. ChatGPT також може реагувати на повідомлення з смайликами.
    10. Доступно навіть у безоплатній версії.

    https://dev.ua/news/yak-pratsiuiut-hrupovi-chaty-u-chatgpt-10-osoblyvostei-novoho-shi-instrumentu-1763962406

  • X запустила функцію визначення країни походження акаунтів і спричинила скандал: багато «американських» профілів виявилися іноземними. Українці тим часом моніторять геолокації українських політиків

    X запустила функцію визначення країни походження акаунтів і спричинила скандал: багато «американських» профілів виявилися іноземними. Українці тим часом моніторять геолокації українських політиків

    X Ілона Маска, раніше Twitter, запустила функцію, яка у вкладці Joined («Дата приєднання») показує країну походження акаунта. Платформа тепер дозволяє переглянути країну, з якої ведеться акаунт: достатньо зайти на сторінку користувача та натиснути вкладку Joined. Хоча функцію спочатку прибрали, зараз її повернули — і обидва політичні табори масово викривають один одного.

    Ботофермовий скандал

    Нова функція вже спричинила хаос у онлайн-середовищах як прибічників MAGA, так і демократів. Виявилося, що низка профілів, які активно поширювали політичні наративи у США, насправді працювали поза межами країни.

    Йдеться про акаунти, які активно просували політичні меседжі у США. Деякі мають назви, що прямо натякають на рух MAGA.

    Однак чимало таких «політичних інфлюенсерів» виявилисяіноземними операціями, що викликає запитання щодо їхніх справжніх мотивів.

    Ось кілька прикладів «американських» акаунтів, які працюють з інших країн: 

    • MAGA NATION — понад 392 000 підписників, базується у Східній Європі.
    • Dark Maga — понад 15 000 підписників, працює з Таїланду.
    • MAGA Scope — 51 000+ підписників, ведеться з Нігерії.
    • America First — понад 67 000 підписників, операції з Бангладеш.

    «Зараз тисячі акаунтів, пов’язаних із MAGA, які видають себе за американські, розслідуються та викриваються. Багато з них ведуться з Індії, Нігерії та інших країн», — йдеться у дописі одного з агрегаторів новин в X.

    Не лише MAGA-табору дістається.

    Ron Smith, який називає себе «гордим демократом» і «професійним мисливцем на MAGA», працює з Кенії і має понад 52 000 підписників.

    Republicans Against Trump — велика анти-трампівська сторінка, раніше працювала з Австрії. Зараз система X показує США, але зазначає, що дані можуть бути неточними через VPN. Акаунт має понад 978 000 підписників.

    Mariana Times — понад 78 000 підписників, публікує проізраїльський контент, ведеться з Індії.

    Конгресвумен Анна Поліна Луна написала: «Усі ці буцімто ‘проамериканські’ акаунти, що провокували конфлікти всередині MAGA, — це просто іноземні гравці. Кажу вам, іноземні операції реальні, як і бот-акаунти».

    Алексіс Вілкінс, дівчина директора ФБР Кеша Пателя, додала: «Має бути зрозуміло: ворог — зовні. Люди, які видають себе за американців із великими американськими думками, але сидять у підвалі десь за океаном, мають одну мету — зруйнувати США. У нас є свої проблеми, але ми не можемо дозволити їм досягти успіху».

    А що в Україні

    Тим часом українська спільнота цікавиться геолокацією українских політиків. Ось кілька кейсів:

    Як це влаштовано

    Кіберексперт Костянтин Корсун каже, що деякі параметри, типу ІР-адреси — можна легко підробляти за допомогою VPN. Номер телефона для початкової реєстрації — також не проблема, зараз пачку eSIM можна купити, не встаючи з дивану. Можна легко міняти мову інтерфейсу, часовий пояс і багато іншого. Складніше змінити регіональний AppStore, але також можливо, хоча й геморойно. Але. Якщо у тебе ботоферма на 100 000-200 000 акаунтів, і кожен ти купив по $8-10, то приховати справжню країну походження мережі — це не тільки складно і дорого, але також чималий ризик блокування. Особливо якщо соцмережа робить висновок на основі сукупності багатьох або усіх критеріїв», — вважає він.

    Тому найчастіше,додає експерт, ботоферми купляють вже готові, і покупець зазвичай не дуже париться як і де вони були створені. Працює, лайкає — зашибісь, загорніть.» А потім вилазять «в’єтнамські боти» Володимира Зеленського, чи нігерійський акаунт Іванки Трамп з новинами. І витрачені мільйони доларів раптом летять у прірву — через несподівану та радикальну зміну правил соцмереж. Думаю, хитрий Маск зробив це не без прихованого умислу, але сподіваюся, що цю фічу підхоплять інші соцмережі. Бо «проблема ботів» є справжнім болем для сучасного суспільства, орієнтованого на схильність до «пояснення новин» із соцмереж та формування «власного бачення» на основі позицій ЛСД та надутої ботофермами «думки більшості»», — зазначив Консун.

    https://dev.ua/news/kh-maga-1763964050

  • ШІ робить знання поверхневими, і ось чому

    ШІ робить знання поверхневими, і ось чому

    Ці висновки ґрунтуються на аналізі семи досліджень, у яких взяли участь понад 10 000 учасників, пише Futurism.

    Суть досліджень полягала в наступному: учасникам дали завдання вивчити тему, розподіливши їх на дві групи — ті, хто мав використовувати для дослідження лише чатбот зі штучним інтелектом, та ті, хто користувався стандартною пошуковою системою. Наприкінці їх просили написати другу поради на основі вивченого матеріалу.

    Виявилася чітка закономірність: учасники, які використовували ШІ для свого дослідження, писали коротші поради, що містили загальні рекомендації та менше фактичної інформації, тоді як люди, які використовували пошук Google, надавали більш детальні та продумані поради.

    Ця закономірність зберігалася навіть після врахування таких факторів, як інформація, яку користувачі бачили під час дослідження, шляхом показу кожній групі тих самих фактів або інструментів, які вони використовували.

    «Результати підтвердили, що навіть коли факти і платформа були однаковими, навчання на основі синтезованих відповідей LLM призводило до більш поверхневих знань порівняно зі збором, інтерпретацією та синтезом інформації для себе через стандартні вебпосилання», — зазначила співавтор дослідження Ширі Мелумад, професор Уортонської школи Пенсильванського університету.

    Вона пояснює, що один із головних принципів освоєння навичок — це те, що людина навчається найкраще, коли активно взаємодіє з матеріалом. Наприклад, коли досліджує тему через Google, людина долає значно більше «опору»: перегляд різних посилань, читання джерел, самостійна інтерпретація та узагальнення інформації.

    «Але з великими мовними моделями, — додала Мелуад, — увесь цей процес виконується за користувача, перетворюючи навчання з більш активного на пасивний процес».

    https://dev.ua/news/shi-robyt-znannia-poverkhnevymy-doslidzhennia-1763897388

  • Інженера Figure AI звільнили після того, як він попередив керівництво про небезпеку роботів компанії

    Інженера Figure AI звільнили після того, як він попередив керівництво про небезпеку роботів компанії

    Роберта Грюндель, головний інженер з безпеки робототехніки Figure AI, був звільнений у вересні цього року. Як стверджують його адвакати, це сталося  через кілька днів після подання його «найпряміших та документально підтверджених скарг щодо безпеки», пише CNBC.

    У позові говориться, що інженер попередив генерального директора Figure Бретта Адкока та головного інженера Кайла Едельберга про смертельні можливості робота, і сказав, що один з них «вже зробив ¼-дюймовий надріз на сталевих дверцятах холодильника під час несправності».

    Також у судових документах зазначається, що Грюндель застерігав керівників компанії не «знижувати рівень» «дорожньої карти безпеки», яку його попросили представити двом потенційним інвесторам, що зрештою профінансували компанію.

    Інженер був занепокоєний тим, що «план безпеки продукції, який сприяв їхньому рішенню інвестувати», був «кардинально змінений» того ж місяця, коли Figure закрила інвестиційний раунд, і такий крок «може бути розтлумачений як шахрайство».

    Згідно з позовом, занепокоєння позивача «розглядалися як перешкоди, а не як зобов’язання», а компанія як привід для його звільнення назвала «нечітку ‘зміну у бізнес-напрямку’».

    Грюндель вимагає відшкодування економічних, компенсаційних та штрафних збитків і вимагає розгляду справи судом присяжних.

    Речник Figure повідомив CNBC, що Грюнделя «було звільнено через незадовільну ефективність», і що його «звинувачення є брехнею, яку Figure повністю спростує в суді».

    Адвокат Грюнделя вважає, що ця справа «може стати однією з перших справ про викривачів, пов’язаних із безпекою людиноподібних роботів»,  а його клієнт очікує, що «судовий процес розкриє очевидну небезпеку, яку становить для громадськості цей підхід ‘поспіху на ринок’».

    https://dev.ua/news/inzhener-figure-ai-zvilnyly-pislia-toho-iak-vin-poperedyv-kerivnytstvo-pro-nebezpeku-robotiv-kompanii-1763888641

  • Уряд змінив перелік товарів і послуг «Національного кешбеку»: на що вже не можна витрачати накопичені кошти

    Уряд змінив перелік товарів і послуг «Національного кешбеку»: на що вже не можна витрачати накопичені кошти

    Накопичені кошти на картці «Національного кешбеку», можна використати на такі категорії товарів і послуг:

    • комунальні послуги;
    • поштові послуги;
    • харчові продукти в магазинах та супермаркетах;
    • лікарські засоби та медичні вироби;
    • книги та іншу друковану продукцію;
    • благодійність — зокрема на донати для ЗСУ та інші доброчинні цілі.

    З переліку зникли мобільний зв’язок, кіно та заклади харчування.

    Витрачати кошти на ліки, медичні вироби, книжки та іншу друковану продукцію можна вже зараз.

    «Оновлення пов’язане з особливостями роботи політики „Зимова підтримка“, зокрема, виплати 1000 грн для всіх громадян, яка також надійде на картку Національного кешбеку. Тож категорії витрат в обох програмах вирішили уніфікувати. Завдяки цьому обидві програми працюватимуть коректно, а кошти державної підтримки будуть спрямовані передусім на базові й необхідні витрати», — зазначають у міністерстві. 

    Нові умови витрачання діятимуть до 30 червня 2026 року.

    https://dev.ua/news/uriad-zminyv-perelik-tovariv-i-posluh-natsionalnoho-keshbeku-1763884136

  • Надходження до держбюджету України від платформи Onlyfans зросли на 18%

    Надходження до держбюджету України від платформи Onlyfans зросли на 18%

    Нараз кількість платників «податку на Google» сягає 143 іноземні компанії, які у третьому кварталі заплатили близько 3,8 млрд грн ПДВ, повідомив голова Комітету ВРУ з питань фінансів, податкової та митної політики Данило Гетманцев.

    За його словами, найбільшими платниками за третій квартал 2025 року є:

    • Apple;
    • Google;
    • Valve Corporation;
    • Meta Platforms;
    • Sony;
    • Etsy;
    • Netflix.

    Платформа OnlyFans сплатила $1,6 млн або близько 66,6 млн грн, що на 18% більше, ніж у 2024 році. 

    Загалом від початку 2025 року особи-нерезиденти, що надають електронні послуги, сплатили ПДВ до бюджету близько 14,5 млрд грн, що на 28% більше за тогорічний показник.

    https://dev.ua/news/podatok-na-google-1763879654

  • У лютому 2026 року OpenAI припинить доступ через API до моделі GPT-4o

    У лютому 2026 року OpenAI припинить доступ через API до моделі GPT-4o

    Доступ до моделі заплановано припинити 16 лютого 2026 року. Тобто, застосункам, які ще працюють на GPT-4o, буде надано близько трьох місяців для переходу на іншу версію, пише VentureBeat.

    В OpenAI наголосили, що цей термін стосується лише API. Але компанія не повідомила про будь-які плани щодо припинення використання GPT-4o в самому ChatGPT, де вона досі доступна для індивідуальних користувачів та усіх рівнів платної підписки.

    Всередині компанії цю модель вважають застарілою системою з відносно низьким використанням API порівняно з новішою серією GPT-5.1. 

    За словами людей, знайомих із продуктовою стратегією OpenAI, компанія тепер рекомендує розробникам переходити на GPT-5.1 для більшості нових проєктів, використовуючи gpt-5.1-chat-latest як основну кінцеву точку для чату. Ці моделі пропонують більші контекстні вікна, додаткові режими «мислення» для складного аналізу та вищу пропускну здатність, ніж GPT-4o.

    https://dev.ua/news/u-liutomu-2026-roku-openai-prypynyt-dostup-cherez-api-do-modeli-gpt-4o-1763815032