У неділю компанія Anthropic оголосила про запуск нової пропозиції у сфері охорони здоров’я для свого продукту Claude. Вона відповідає вимогам закону HIPAA про конфіденційність медичних даних, що дозволяє лікарням, медичним закладам і споживачам використовувати її для обробки захищеної медичної інформації, пише Bloomberg.

Читайте также: росіяни почали мінувати Starlink, які вони встановлюють на свої дрони «Молния»

Що стосується звичайних користувачів, Anthropic дозволяє експортувати дані про стан здоров’я з таких додатків, як Apple Health та Function Health. Це може допомогти людям збирати та передавати свої медичні записи лікарям.

Минулого тижня конкурент Anthropic — OpenAI — запустив медичний ШІ ChatGPT Health, що дозволяє користувачам підключати медичні записи та health-застосунки до чатбота. Усі ці релізи підкреслюють бажання ШІ-компаній закріпитися в охороні здоров’я, щоб збільшити продажі та довести широкі переваги ШІ.

«Коли ми розглядаємо економіку в цілому та сфери, де ШІ може мати найбільший вплив, медицина є справді ідеальним кандидатом для цього — за умови належних дій у питаннях регулювання та роботи з даними», — зазначив Майк Крігер, директор із продуктів Anthropic та співзасновник Instagram. За словами Крігера, нові інструменти покликані «надати людям більше знань, отриманих як із їхніх власних даних, так і під час спілкування з медичними фахівцями».

Слід також додати, головний виконавчий директор Anthropic Даріо Амодей є біофізиком за освітою.

Читайте также: Іранські військові намагаються заглушити протестувальникам супутниковий інтернет Starlink

У компанії повідомили, що Banner Health, одна із найбільших некомерційних медичних мереж у США, вже налічує понад 22 000 медичних працівників, які використовують Claude. З них 85% зазначають, що стали працювати швидше та з вищою точністю. Anthropic також співпрацює з такими клієнтами, як Novo Nordisk A/S та Stanford Health Care.

В Anthropic зазначають, що медичні відповіді системи базуються на цитатах із поважних видань, таких як PubMed та NPI Registry, що дає лікарям більше впевненості в результатах. Компанія також заявила, що не використовуватиме дані користувачів із галузі охорони здоров’я для навчання своїх моделей.

Нагадаємо, що Google обмежив AI Overviews для частини медичних запитів після скандалу з «неправильними нормами» аналізів.

https://dev.ua/news/anthropic-dodaie-u-claude-funktsii-dlia-likariv-i-patsiientiv-1768206758

Читайте также: Google обмежив AI Overviews для частини медичних запитів після скандалу з «неправильними нормами» аналізів

От admin

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *