Отидете към основна версия

2 194 1

Семена от чия срещу диабет? Фалшиви "лекари" в интернет

  • здраве-
  • чия-
  • диабет-
  • хранене-
  • храна-
  • изкуствен интелект-
  • лекари

Хиляди хора гледат и споделят видеа, в които фалшиви "лекари", генерирани от изкуствен интелект, препоръчват лекарства

Снимка: Shutterstock

В клипове в социалните мрежи - с лекарски престилки и стетоскопи, лекари дават съвети за лечение на сериозни заболявания или пък как да си избелите зъбите. Това обаче често не са истински лекари, а създадени от изкуствен интелект лица. А препоръките им често са неверни.

Могат ли семената от чиа да овладеят диабета?

Твърдение: "Семената от чиа могат да доведат до контролиране на диабета", твърди генериран от изкуствен интелект бот на лекар във Фейсбук. Видеоклипът е гледан около 2,1 млн. пъти, има над 40 000 харесвания, споделен е повече от 18 000 пъти.

Проверка на фактите: Невярно

Семената от чиа се радват на голяма популярност, не на последно място и заради големия брой положителни активни съставки, които съдържат. В тях има високи нива на ненаситени мастни киселини и фибри, важни аминокиселини и витамини. Според американско проучване от 2021 г. семената от чиа наистина са полезни за здравето. Хората, страдащи от диабет тип 2 и високо кръвно налягане, са били с много по-ниско кръвно, след като са консумирали определено количество семена от чиа в рамките на няколко седмици. Друго проучване, публикувано през април 2023 г., потвърждава, че семената от чиа имат антидиабетично и противовъзпалително въздействие.

Семената от чиа следователно биха могли да окажат положително влияние върху здравето на хората, страдащи от различни типове диабет. "Но не става въпрос за лечение", подчертава Андреас Фриче, диабетолог в Университетската болница в Тюбинген. Следователно няма научни доказателства, които да показват, че семената от чиа могат да лекуват диабет или пък да го контролират напълно.

Във видеото не просто се представя невярно твърдение, но и то е представено от фалшив лекар. Многобройни видеоклипове със същите "доктори" могат да бъдат открити в социалните мрежи. Щефан Гилберт, професор в Центъра за дигитално здраве към Медицинския факултет на университета в Дрезден, обръща внимание, че дори и само външният вид на лекаря може да подведе мнозина. "Става дума за използване на авторитета на лекар, който има много сериозна роля в почти всички общества", казва той пред ДВ.

Могат ли домашните лекове да лекуват заболявания на мозъка?

Твърдение: "Смилането на 7 бадема, 10 гр. захар, 10 гр. копър и приемът им с горещо мляко вечер в продължение на 40 дни лекува всички видове мозъчни заболявания", твърди изкуствено генериран лекар във видеоклип в Инстаграм. Въпросният акаунт има над 200 000 абонати, а видеото е било гледано повече от 86 000 пъти.

Проверка на фактите: Невярно

Рецептата би трябвало да помага за лечението на мозъчни заболявания. Но твърдението във видеото е фалшиво, казва проф. д-р Франк Ербгут, председател на Германската фондация за мозъка. Няма доказателства, че тази рецепта има лечебно въздействие върху мозъчните болести.

В този видеоклип - както и в много други от подобни профили - се вижда изкуствено генерирано лице на лекар, облечен в бяла престилка. Въпреки че професорът Щефан Гилберт казва, че видеоклиповете са лесно разпознаваеми като фалшиви - по статичното изображение на лекаря с движеща се уста и съвсем минимални лицеви движения, професорът обръща внимание на бъдещия потенциал на изкуствения интелект в тази област. "Най-обезпокоително е, че това почти със сигурност ще еволюира до свързването на всички тези процеси в едно. Така че отговорите да се дават в реално време от генеративен изкуствен интелект и да са свързани с изкуствен интелект, който озвучава отговора", посочва той.

Извън видеоклиповете, които могат да се манипулират, изкуственият интелект представлява риск и в други области. Една от тях е т.нар. дийпфейк в медицинската диагностика. В рамките на израелско проучване от 2019 г. учените са успели да създадат няколко компютърни томографски изследвания с фалшиви изображения, доказвайки, че туморите могат да бъдат добавяни или премахвани от снимките. До подобен резултат стига и проучване от 2021 г., което показва как се създава електрокардиограма с фалшив сърдечен ритъм. Чатботовете също могат да бъдат опасни, тъй като отговорите им могат да звучат правдоподобно, дори да са погрешни. "Задавате въпрос и те се представят като дълбоко компетентни. Това е много опасен сценарий за пациентите", казва Гилберт.

Изкуственият интелект играе и положителна роля

Въпреки рисковете от последните години изкуственият интелект играе все по-важна роля в медицината. Така например той помага на лекарите при анализа на рентгенови и ултразвукови изображения, при диагностиката, както и при лечението. Щефан Гилберт вижда не само отрицателните страни на тази технология: "В много страни медицинските консултации са много скъпи или изобщо не са достъпни", обяснява той. "Така че за много хора в много страни достъпът до информация би могъл да представлява огромно предимство." Професорът обаче уточнява, че е важно информацията да е надеждна и точна.

Гилберт съветва да се проверява кой медицински екип стои зад уебсайтовете, апликациите или профилите в социалните мрежи, които дават съвети. Ако това не може да се установи, най-добре е да се приеме, че не става въпрос за надежден източник.

Автор: Силия Томс

Поставете оценка:
Оценка 1.3 от 3 гласа.

Свързани новини