OpenAI ограничивает медицинские советы в ChatGPT: что теперь запрещено
Компания OpenAI внесла изменения в свои Правила использования, чтобы сделать работу ChatGPT и других инструментов искусственного интеллекта более безопасной и ответственной. Согласно новым положениям, ChatGPT больше не будет предоставлять персонализированные советы в медицинской или юридической сферах, даже по запросу пользователей. Вместо этого система будет предоставлять лишь общую справочную информацию и направлять к соответствующим специалистам – врачам, юристам или консультантам.
OpenAI также запретила использование своих моделей для анализа медицинских снимков с целью избежания ложных диагнозов и уменьшения рисков для здоровья пользователей. Компания стремится сохранить баланс между развитием технологий и защитой прав и безопасности людей, использующих её продукты.
По данным анализа от компании Apptopia, росту мобильного приложения ChatGPT возможно достигнут пик, как свидетельствуют глобальные тенденции загрузок и активности пользователей. Молодым, интересующимся карьерой в сфере технологий, стоит обратить внимание на инструменты искусственного интеллекта, в частности на те, что помогают оптимизировать программный код.
«Мы сделали ChatGPT достаточно ограниченным, чтобы быть уверенными, что осторожно относимся к вопросам психического здоровья. Теперь, когда нам удалось смягчить проблемы с психическим здоровьем и у нас есть новые инструменты, мы сможем безопасно ослабить ограничения в большинстве случаев», - отметил генеральный директор OpenAI Сем Альтман.
В ходе обновления Правил использования ChatGPT, OpenAI акцентирует внимание на безопасности и ответственности использования искусственного интеллекта. Изменения направлены на предотвращение возможных ложных диагнозов и предоставление пользователям точной и надежной информации. Развитие технологий должно идти рука об руку с защитой прав людей.
Читайте также

