1. Чат-ЖПТ, — робот с самым мощным искусственным интеллектом из представленных публике до сих пор (о котором я недавно рассказывал), – напугал Гугл. Этот робот умеет не только отвечать на простые вопросы и вести по большей части осмысленный диалог, но и анализировать поисковую выдачу, подыскивая там нужную пользователям информацию (ссылка):
В Google объявлен «красный код» — как реакция боссов компании на появление ChatGPT. Об этом пишет The New York Times, ссылаясь на внутренний меморандум компании и аудиозаписи нескольких встреч, которые оказались доступны изданию.
Ещё на прошлой неделе на общем собрании сотрудников и Сундар Пичаи, и Джефф Дин убеждали коллег, что ChatGPT не может угрожать поисковой и бизнес-модели Google; что у компании есть свои серьёзные разработки в этой области, но спешка и вывод сырого продукта будут губительны для Google; и что к 2023 году у них будут готовы собственные ИИ-решения. И вот за несколько дней в компании успели провести серию совещаний с участием гендиректора, где пытались определить стратегию развития ИИ-продуктов. А по информации журналистов, «многочисленные подразделения» Google теперь переброшены на ИИ-направление.
И меморандум компании, и аудиозаписи встреч подтверждают, что Google видит в созданном OpenAI ChatGPT угрозу для своей поисковой системы и ищет симметричный ответ.
Вот любопытный комментарий из обсуждения на Хабре. Встречаясь с неизвестным, робот ведёт себя как типичный студент:
СhatGPT может фабриковать ссылки на источники весьма правдоподобно.
Я запрашивал ссылку на какое-нибудь исследование по теме влияния наличия семьи на стресс, ответ был:
«Одно из исследований, которое изучало связь между уровнем стресса и тревожности и наличием семьи, это исследование, проведенное в 2015 году в Швейцарии. В этом исследовании участвовали более 1000 взрослых человек, и было обнаружено, что у тех, у кого есть близкие семейные отношения, уровень стресса и тревожности обычно ниже, чем у тех, у кого таких отношений нет. Это исследование было опубликовано в журнале "Social Science & Medicine".
Ссылка на это исследование:
Scharlau, D., Gerstorf, D., & Schilling, O. (2015). Close family relationships buffer against the negative effect of stressors on well-being in old age. Social Science & Medicine, 128, 91-99».
Но по факту такого исследования нет (я не нашел его отдельно в сети), а в 128 выпуске журнала (который-таки был выпущен в 2015) на страницах 87-94 есть другое исследование, хотя и на косвенно схожую тематику и с примерно такими же выводами ("повышение кол-ва разводов коррелирует с увеличением риска самоубийств", если я правильно понял), но все же не то: более специфичное и с другими авторами.
Кроме того, я пробовал запрашивать информацию по мануфактурам, производящим фарфор в 19 веке, и chatgpt выдал, в частности, "Мануфактура Свиньина (Россия, 1744-1917)". Я не смог найти никакой информации о ней в сети. При запросе источника у chatgpt, бот ссылается на "каталог музея "Царицыно"", но сайт музея недоступен, проверить не смог.
2. Фейсбуку впаяли огромный штраф за историю с утечкой данных в Cambridge Analytica (ссылка):
Компания Meta (признана экстремистской организацией и запрещена в России) приняла решение выплатить 725 миллионов долларов для урегулирования коллективного иска о передаче данных пользователей принадлежащей ей социальной сети Facebook (запрещена в России) британской аналитической фирме Cambridge Analytica, передает Bloomberg.
«Договоренность о такой сумме возмещения станет крупнейшей из когда-либо достигнутых в коллективных исках о конфиденциальности данных. Еще никогда Facebook не платил столько за урегулирование частного коллективного иска», — говорится в сообщении.
Коллективный иск пользователей Facebook за нарушение конфиденциальности был подан к Meta в 2018 году после того, как выяснилось, что Cambridge Analytica в 2016 году, получила доступ к данным 87 миллионов пользователей социальной сети.
Данные собирались с помощью стороннего приложения для опросов, созданного на платформе соцсети. Facebook заблокировал приложение и потребовал от его создателя и Cambridge Analytica уничтожить имеющиеся у них данные, но в итоге выяснилось, что удалены были далеко не все сведения.
Cambridge Analytica занималась аналитикой данных, в том числе для политических проектов. Компания собирала личные данные пользователей, чтобы разработать алгоритм анализа политических предпочтений избирателей. Созданный алгоритм облегчал рассылку пользователям политической рекламы с целью потенциального влияния на их голоса.
В России тоже предлагаю штрафовать за утечку данных пользователей. Не на копейки, как сейчас, а на проценты от годового оборота компаний. Полагаю, если законы изменят, по крайней мере крупные корпорации быстро наведут порядок у себя на серверах, и наши с вами данные будут надёжно защищены.
3. Блогер gaz_v_pol пишет (ссылка):
Недавно Coinbase решила (вроде бы первой из крупных IT-фирм) перейти на принцип: «убрать торг из зарплат программистов».
Сейчас в Coinbase больше получает не только тот, кто лучше программирует, но также и тот, кто лучше понимает, когда уместно подойти к начальнику обсудить повышение, лучше умеет обосновать и т.д.
Будет не так. Если один убедил поднять, всем его уровня будут поднимать. Во всех странах.
https://blog.coinbase.com/how-coinbase-is-rethinking-its-approach-to-compensation-9aaf7d5d638e
Задумка понятна — хотят привлечь тех, кто хорошо умеет программировать, но плохо — торговаться. А что получится в реальности? Не знаю, интересно.
Я много раз видел аналогичную картину у юристов. Хорошо зарабатывает не только и не столько тот юрист, который глубоко понимает конкретную область — а тот, кто умеет хорошо себя продавать, презентовать, выбрать правильное время для диалога о повышении зарплаты, когда начальник в подходящем настроении и т.д.