Китай собирает команду «планетарной обороны» на фоне опасений из-за астероида 2024 YR4, который может столкнуться с Землей в 2032 году.
Думаю, за последние пару недель вы уже порядком устали от рыжего весельчака из Штатов, поэтому сегодня поговорим о более фантастичных новостях из дружественной Азии. South China Morning Post пишет, что вскоре после открытия астероида «Центр специальных проектов при китайском госуправлении оборонной науки, техники и промышленности» опубликовал объявление о наборе на 3 вакансии. Три счастливчика получат «должность по планетарной обороне».
Знаете, меня эта новость очень порадовала. Не только комичностью того, что где-то там три китайца будут героически сдерживать астероид от столкновения с Землей. Но и тем, что наш сосед настолько дальновиден, будто бы даже чрезмерно.
Пока США высчитывают каждую копейку и смешат нас наполеоновскими планами, а Европа бьется в истерике от своих дипломатических неудач, Китай находит время не только посмотреть в телескоп, а еще и заранее что-то предпринять пусть даже против маловероятной опасности. Это дает уверенность в том, что в этом мире еще не все сошли с ума.
Так что китайским товарищам определенно желаем успехов в отражении космической угрозы! А нам бы пора начать наклонять магнитное поле Земли, как завещал ВВЖ. Чтобы, если астероид все же прилетит, то ебнул он именно по Банковой!....
.....- астероид 2024 YR4, который прошёл мимо Земли в декабре 2024, и может столкнуться с Землёй 22 декабря 2032, диаметром 40-60 метров
В Китае сегодня более интересная новость есть Китайские ученые доказали способность ИИ-систем к самовоспроизведению.
Китайские ученые из Фуданьского университета доказали, что искусственный интеллект с открытым исходным кодом способен успешно клонировать себя. Исследование проводилось на ИИ-моделях на базе Llama от Meta (признана экстремистской организацией и запрещена в РФ) и Qwen от Alibaba. Ученые настроили модели так, чтобы они могли автономно генерировать многоэтапный план работы на основе текущих наблюдений. В десяти испытаниях ИИ успешно клонировали себя: Llama — в 50% случаев, а Qwen — в 90% случаев.
Исследователи отмечают, что это потенциальная угроза для контроля над ИИ. Крупнейшие компании в области ИИ: OpenAI, Google и Anthropic — относят самовоспроизведение ИИ к списку серьезных рисков.(....- если никто не выключит питание )
Чего не понять то. 3 китайца будут отслеживать все приближения астероидов на основании астрономов и решать проблемы по мере их поступления. Скорее давать рекомендации правительству. А второе это ии должен быть в закрытом пространстве чтоб не размножался!
Мы используем cookie-файлы, чтобы улучшить сервисы для вас. Если ваш возраст менее 13 лет, настроить cookie-файлы должен ваш законный представитель. Больше информации
Комментарии 2