Category: технологии

Category was added automatically. Read all entries about "технологии".

Глаз на животе, мыслящие ткани и биороботы | Илья Колмановский, подкаст Голый землекоп

В выпуске фрагменты интервью с профессором Tufts University Майклом Левином, в котором он рассказывает, как общаются между собой группы клеток, может ли видеть глаз, если его вырастить на животе головастика, и как это поможет регенеративной медицине. Полная версия на английском в телеграм-канале «Голый землекоп»: https://t.me/kolm_zemlekop

My NatureWatchCamera - наблюдаем за гнездом лазоревки

В небольших промежуткам между выставлением оценок по разным final assessments в Keele University (сейчас пора экзаменом и все спешат до разных exam boards), сделал то, что давно хотел - поигрался с записью гнездового поведения гнездящейся у меня на заднем дворе пары лазоревок (Eurasian blue tit, Cyanistes caeruleus). Использовал материал того самого проекта MyNatureWatch, о котором писал ранее. Кратко - это дешевый kit для самодельной camera trap (стоимость в районе £30-40) на основе Raspberry Pi Zero W и Raspberry Pi Camera.

Как сделать такую штуку пошагово и очень доступно показано здесь.

Collapse )

Софт разработан бесплатно и доступен через этот сайт
https://mynaturewatch.net/
или напрямую здесь
https://github.com/interactionresearchstudio/NaturewatchCameraServer/releases/tag/v1.4.1

Подключается к моей домашней сетке. Записывает не все подряд (иначе часы видео или тысячи фото), а преимущественно когда движение в кадре (но есть и false positives). Можно записывать отдельные фото, а можно видео ролики. Вот внизу пример set-up'а и видео. Птицы прекрасно и быстро привыкают к камере и никакого изменения в поведении не заметил.

Помимо игращ с техникой думаю можно дать как опцию для lab report студентам второго года на Animal Behaviour модуле. Можно посмотреть временное распределение частоты визитов и сделать простенький стат. анализ.



Что такое Particle IoT Platform

Компания Particle.io (ожидаемо из San Francisco, CA), на основе которой я развиваю одну из линеек из своих продуктов - animal trackers на основе мобильной связи - "подняла" еще $40M (round C) и вот внизу (видео окт 2019) CEO Zach Supalla анонсирует открытие первого офиса на восточном побережьев (Бостон) и вообще рассказывает об IoT landscape and vision на текущий момент.

Документальный сериал: The Age of A.I.

Смотрим с женой интереснейший сериал, спродюсированный Youtube (да, они теперь полноценные производители контента, как Netflix, т.е. уже не просто котики и шуточки, а вполне бизнес как "у больших") под названием The Age of A.I. (Artificial Intellegence). Всё по крайней мере у нас в UK доступно бесплатно на youtube (у меня не платный аккаунт сейчас). Эпизоды по 30-50 минут на разные темы AI в нашей жизни. Там и робототехника, и computer vision, и speech recognition/synthesis etc. Введение в эпизод всегда делает Robert Downey Jr (мистер "iron man"). Вот трейлер.



а вот первый эпизод первого сезона

Команда Ю. Дудя в Кремниевой Долине

Длинное (чуть более 3 часов) видео со множеством интервью с русскими IT-шниками и tech предпринимателями, живущими и работающими в Кремниевой Долине. Пока просто делюсь свежим видео (для тех, кто не заметил по другим каналам) и сам в процессе просмотра, так что комментировать не могу, но посмотрю и подумаю по мере возможности.

Какой дизайн оптимален для создания веб сервиса, визуализирующего данные на карте в браузере?

Я тут для себя и общественности уже некоторое время (где-то разбираясь самостоятельно, где то заказывая куски работы сторонним девелоперам), создаю IoT и веб сервис, который будет показывать траектории перемещения в природе животных с трекерами. В посте речь не о трекерах и их технологиях (это отдельный пост, тоже интересный), а о разработке back-end инфраструктуры, учитывая новый Закон о защите данных (GDPR).

По мере того, как трекеры посылают от животных данные по локациям, каждый пользователь будет накапливать свою собственную MySQL базу данных (по сути таблицу, где каждая строчка содержит номер девайса, дата/время локации, широта/долгота). Допустим каждая таблица будет иметь свой уникальный token (не уверен, что это нужно, но допустим).

В конечном итоге пользователь должен иметь возможность сделать следующее:

1) зарегистрироваться (понятно, что единожды), верифицировав почту
2) залогиниться и после этого
3) в его браузер закачается GUI, прототип которого написан (см ниже, сейчас написано на Spring Boots framework - вроде Java кроссплатформенная технология). GUI будет показывать на странице браузера пользователя окошко Google Map с траекториями животных, а рядом будут некоторые widgets для простейших манипуляций с визуализированными данными (например, выбор фильтрование трекеров по id и данных по дате).


Как я сейчас back-end дизайн себе представляю (очень смутно).

1) Регистрация на сайте, залогинивание, хранение персональных данных в свете комплаенса с GDPR

Прользователь идет на что-то типа https://my-service.com/registration.php
В идеале я хочу аутсорсить аутентификацию пользователя и хранение персональных данных. Идея в том, чтобы не париться об апдейтах и вообще снять с себя ответственность за утечки. Вроде можно это сделать с помощью сторонних authentification services (далее для краткости AU). Я очень смутно представляю себе как это может работать. Вроде пользователю присваивается token, хрянящийся на моем сервере и соответствующий определенной DB (как это делается автоматически и как об этом токене знает сторонний authentification service я пока не знаю). Пользователь по указанному линку регистрации перенаправляется на AU, где заполняет все формы. Возможно я, как администраток системы, и сообщаю пользователю token ДО регистрации просто по мейлу. После заполнения пользователем форм AU посылаем мейл для верификации мейла. Далее второй мейл об успешной регистрации с credentials.

2) Использование GUI после регистрации
Далее пользователь уже идет на my-service.com/login.php. Снова переправляется на AU, который его залогивает и перенаправляет ко мне на сайте с token в payload HTTP запроса. Мой сайт сравнивает token с имеющимися и, если находиться match, загружает в браузер GUI с доступом к данным именно этого пользователя (написан сейчас на Spring Boots). В браузере закачивается Google Maps и виджетами. Из этого GUI пользователь может доставать данные только из его собственной MySQL DB в режиме read-only (показывать все данные или отфильтрофанные по времени и tracker id).


Как обеспечить такой функционал и задизайнить систему? Может кто поделиться опытом. Спросил на stackoverflow тоже, но может и здесь будет какой feedback. Заранее спасибо.

Для тех кто еще не видел - что такое система автоматической радио телеметрии Motus

Промовидео с сайта проекта очень доступно и быстр объясняет что это такое и зачем


И вот инфографика - влияние стартового запаса жира на скорость пересечение Карибского моря у gray-cheeked thrush

Автоматически запрашиваем Particle сервер и парсим JSON ответ в растущий файл

Занимаю разработкой своего кастомизированного GPS трекера с удаленной дуплексной связью на основе платформы Particle.
Ибо это будет относительно недорого и как я хочу, а не как разработчики за очень дорого делают, да еще всегда не с теми функциями, что нужны. Идея - на трекере замеряются GPS фиксы каждую секунду, наполняем ими eeprom память, при наличии мобильной связи - скидываем данные на сервер. Единственное что будет довольно тяжело, грамм 30-40, но мои голуби потянут (многие 400-500 г и летают до 20 км максимум).

Купил и осваиваю 2G Particle Electron. Отличная штука. Есть документация, поддержка, форум. Платформа существует уже несколько лет. Много библиотек и DIY проектов онлайн.

Для замера какой-либо сенсора (сейчас для примера фоторезистор, но потом будет GPS модуль) можно зафлешить в Партикл программу (что-то типа C/Arduino) прямо OTA (over the air т.е. через мобильную связь). Мобильная платформа на M2M симкарте с 5 Мб данными за $2.5 (можно докупить больше если нужно on demand)

Далее посылаем на сервер particle запрос типа

https://api.particle.io/v1/devices/my_device_id/analogvalue?access_token=my_device_token

ну и в ответ получать JSON объект типа

{"cmd":"VarReturn","name":"analogvalue","result":XXXX,"coreInfo":{"last_app":"","last_heard":"2018-07-28T18:07:56.936Z","connected":true,"last_handshake_at":"2018-07-28T17:54:47.421Z","deviceID":"my_device_id","product_id":xx}}

Мне нужно настроить свой сервер так, чтобы он автоматически в запрограммированное время, скажем каждые 3 минуты, посылал вышеописанный запрос, ждал ответа и парсил этот JSON ответ, извлекая и сохраняя в отдельный файл вида time_stamp: value всё что после "result" (там сейчас просто уровень освещенности в неких "попугаях").

Я не специалист, но думаю опять же можно написать bash скрипт и вызывать его на моем сервере через cron в установленное время, а потом какой-то второй скрипт(или всё тот же?) дожидается ответа, парсит JSON и добавляет result в нужном формати в какой-то растущий файл. Это может быть python script ну или какой-то иной.

Но возможно есть более элегантное решение? Я еще учусь и конечно там есть какие-то продукты для этого (вроде что-то под node.js но я очень смутно представляю это. Пока читаю, но как обычно хочется бежать быстрее). 



И как в общих чертах может выглядеть script для вышеизложенного?

О влиянии автоматизации и роботизации на занятость

Очень взвешенная и разумная статья Ростислава Капелюшникова (гл.н.с. ИМЭМО РАН, заместитель директора Центра трудовых исследований НИУ ВШЭ) о прошлом и будущем влиянии автоматизации и роботизации на производительность, занятость и оплату труда. Это в пику широкой шумихи в СМИ о возможном робоапокалипсе и "нас всех заменят машины, что делать".

http://polit.ru/article/2017/12/03/labour_market/

Если кратко - всё сложно и скучнее, чем во многих нашумевших статьях. В прошлом не видно однозначных и big effect size эффектов уменьшения занятости при росте автоматизации и роботизации. Правда это сложно замерить и оценить, но есть разные попытки использовать proxy индексы. Не обязателен и скорее всего отсутствует эффект "увеличение производительности труда на величину X ведет к росту безработицы на величину X".

Если упростить, то на высокотехнологичном предприятии действительно меньше рабочих мест, но выше средняя зарплата и это проникает в рост потребления на тех же потреб товары и услуги, где наоборот создаются дополнительные рабочие места, частично или полностью компенсирующие потери рабочих мест на высокотехнологичном предприятии.

Еще очень разные эффекты по разным секторам и зависимости от стадии развития той или иной отрасли (например, зарождение автомобилестроения в начале 20-го века - увеличение автоматизации - бОльший выпуск при всё еще высокой марже на всё еще "роскошь" - рост индустрии и рост рабочих мест. Затем, когда отрасль сильно развилась во второй половине 20го века и маржа сжалась, а автомобиль стал средством передвижения, то тогда роботизация в какой-то мере сократило число рабочих мест в отрасли у самых передовых предприятий (у Тойота к примеру, но вряд ли сильно на АвтоВАЗе).

Еще момент - часто не замещается целиком профессия (например в США с середины 20-го века из-за автоматизации полностью исчезли только операторы лифта), а замещаются некоторые функции профессии (клерки в банках меньше заполняют бумажки, а больше разные templates на компе, но при этом клерки всё равно нужны).

Ну и много чего еще. Короче, не всё так страшно, но это не значит что у всех отраслей и стран и профессии всё будет хорошо. Подробности в статье (лонгрид).

У нас в movement ecology research тоже локально происходит автоматизация - удешевление и автоматизация радиотелеметрии и иной телеметрии и bio-logging, но при этом всё равно нужны люди. /Нельзя просто нажать кнопку и получить данные. При этом возникает острая нужда в более высококвалифицированных пользователях, технических ассистентах, data scientists.

Теплица социальных технологий

Прочитал интервью с Максом Дубининым (NextGIS) здесь, а заодно и узнал о проекте Теплица социальных технологий.



На сайте проекта много чего интересного для меня. Ну например доступно про GitHub


или о проекте Kaggle (место встречи разработчиков по machine learning / AI и работодателей и владельцев баз данных)