版權(quán)歸原作者所有,如有侵權(quán),請聯(lián)系我們

人類做不到的事,帝王蟹靠吃就能解決丨好消息合集

果殼
科學(xué)和技術(shù),是我們和這個世界對話所用的語言。
收藏

大型吃草帝王蟹拯救珊瑚礁

受氣候變化、污染、疾病、過渡捕撈等影響,世界各地的珊瑚礁都面臨嚴(yán)重退化。那些珊瑚蟲曾經(jīng)生活的區(qū)域,現(xiàn)在被大量海草所占據(jù)。

佛羅里達(dá)國際大學(xué)的馬克·巴特勒(Mark Bulter)及其研究團(tuán)隊(duì)發(fā)現(xiàn),有種鮮為人知的加勒比帝王蟹(Maguimithrax spinosissimus)對珊瑚礁的生態(tài)有著重大的影響——它們能協(xié)助消滅海草,恢復(fù)珊瑚。

圖 | Dr. Paddy Ryan

這種蟹能吃下數(shù)量驚人的海草,而且速度不亞于任何加勒比地區(qū)的魚類或無脊椎動物。連其他動物避之不及的海草,它們也來者不拒。

進(jìn)一步的實(shí)驗(yàn)表明,在放養(yǎng)了這種螃蟹的區(qū)域,一年后海草的覆蓋面積從85%下降到了50%以下,而對照組則沒有明顯變化;如果先人工清除部分海草,再放養(yǎng)螃蟹的話,則能消滅約80%的海草。沒有引入螃蟹的情況下,人工清除海草只能在短期起效。

永遠(yuǎn)不要小瞧吃貨的力量。

AI無人機(jī)自動評估海岸鯊魚風(fēng)險(xiǎn)

在南加州,曾經(jīng)難得一見的大白鯊,如今開始頻繁出現(xiàn)在靠近岸邊的溫暖水域中,給周邊的海灘帶來了不小安全隱患。

為此,加利福尼亞大學(xué)圣巴巴拉分校的海洋科學(xué)教授與圣地亞哥州立大學(xué)的計(jì)算機(jī)科學(xué)家一起,開發(fā)了名為SharkEye(意為“鯊魚之眼”)的新項(xiàng)目,以便更好地監(jiān)測沿岸水域,并研究鯊魚的遷徙情況。

在該項(xiàng)目中,無人機(jī)按照既定的飛行軌跡,在約37米的高度向下俯視,巡查預(yù)定海域。飛手則從實(shí)時視頻中識別出在該區(qū)域活動的鯊魚,并形成文字信息群發(fā)給指定的救生員、沖浪教練以及海岸邊的居民等,以提前發(fā)出預(yù)警。無人機(jī)拍攝的影像資料還將被輸入電腦,用于訓(xùn)練AI自動識別大白鯊。

此外,這些數(shù)據(jù)還將和海水溫度、海洋動物遷徙情況等數(shù)據(jù)一起納入機(jī)器學(xué)習(xí)模型,在未來,人工智能有望提前預(yù)測鯊魚出現(xiàn)的時間和地點(diǎn),自動評估海灘鯊魚風(fēng)險(xiǎn),讓人與鯊魚更好地分享這片海域。

海岸如此舒適,愿人與鯊魚和平共處。

便攜式太陽能設(shè)備給醫(yī)療器械消毒

為了給醫(yī)療設(shè)備徹底消毒,通常要用到高壓蒸汽。但對于許多條件不發(fā)達(dá)的地區(qū)來說,生產(chǎn)消毒所需的飽和蒸汽(溫度>121°C,壓力>205kPa)是件很難的事。雖然也可以利用太陽能,但往往還得配上昂貴而笨重的光學(xué)部件才行。

麻省理工學(xué)院的科學(xué)家們?nèi)涨伴_發(fā)出了一種新型太陽能裝置,無需復(fù)雜的聚光器就能有效生產(chǎn)飽和蒸汽,十分便攜實(shí)用。

測試中的新型太陽能裝置 | MIT News

該裝置的核心是一層經(jīng)過優(yōu)化的超透明二氧化硅氣凝膠,它能高效地將熱量集中起來,提高局部的熱通量和溫度,以更高的效率將水加熱到高壓釜所需的溫度和壓力。

經(jīng)測試,該裝置只需在陽光下暴曬約10分鐘,就能產(chǎn)生100°C的蒸汽;在現(xiàn)實(shí)環(huán)境中,其能效可達(dá)47%,幾乎達(dá)到以往同類設(shè)備的兩倍。

如果這種低成本的太陽能高壓滅菌器能大規(guī)模投入使用,或許可以大大減輕偏遠(yuǎn)地區(qū)醫(yī)療系統(tǒng)的負(fù)擔(dān),特別是在疫情期間。同時,這種新型的太陽能吸收和轉(zhuǎn)化技術(shù),也有望促生太陽能在發(fā)電、工業(yè)生產(chǎn)以及能量轉(zhuǎn)換、存儲與運(yùn)輸方面的新應(yīng)用。

即便不是疫情期間,日常能用上的話相信也能幫到更多人!

不用眼睛就能“看到”形狀

目前,全球有4000多萬人遭受著失明之苦。多年以來,科學(xué)家一直在尋找能使盲人恢復(fù)視力的神經(jīng)植入物。以往的技術(shù)主要是將植入物放置在視網(wǎng)膜上,刺激視神經(jīng)產(chǎn)生信號,從而讓患者“看”到圖像。然而對于視神經(jīng)受損的患者來說,這種辦法是行不通的。

近期,荷蘭神經(jīng)科學(xué)研究所的科學(xué)家利用新技術(shù),開發(fā)出由1024個電極組成的高分辨率新型植入物。這些電極陣列能將圖像信號轉(zhuǎn)換成電刺激,繞過眼睛和視神經(jīng),直接刺激大腦視覺皮層,與大腦接口,使大腦“看”到圖像。這是目前腦部植入物能取得的最高分辨率。

圖 | pixabay

這項(xiàng)技術(shù)首先在猴子身上完成了驗(yàn)證。研究人員傳輸?shù)娜斯は袼貓D像,幾乎立刻就被猴子識別出了形狀、動作或字母,也就是猴子不用眼睛就“看到”了這些圖像。

在未來,這種技術(shù)可以用于恢復(fù)因視網(wǎng)膜、眼睛或視神經(jīng)問題造成失明,但視覺皮層仍然完好的人的視力,顯著提高他們的自理能力和生活質(zhì)量。

愿所有人都有光明的未來。

拍張照就知道吃下了多少卡路里

計(jì)算自己吃下了多少卡路里,是人們用來控制體重的常見方法之一。

然而,準(zhǔn)確估算食物中含有多少熱量是相當(dāng)困難的。每次看著顧中一老師微博上發(fā)的那一團(tuán)小肉丁,都感覺自己就在瀕臨餓死的邊緣(并不是)。更別提出去下館子時,那些復(fù)雜的菜肴,精致的甜點(diǎn),怎么可能算清卡路里嘛!

好消息是,德國卡爾斯魯厄理工學(xué)院的科學(xué)家用神經(jīng)網(wǎng)絡(luò)模型,制作了一個人工智能程序,只需要拍張照片,它就能相對準(zhǔn)確地計(jì)算出照片中的食物大約含有多少卡路里,甚至無需手動輸入食材分量和配料等信息。

程序識別出的巧克力蛋糕的營養(yǎng)成分表 | 參考文獻(xiàn)5

科學(xué)家通過互聯(lián)網(wǎng)收集了約7萬個食譜(包括食材成分及說明)和與其對應(yīng)的大約30.8萬張圖片,并將食材的營養(yǎng)信息與現(xiàn)有的營養(yǎng)學(xué)數(shù)據(jù)庫進(jìn)行了匹配。

接下來,科學(xué)家利用多任務(wù)機(jī)器學(xué)習(xí)和卷積神經(jīng)網(wǎng)絡(luò)(convolutional neural networks)技術(shù),讓AI學(xué)習(xí)將照片和現(xiàn)有的食譜匹配起來,并估算各種食材的量,最后通過查詢營養(yǎng)學(xué)數(shù)據(jù)庫,將結(jié)果匯總成營養(yǎng)成分表,顯示給用戶。

為了鼓勵大家進(jìn)一步研究,科學(xué)家甚至還公開了生成數(shù)據(jù)集和模型的代碼。

我缺的是計(jì)算熱量嗎,我缺的是毅力(哭。

為聽障人士實(shí)時生成手語視頻

對于聽障人士來說,手語是相當(dāng)常見的溝通方式。但網(wǎng)絡(luò)上的視頻大多沒有配手語,視頻通訊對他們來說也極為不易。

近期,英國薩里大學(xué)的本·桑德斯(Ben Saunders)和同事使用神經(jīng)網(wǎng)絡(luò)技術(shù),制造了一個能將口語轉(zhuǎn)換為手語圖片或形成實(shí)時視頻的AI程序“SignGAN”。

過去此類程序只能生成簡陋的圖形頭像,或是抽象的火柴人動作,傳達(dá)的內(nèi)容難以為聽障人士所理解。

在這次的研究中,科學(xué)家們采用了一個帶有混合密度網(wǎng)絡(luò)(MDN)的AI模型,將口語轉(zhuǎn)換成“火柴人”形狀的身體骨架姿勢。接著,他們再以真人照片作為模板,利用生成式對抗網(wǎng)絡(luò)(GAN)的機(jī)器學(xué)習(xí)AI,將身體骨架姿勢合成為逼真的手語照片,或是連貫的動作視頻。

逼真的手語視頻生成示例,比火柴人好懂多了~ | 參考文獻(xiàn)6

這一研究將大大有助于聽障人士和其他人之間的交流,增加聽障人士在使用語音、視頻溝通方面的便利。

視頻通話的時候如果能用上這個就太方便了!

本期的好消息到此就告一段落了~那么,哪個是你最pick的好消息呢?你最近又看到了哪些想跟大家分享的好消息?

參考文獻(xiàn)

1. Spadaro and Butler. Herbivorous crabs reverse the seaweed dilemma on coral reefs. Current Biology, 2020 DOI: 10.1016/j.cub.2020.10.097

2. When Sharks Turned Up at Their Beach, They Called in Drones,Jackie Snow,https://www.nytimes.com/2020/11/20/science/sharks-drones-artificial-intelligence.html?auth=login-google1tap&login=google1tap

3. Lin Zhao, Bikram Bhatia, Lenan Zhang, Elise Strobach, Arny Leroy, Manoj K. Yadav, Sungwoo Yang, Thomas A. Cooper, Lee A. Weinstein, Anish Modi, Shireesh B. Kedare, Gang Chen, Evelyn N. Wang, A Passive High-Temperature High-Pressure Solar Steam Generator for Medical Sterilization, Joule, Volume 4, Issue 12, 2020, Pages 2733-2745, ISSN 2542-4351, https://doi.org/10.1016/j.joule.2020.10.007.

4. XING CHEN, FENG WANG, EDUARDO FERNANDEZ, PIETER R. ROELFSEMA,Shape perception via a high-channel-count neuroprosthesis in monkey visual cortex,SCIENCE04 DEC 2020 : 1191-1196

5. Robin Ruede1 Verena Heusser1 Lukas Frank1 Alina Roitberg2 Monica Haurilet2 Rainer Stiefelhagen2,Institute for Anthropomatics and Robotics, Karlsruhe Institute of Technology, Germany,Multi-Task Learning for Calorie Prediction on a Novel Large-Scale Recipe Dataset Enriched with Nutritional Information

6. Ben Saunders, Necati Cihan Camgoz, Richard Bowden,Everybody Sign Now: Translating Spoken Language to Photo Realistic Sign Language Video,arXiv:2011.09846

作者:歐剃

編輯:八云