解决Ubuntu18.04/16.04 Cuda10.0.130 cudnn7.3.1 tensorflow1.12 libcusolver.so.9.0: cannot open问题

@[TOC](解决Ubuntu18.04/16.04 Cuda10.0.130 cudnn7.3.1 tensorflow1.12 libcusolver.so.9.0: cannot open问题)

# libcusolver.so.9.0: cannot open问题

源码编译太烦,又容易手贱更新系统软件(软件更新器)然后nvidia-smi就fail to load :driver/library dont match。好吧,我认。重装驱动,ctrl+Alt+F3 load driver,fail,又timeshift了好几回满血复活,他嘛ubuntu就是为了折腾而生。
![nvidia-smi](https://img-blog.csdnimg.cn/20190103222148251.png?x-oss-process=image/watermark,type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3UwMTE0ODYzMDc=,size_16,color_FFFFFF,t_70)
## stackover&github

可能是我一直找错了,找到的都是cuda9.0不行的问题,正确的搜法是

> cuda10 ubuntu tensorflow1.12

https://github.com/tensorflow/tensorflow/issues/22706
没其他坑了,直接给我的系统的解决方案
https://drive.google.com/file/d/1QV7fBi5ZpTm02N1_QbyEhT6v80B6Zffg/view?usp=sharing

```
pip install /path-to-wheel/
```

【第一次使用CSDN】wordpress升级5.0.1后updating fail & publishing fail的解决方法

使用wordpress的原因

闲着无聊

闲暇无事,想学html+js+css,又想练练手就在某天晚上搞了个腾讯云,本来想在本地群辉搭一个wordpress服务器然后内网穿透到云上,但,学校网墙太厚,ngnix老容易断。那就直接到云上呗。 本来腾讯云直接就有wordpress的镜像,本着不折腾不是人的信念打开【腾讯云的1001种玩法】如何使用腾讯云做博客,好吧,搞定了。突然来了个升级按钮,from 4.7.8-5.0.1 一看好美的UI就升了。

wordpress遇到过的bug

1.腾讯云centOS /data/wwwroot/default权限不够问题 2.客户端XML-RPC上传失败问题 3.“偶,糟糕网页不见了” UTF8编码设置问题 以上还好,百度有中文版解答。附上centos Apache、php、mysql默认安装路径 可是下一个 升级5.0.1上传时和update时,updating fail & publishing fail,WTF?黑人问号

可能的 case

How to fix WordPress 5 Publishing failed or Updating failed issue GitHub上大家基本都不是这个问题,大概只有真的从头来一遍才是吧。

My case

找了挺久的Apache&php&Mysql的错误 发现主要错误集中在.htaccess上,结果他说是Apache的问题,那就没问题,找到位置开工,我的文件位置在/usr/local/apache/conf/httpd.conf 从这里找到的。但你们debug的时候别忘记把固定链接换成自定义结构。
nano /usr/local/apache/conf/httpd.conf
改这两个地方
<Directory "/data/wwwroot/default">

    Options Indexes FollowSymLinks
    AllowOverride All
    Require all granted
    
</Directory>
<Files ".ht*">

    Require all granted
    
</Files>
然后
service apache restart
service apache2 restart
service httpd restart
搞定

一个实事求是时代对于发展的影响 ——以东林党的起落与明末党争为例

摘要:明末政坛风起云涌, 自万历中期张居正谢世,沈一贯当政开始,从宣、浙五党之间的斗争,到他们逐步联合与东林的对抗,再到天启年间阉党与东林党的斗争,再到崇祯年间以复社为首的政治运动。无论是五党、阉党,还是东林、复社,作为知识分子,没有一个对事情实事求是的精神,而一头钻研进如何用更小的利益局囿另一群利益共同体。而这种精神,正是现阶段国人所有,且持续需要的。

一、明朝的背景

自唐宋以来,从唐朝的宰相专政到宋朝后期的内忧外患,相权的影子一直萦绕在皇帝的身边,明代开国皇帝朱元璋本人深谙若相权过大势必影响皇帝的行政,于是大力加强皇权,在明清两朝,皇权的合法性及稳定性已毋庸置疑,十大夫再难挑战皇权。

由于朱棣夺帝位得助于宦官,故视他们为亲信,设东厂,由宦官主持。宦官开始取得出使、专征、分镇等大权,为后来的宦官专政提供了条件。宦官专权始于英宗时的王振,后来又有成化年间的汪直专权;武宗时期的刘瑾专权;熹宗时期的魏忠贤专权。到万历之前,已然弄的民不聊生,大明王朝摇摇欲坠。

二、题中实事求是的定义

实事求是是一个时代发展的象征。它本来是一个很古老的词,出自于《汉书·河间献王刘德传》:“修学好古,实事求是”。这个词沉寂了几千年,从四十年前开始,它突然成了高频词,成了当代中国社会治理的基本原则。在今天的人看来,实事求是好像并不难做到。无非就是摆脱空洞的意识形态争论,从现实目标出发,制定对策或政策,真正解决现实中的问题。如果稍微拉开一点视野,无论是从纵向的历史发展来看,还是横向地观察当代各国,真能做到实事求是的国家和政体,其实非常少见,而真正常见的是大多数社会,都被种种虚假和空泛的问题困扰,很难集中精力和资源去解决真实的、甚至是迫在眉睫的问题。

有人群的地方,就会有分歧、有争论。但争论分为两种,一种是不同解决方案之间的争论,另一种是不同价值判断之间的争论。它们的不同之处在于,前者有裁判,会有结果;而后者没有裁判,也就没有结果。

第一种争论是不同解决方案之间的争论。它最大的特点是,争论会有结果。有了结果,在这个问题上,就不再有分歧和争论,大家的注意力就可以转向下一个问题了。社会就这样一步步前进。另外一种争论,就是不同价值判断之间的争论。这种争论,有两个特点。第一,因为没有一个终极的裁判,所以永远争论不完。第二,这种问题,不需要你是专家,任何人都可以站队、表态。谁都可以有自己的一套观点,听起来肯定也都有道理。

三、万事的祸根

明朝中后期。比如嘉靖皇帝时代的“大礼议”,大家争的就是一件事:到底是管皇帝的父亲是叫先皇还是“本生父”。这无疑是意识形态的争论,大家谁都可以对此发表看法,比如你可以引经据典以博取皇帝眼球,让拥有权利的皇帝来挑一个个人喜好的结果,无关痛痒。学者赵轶峰认为:“显然大礼议和嘉靖政治留下了另一种遗产——内阁由士大夫群体拥护的领袖转变为皇权的附庸, 转而凭借在皇帝面前争得个人宠信, 成为中下层士大夫的次等主宰者……一是其权威都来自皇帝的私人宠信, 二是都是玩弄权术的高手, 三是都在权位倾轧中遭受重大挫折。这三个特点在正德以前都不曾趋势性地出现。” 这时,晚明政治的核心皇帝、宦官、士大夫和民众中的前三者已开始慢慢陷入第二种争论中。学者张显清认为:“明代士大夫大规模的门户党争实始于大礼议。”从此开始,官员开始拉帮结派,党争愈演愈烈,都被种种虚假和空泛的问题困扰,很难集中精力和资源去解决真实的、甚至是迫在眉睫的问题,这成为明朝晚期政治中的死结。

四、万历初期的补救

张居正的改革是明代历史一个重要的分水岭,也是最后可以会天契机。改革一共取得了卓越的效果,从财政到边防,从吏治到武备。在改革中,张居正曾严厉驳斥各地官员写文书来取悦皇帝的行为,同时部分限制言论自由,从而振兴人才让从上至下只关注自己的部分,关注自己的工作。据《汉书》“督率教官生儒 ,务将平日所习经书义理 , 着实讲求,躬行实践,以需他日之用。”此后的十年间,小万历听到的是“上下一心”,也确实,风调雨顺,上下共谋发展。在太傅兼首辅张居正实事求是之风盛行的万历初年,社会表面上是一部部进步的,吧明面上的士大夫拉回了正轨一点。但同时改革破坏了既得利益者的利益,同时全面禁止私人讲学使之注定是一个短命的改革。张居正的眼光是短视的,压迫总会带来解放的欲望。在没有战乱的日子里,士大夫开始了弹劾大会,果然,暗地里,大家还是依旧怀揣第二种争论的梦想。东林领袖顾宪成曾说:“外论所是 ,内阁必以为非;外论所非 ,内阁必以为是。’

五、万历十五年前后开始的党争

考察晚明历史不难发现 ,张居正改革失败后不久 ,明王朝内部随即出现了动荡不堪的混乱局面。万历十四年的“国本之争”,万历十五年的“丁亥京察之争” ,万历二十一年的“三王并封” 和“癸巳京察之争” ,标志着一场席卷朝野的政治风暴——晚明党争的到来。晚明党争紧接着张居正改革之后而出现,首当其冲的特性就是明显的地域特征,始于宣、 昆、齐、楚、浙五党。他们虽然是地域划分,但本质是意识形态,因为相同地方出来的在家族、书院、科举等诸多因素上有相似性,利益想逛呢,故形成统一政治倾向。东林党的崛起,和一次皇帝更迭有关,但本质是核心三党的联合并不牢固,且他们和东林党各有利益往来。东林党内派的流氓分子接机打垮三党,又抓住小皇帝登基并控制皇后,使东林党成为一首遮天的大党。阉党魏忠贤上台后,又以更流氓的手法控制当时爱木匠工不理朝政的皇帝,对天下发号施令,各地不问苍生,问魏忠贤,建造生祠这种不增加生产力的无用个产品。民众这个核心也最终沦陷,没有人再会在意实事求是的话题。,同时,注意弹劾的说辞,皇帝在意什么是最重要的,只要皇帝个人反对某种思想,某种行为就会使得党内人想尽办法找对方的漏洞,最终弹劾对方。这是赤裸裸的第二种斗争,没有人关注发展本身,而局囿于思潮,政治,仿佛所有人都忘记了内忧外患,自己一家独大,可以搞这种劳财伤民的政治斗争,明朝国防止步不前。

六、崇祯皇帝的最后一搏

崇祯上台就用他的皇权整蛊了魏忠贤和他的阉党,又下台了崇祯憎恨的被他认为是前朝失败的原因的“结党”的东林党。士大夫终于在皇帝的带动下和内忧外患的胁迫下部分回到实事求是,可因为前车之鉴,人都很忌惮,很多人在抗后金时投后金,抗清时投清,他们对这个国家没有希望了。崇祯用了它能用的实事求是的干将,孙承宗、袁崇焕都是把救火作为第一要务的人。若是辽东战局一直都是在这两位当中,想必是再续数十年。可是人们第二种争论久了,就算皇帝一人忧心回天,还是会有人来以结党、危害国家安危等罪名来弹劾在前的将领。若主元帅死了,我方大乱,很容易就被女真族的铁骑给碾轧。就算国家上下齐力,但关注那些非主要矛盾久了,再也无力回天。

七、晚明党争对今世人的启示

晚明党争的过程里面的是非曲直、忠奸善恶很具备故事性。但问题是,只要稍稍从历史书中抬起头,抽身事外想一想,就会意识到这有多荒谬。当时自然灾害、饥荒、农民造反、满洲的军事威胁等等,这些问题非常严重,但是政治运转就是无法回到“实事求是”的轨道上来。官员们放着生死存亡的大事不顾,执着地争论宫廷案件。

对于这样的价值观争论,作家王小波曾经写过一段话:“在人类的一切智能活动里,没有比做价值判断更简单的事了。假如你是只公兔子,就有做出价值判断的能力——大灰狼坏,母兔子好;然而兔子就不知道九九乘法表。此种事实说明,一些缺乏其他能力的人,为什么特别热爱价值的领域。倘若对自己做价值判断,还要付出一些代价;对别人做价值判断,那就太简单、太舒服了。”这是那篇著名的文章《思维的乐趣》里的话。

放之今日中国,这四十年,中国在改革开放中能够一直奉行“实事求是”的原则,是多么难得的历史机缘。在这个国家里,以前很难做到,在这个时代里,其他国家也很难做到。所谓国运昌隆,这就是其中之一吧。一个国家,从上到下,都真心认同和支持“实事求是”,都在试图定义出真实的问题,然后想办法去解决,推进个人和公共事务的发展,实在是非常难得和宝贵的历史瞬间,值得我们备加珍惜和努力维护。

中通论文结题,内忧外患、上吐下泻

真的想联系古今,可没有那么多知识分子的额人文情怀可以卖,或者说要卖可以,先去看100本书再说。

好吧,内忧外患大概就是CS不能停,兴趣不能放,话题不是断。大气谦和,海纳百川。(突然想起高中校训)

好吧。上吐下泻是指我EF课又有生理原因了。

嗯,文人的游戏真的是仿不来,钦此。

论清华17/18特奖答辩的心情落差。

从一定程度上来讲,清华每年的特奖都是对清华的一次全世界范围内的宣传,最好的雪下的最熬的人,其优秀程度的统一阵列足以证明清华在向着世界超一流大学前进。

从个人角度来讲,我深深被去年的电子系余天呈所震撼,一个健康的身体正确的三观自律合理规划高超的执行力=人生一定意义上的成功。无论是音乐的梦想,需要一个人的努力,而非天生的禀赋。幽默的背后是辛酸,却应之以乐观的心态。优秀的背后是土壤,赶人茁壮成长的环境,令人着迷。

相反那年的陈立杰我并不是很看好,因为他在宣扬一种优秀而必要外露的情感,而这份优秀,在国内无人能敌。我就是我,颜色不一样的烟火。驼背、眼镜框、飞速转动的大脑,跟不上思维的语速,仿佛在证明我已寻得我人生所爱,数据科学家——那个更贴近高中数竞而非信竞的东西。为什么?我不相信宿命论,前十八年的许多成就,真的能让一个人有那么多资本猖狂吗?或许他会很有成就,被更多人赏识,或许爱因斯坦们都应该是怪胎,但爱因斯坦也从未说过:"我的理论需要99%的天分和0.99%的灵感还有0.01%的努力。"嗯,暂时你是最优者,so what?

大概是从清华领军计划考试后才发现自己和这个学校是那么的遥不可及。小时候没有培养好的习惯,高考前的两年世界也不会一一填补,就算是把自己放进那个千锤百炼的磨具里,请上最优秀的铸造大师也无济于事。我不是竞赛的料,也莫为过目不忘马上复述且还有自己思考的学习大师,我大概就是一个普通人,有着七情六欲,至少甚于绝大多数在那时依然被认为是"别人家的孩子"。高考失利,我没有调节自己考前心态的能力。是的,我这18年很失败,很无助,很无法知道为什么,但至少打醒我,知道人外有仙人,山外有仙山。但依旧矜持的是自己的努力在,潜力无限。但陈立杰的特奖告诉我们,那个老生常谈的"周国平"问题普遍存在且有人已然剑走偏锋。"智商的差距,是不可以用努力来弥补的。安慰一下自己:唯一能改变的只有机缘,运气,你猜不到的东西。"

回顾今年特奖答辩,呵,学术造假,3.4绩点前10%,你算的是美院学生高数分数集合交你的绩点吧。指向知乎的目光来回跳动,我内心愤怒学术不端的问题的同时,也惊叹于清华最终开始渲染的氛围:"你们别吵了,我想要的就是你们都和独一无二的应试鬼才看齐,就是要你们和独一无二的大牛比肩,就是要你们厚颜无耻的不能论文造假或作业造假,就在申请材料上造假。"分析那位仁兄的心理想必是显然的,我成绩没那么牛,但我有项目,我有offer,就不能申请特奖吗。呵,清华爸爸首先把你排除在外,没有优秀队伍的统一性,我还不屑看那些二等公民的简历。

往日无风,无从刮起狂风暴雨。特奖的意志是无限下放的,受苦的还不是那些奔波的家长和小孩,乖巧的小孩方成大业,却又有无数小孩从高处落马。人生本无那么多竞争,都是被想象和故事渲染出来的。每到DDL的风口浪尖处,总知过后的风平浪静。我应该是永远不会和清华扯上半毛钱关系,我么能在答题时做出满屏陌生名词,无法承受人的虚伪和佯装带给我的心灵冲击。却也要当一个普通人,放下对某些问题的愤青思维,默默奋斗,到30岁再绽放。

我本以清华为梦,梦破。我当以自己为梦,系国、系社稷、系家、系同伴,仅此而已。

现行最好用的全自动读入

getchar+fread+位运算存入

char ss[1<<17],*A=ss,*B=ss;
inline char gc(){if(A==B){B=(A=ss)+fread(ss,1,1<<17,stdin);if(A==B)return EOF;}return *A++;}
template<class T>inline void read(T&x){
    char c;re y=1;while(c=gc(),c<48||57<c)if(c=='-')y=-1;x=c^48;
    while(c=gc(),47<c&&c<58)x=(x<<1)+(x<<3)+(c^48);x*=y;
}

用法 in BNF

<any type> read(a);

晴天霹雳,早上睡觉被Daniel赶出,oj反编译仍然没有过

这是一个什么世道,想偷懒都被怼,大家都在疯狂想着各种法子来规避偷懒带来的恶果。

然而,大家没有真正看到,一个没有真正做作业的人大概是会躲在背后不说话的,被赶出来的却是一个从不拖欠作业的学生,老师没有火眼金睛,却只是暗自赌气,因为英国人的倔强。

看旧闻上曾坦言无徒,为充分适应青年人的生活,大家普遍不设早课,无耐英国人的福利是不会砸中国实行。

想想睡觉,就是昨天晚上没有早睡,又或是前天晚上没有早睡,如此循环。我都起床了都还不这样。按说如果我是个脾气不好的人,第二天就去找关系跟Daniel怒怼回去,但人家觉得自己在风口浪尖,也不去深究。骇,刚来中国什么都不懂,英国的一套真的很容易遭殃。

继续说我的cs100_hw_5.py,写了两种,oj一个过了6个一个过了12个,总共20个。科科,那我去反编译张启煊的testcase,结果由于反编译的不完整性,也不知道,估计就是反编译的一个漏洞。不知道怎么就index outflow,非常难受。还好有张龙文。❤️

去阳澄湖吃蟹,同时教两个小女孩飞DJI Mavic Pro

这地方是阳澄湖的东南面,和真正捕🦀️的地方还是有些差距,能看到屋子历史的痕迹,像是爷爷辈经历过动荡,但那个村子里的人都保护完好。从朴素的情感上来讲淳朴就是远离城市的复杂,可惜么人找到过真正的桃花源。其实阳澄湖也即是富一点的农村罢了,去了家农家乐,家里种了很多纯天然的菜和马铃薯。在刚进去的时候他们还对我们少许防备,可能是他们有各种原因没有进入城市的怨气。

等到老板娘家里跑出来的两个小女孩,一个是邻居家的小孩,另一个是自己家的,后来才知道两个还是近亲。她们两个很调皮,还是女生捣蛋的时候。她们拿着我的小飞机出去玩了,我正好想玩个3公里的拉锯,当时正好自己改了个耗电的信号增大模块。那刚开始是她们两个玩,后来我玩拉锯了,她们也看着津津有味。再后来就停下来了,老板娘的态度从开始的如临大敌,变成了对我们的热情好客,甚至我们后来知道她的学校里有女同学没做做作业跑出来看飞机,被父母管教的。她们都对这个欣喜若狂。

再之后,我们被家里的爷爷,也就是老板娘的岳父摘🥬、🍎。还7价给我们打折之前的饭。(说明她们的价格就是在坑我们。)

这次出游回上海的时候,母亲开车,有一段很好看的佛像的路,是个集中拜佛的地方。灰夜色降临的时候很庄严肃穆。

所以回忆起来我想说什么呢。一个是农村的精神面貌比我想象中的好,只是时代发展的过程中,城市农村的沟通变少了。另一个是,我在其他国家玩飞机的时候,都会被当地人看成是怪物,特别是在日本岚山JR站旁边,一个日本农民迷信让我停下来,否则神灵就要被亵渎了。总之,中国人,从朴素的情感上,对科技是不排斥且微笑相迎的,很想把一切成果带给所有中国人的那一天到来。

Use python to carry on hw4_3 C++ kernel

做完那个脑残cpp作业以后就对卷积有了很好的印象,,虽然我是一个连线代都没学到的小辣鸡。

下面的程序真的是配置100分钟,运行0.01s 科科,大致就是用库3D卷积。kernel在库里面。

import tensorflow as tf
from tensorflow.python.keras import backend as K
import dropblock
import torch

class DropBlock(tf.keras.layers.Layer):
def __init__(self, keep_prob, block_size, **kwargs):
super(DropBlock, self).__init__(**kwargs)
self.keep_prob = float(keep_prob) if isinstance(keep_prob, int) else keep_prob
self.block_size = int(block_size)

def compute_output_shape(self, input_shape):
return input_shape

def build(self, input_shape):
_, self.h, self.w, self.channel = input_shape.as_list()
# pad the mask
bottom = right = (self.block_size - 1) // 2
top = left = (self.block_size - 1) - bottom
self.padding = [[0, 0], [top, bottom], [left, right], [0, 0]]
self.set_keep_prob()
super(DropBlock, self).build(input_shape)

def call(self, inputs, training=None, scale=True, **kwargs):
def drop():
mask = self._create_mask(tf.shape(inputs))
output = inputs * mask
output = tf.cond(tf.constant(scale, dtype=tf.bool) if isinstance(scale, bool) else scale,
true_fn=lambda: output * tf.to_float(tf.size(mask)) / tf.reduce_sum(mask),
false_fn=lambda: output)
return output

if training is None:
training = K.learning_phase()
output = tf.cond(tf.logical_or(tf.logical_not(training), tf.equal(self.keep_prob, 1.0)),
true_fn=lambda: inputs,
false_fn=drop)
return output

def set_keep_prob(self, keep_prob=None):
"""This method only supports Eager Execution"""
if keep_prob is not None:
self.keep_prob = keep_prob
w, h = tf.to_float(self.w), tf.to_float(self.h)
self.gamma = (1. - self.keep_prob) * (w * h) / (self.block_size ** 2) / \
((w - self.block_size + 1) * (h - self.block_size + 1))

def _create_mask(self, input_shape):
sampling_mask_shape = tf.stack([input_shape[0],
self.h - self.block_size + 1,
self.w - self.block_size + 1,
self.channel])
mask = DropBlock._bernoulli(sampling_mask_shape, self.gamma)
mask = tf.pad(mask, self.padding)
mask = tf.nn.max_pool(mask, [1, self.block_size, self.block_size, 1], [1, 1, 1, 1], 'SAME')
mask = 1 - mask
return mask

@staticmethod
def _bernoulli(shape, mean):
return tf.nn.relu(tf.sign(mean - tf.random_uniform(shape, minval=0, maxval=1, dtype=tf.float32)))

tf.enable_eager_execution()

# only support `channels_last` data format
a = tf.ones([2, 10, 10, 3])

drop_block = DropBlock(keep_prob=0.8, block_size=3)
b = drop_block(a, training=True)

print(a[0, :, :, 0])
print(b[0, :, :, 0])

配置tensorflow anaconda & vscode

直接conda install xxx就好,没有必要每一个都pip 尤其是这种conda环境,又要cuda环境gpu加速的。pytorch 注意要 ==0.4.1!

最后就是环境了(大概只有win和linux有这个需求)

手动滑稽hi
import dropblock

rather than

from dropblock import dropblock

输出结果

2018-12-16 03:07:07.196585: I tensorflow/core/platform/cpu_feature_guard.cc:141] Your CPU supports instructions that this TensorFlow binary was not compiled to use: AVX2
tf.Tensor(
[[1. 1. 1. 1. 1. 1. 1. 1. 1. 1.]
[1. 1. 1. 1. 1. 1. 1. 1. 1. 1.]
[1. 1. 1. 1. 1. 1. 1. 1. 1. 1.]
[1. 1. 1. 1. 1. 1. 1. 1. 1. 1.]
[1. 1. 1. 1. 1. 1. 1. 1. 1. 1.]
[1. 1. 1. 1. 1. 1. 1. 1. 1. 1.]
[1. 1. 1. 1. 1. 1. 1. 1. 1. 1.]
[1. 1. 1. 1. 1. 1. 1. 1. 1. 1.]
[1. 1. 1. 1. 1. 1. 1. 1. 1. 1.]
[1. 1. 1. 1. 1. 1. 1. 1. 1. 1.]], shape=(10, 10), dtype=float32)
tf.Tensor(
[[1.2631578 1.2631578 1.2631578 1.2631578 1.2631578 1.2631578 1.2631578
1.2631578 1.2631578 1.2631578]
[1.2631578 1.2631578 1.2631578 0. 0. 0. 1.2631578
1.2631578 1.2631578 1.2631578]
[1.2631578 1.2631578 1.2631578 0. 0. 0. 1.2631578
1.2631578 1.2631578 1.2631578]
[1.2631578 1.2631578 1.2631578 0. 0. 0. 0.
0. 1.2631578 1.2631578]
[1.2631578 1.2631578 1.2631578 1.2631578 1.2631578 0. 0.
0. 1.2631578 1.2631578]
[1.2631578 1.2631578 1.2631578 1.2631578 1.2631578 0. 0.
0. 1.2631578 1.2631578]
[1.2631578 1.2631578 1.2631578 1.2631578 0. 0. 0.
1.2631578 1.2631578 1.2631578]
[1.2631578 1.2631578 1.2631578 1.2631578 0. 0. 0.
1.2631578 1.2631578 1.2631578]
[1.2631578 1.2631578 1.2631578 1.2631578 0. 0. 0.
1.2631578 1.2631578 1.2631578]
[1.2631578 1.2631578 1.2631578 1.2631578 1.2631578 1.2631578 1.2631578
1.2631578 1.2631578 1.2631578]], shape=(10, 10), dtype=float32)