怎么用php分组数据,如何分析博客中最流行的编程语言?
为了回答这些问题,我决定做一个 Scrapy 项目,它将收集一些数据,然后对所获得的信息执行特定的数据分析和数据可视化。
第一部分:Scrapy
我们将使用 Scrapy 为我们的工作,因为它为抓取和对该请求处理后的反馈进行管理提供了干净和健壮的框架。我们还将使用 Splash 来解析需要处理的 Javascript 页面。Splash 使用自己的 Web 服务器充当代理,并处理 Javascript 响应,然后再将其重定向到我们的爬虫进程。
我这里没有描述 Scrapy 的设置,也没有描述 Splash 的集成。你可以在这里找到 Scrapy 的示例,而这里还有 Scrapy+Splash 指南。获得相关的博客
第一步显然是获取数据。我们需要关于编程博客的谷歌搜索结果。你看,如果我们开始仅仅用谷歌自己来搜索,比如说查询 “Python”,除了博客,我们还会得到很多其它的东西。我们需要的是做一些过滤,只留下特定的博客。幸运的是,有一种叫做 Google 自定义搜索引擎(CSE)的东西,它能做到这一点。还有一个网站 www.blogsearchengine.org,它正好可以满足我们需要,它会将用户请求委托给 CSE,这样我们就可以查看它的查询并重复利用它们。
所以,我们要做的是到 www.blogsearchengine.org 网站,搜索 “python”,并在一侧打开 Chrome 开发者工具中的网络标签页。这截图是我们将要看到的:
突出显示的是 blogsearchengine 向谷歌委派的一个搜索请求,所以我们将复制它,并在我们的 scraper 中使用。
这个博客抓取爬行器类会是如下这样的:
class BlogsSpider(scrapy.Spider): name = 'blogs' allowed_domains = ['cse.google.com'] def __init__(self, queries): super(BlogsSpider, self).__init__() self.queries = queries与典型的 Scrapy 爬虫不同,我们的方法覆盖了 __init__ 方法,它接受额外的参数 queries,它指定了我们想要执行的查询列表。
现在,最重要的部分是构建和执行这个实际的查询。这个过程放在 start_requests 爬虫的方法里面执行,我们愉快地覆盖它:
def start_requests(self): params_dict = { 'cx': ['partner-pub-9634067433254658:5laonibews6'], 'cof': ['FORID:10'], 'ie': ['ISO-8859-1'], 'q': ['query'], 'sa.x': ['0'], 'sa.y': ['0'], 'sa': ['Search'], 'ad': ['n9'], 'num': ['10'], 'rurl': [ 'http://www.blogsearchengine.org/search.html?cx=partner-pub' '-9634067433254658%3A5laonibews6&cof=FORID%3A10&ie=ISO-8859-1&' 'q=query&sa.x=0&sa.y=0&sa=Search' ], 'siteurl': ['http://www.blogsearchengine.org/'] } params = urllib.parse.urlencode(params_dict, doseq=True) url_template = urllib.parse.urlunparse( ['https', self.allowed_domains[0], '/cse', '', params, 'gsc.tab=0&gsc.q=query&gsc.page=page_num']) for query in self.queries: for page_num in range(1, 11): url = url_template.replace('query', urllib.parse.quote(query)) url = url.replace('page_num', str(page_num)) yield SplashRequest(url, self.parse, endpoint='render.html', args={'wait': 0.5})在这里你可以看到相当复杂的 params_dict 字典,它控制所有我们之前找到的 Google CSE URL 的参数。然后我们准备好 url_template 里的一切,除了已经填好的查询和页码。我们对每种编程语言请求 10 页,每一页包含 10 个链接,所以是每种语言有 100 个不同的博客用来分析。
在 42-43 行,我使用一个特殊的类 SplashRequest 来代替 Scrapy 自带的 Request 类。它封装了 Splash 库内部的重定向逻辑,所以我们无需为此担心。十分整洁。
最后,这是解析程序:
def parse(self, response): urls = response.css('div.gs-title.gsc-table-cell-thumbnail') \ .xpath('./a/@href').extract() gsc_fragment = urllib.parse.urlparse(response.url).fragment fragment_dict = urllib.parse.parse_qs(gsc_fragment) page_num = int(fragment_dict['gsc.page'][0]) query = fragment_dict['gsc.q'][0] page_size = len(urls) for i, url in enumerate(urls): parsed_url = urllib.parse.urlparse(url) rank = (page_num 1) * page_size + i yield { 'rank': rank, 'url': parsed_url.netloc, 'query': query }所有 Scraper 的核心和灵魂就是解析器逻辑。可以有多种方法来理解响应页面的结构并构建 XPath 查询字符串。您可以使用 Scrapy shell 尝试并随时调整你的 XPath 查询,而不用运行爬虫。不过我更喜欢可视化的方法。它需要再次用到谷歌 Chrome 开发人员控制台。只需右键单击你想要用在你的爬虫里的元素,然后按下 Inspect。它将打开控制台,并定位到你指定位置的 HTML 源代码。在本例中,我们想要得到实际的搜索结果链接。他们的源代码定位是这样的:
在查看这个元素的描述后我们看到所找的
有一个 .gsc-table-cell-thumbnail CSS 类,它是 .gs-title的子元素,所以我们把它放到响应对象的 css 方法(46 行)。然后,我们只需要得到博客文章的 URL。它很容易通过'./a/@href' XPath 字符串来获得,它能从我们的直接子元素的 href 属性找到。(LCTT 译注:此处图文对不上)寻找流量数据
下一个任务是估测每个博客每天得到的页面浏览量。得到这样的数据有各种方式,有免费的,也有付费的。在快速搜索之后,我决定基于简单且免费的原因使用网站 www.statshow.com 来做。爬虫将抓取这个网站,我们在前一步获得的博客的 URL 将作为这个网站的输入参数,获得它们的流量信息。爬虫的初始化是这样的:
class TrafficSpider(scrapy.Spider): name = 'traffic' allowed_domains = ['www.statshow.com'] def __init__(self, blogs_data): super(TrafficSpider, self).__init__() self.blogs_data = blogs_datablogs_data 应该是以下格式的词典列表:{"rank": 70, "url": "www.stat.washington.edu", "query": "Python"}。
请求构建函数如下:
def start_requests(self): url_template = urllib.parse.urlunparse( ['http', self.allowed_domains[0], '/www/{path}', '', '', '']) for blog in self.blogs_data: url = url_template.format(path=blog['url']) request = SplashRequest(url, endpoint='render.html', args={'wait': 0.5}, meta={'blog': blog}) yield request它相当的简单,我们只是把字符串 /www/web-site-url/ 添加到 'www.statshow.com' URL 中。
现在让我们看一下语法解析器是什么样子的:
def parse(self, response): site_data = response.xpath('//div[@id="box_1"]/span/text()').extract() views_data = list(filter(lambda r: '$' not in r, site_data)) if views_data: blog_data = response.meta.get('blog') traffic_data = { 'daily_page_views': int(views_data[0].translate({ord(','): None})), 'daily_visitors': int(views_data[1].translate({ord(','): None})) } blog_data.update(traffic_data) yield blog_data与博客解析程序类似,我们只是通过 StatShow 示例的返回页面,然后找到包含每日页面浏览量和每日访问者的元素。这两个参数都确定了网站的受欢迎程度,对于我们的分析只需要使用页面浏览量即可 。
第二部分:分析
这部分是分析我们搜集到的所有数据。然后,我们用名为 Bokeh 的库来可视化准备好的数据集。我在这里没有给出运行器和可视化的代码,但是它可以在 GitHub repo 中找到,包括你在这篇文章中看到的和其他一切东西。
最初的结果集含有少许偏离过大的数据,(如 google.com、linkedin.com、Oracle.com 等)。它们显然不应该被考虑。即使其中有些有博客,它们也不是针对特定语言的。这就是为什么我们基于这个 StackOverflow 回答 中所建议的方法来过滤异常值。语言流行度比较
首先,让我们对所有的语言进行直接的比较,看看哪一种语言在前 100 个博客中有最多的浏览量。
这是能进行这个任务的函数:
def get_languages_popularity(data): query_sorted_data = sorted(data, key=itemgetter('query')) result = {'languages': [], 'views': []} popularity = [] for k, group in groupby(query_sorted_data, key=itemgetter('query')): group = list(group) daily_page_views = map(lambda r: int(r['daily_page_views']), group) total_page_views = sum(daily_page_views) popularity.append((group[0]['query'], total_page_views)) sorted_popularity = sorted(popularity, key=itemgetter(1), reverse=True) languages, views = zip(*sorted_popularity) result['languages'] = languages result['views'] = views return result在这里,我们首先按语言(词典中的关键字“query”)来分组我们的数据,然后使用 python 的 groupby 函数,这是一个从 SQL 中借来的奇妙函数,从我们的数据列表中生成一组条目,每个条目都表示一些编程语言。然后,在第 14 行我们计算每一种语言的总页面浏览量,然后添加 ('Language', rank) 形式的元组到 popularity 列表中。在循环之后,我们根据总浏览量对流行度数据进行排序,并将这些元组展开到两个单独的列表中,然后在 result 变量中返回它们。
最初的数据集有很大的偏差。我检查了到底发生了什么,并意识到如果我在 blogsearchengine.org 上查询“C”,我就会得到很多无关的链接,其中包含了 “C” 的字母。因此,我必须将 C 排除在分析之外。这种情况几乎不会在 “R” 和其他类似 C 的名称中出现:“C++”、“C”。因此,如果我们将 C 从考虑中移除并查看其他语言,我们可以看到如下图:
评估结论:Java 每天有超过 400 万的浏览量,PHP 和 Go 有超过 200 万,R 和 JavaScript 也突破了百万大关。
每日网页浏览量与谷歌排名
现在让我们来看看每日访问量和谷歌的博客排名之间的联系。从逻辑上来说,不那么受欢迎的博客应该排名靠后,但这并没那么简单,因为其他因素也会影响排名,例如,如果在人气较低的博客上的文章更新一些,那么它很可能会首先出现。
数据准备工作以下列方式进行:
def get_languages_popularity(data): query_sorted_data = sorted(data, key=itemgetter('query')) result = {'languages': [], 'views': []} popularity = [] for k, group in groupby(query_sorted_data, key=itemgetter('query')): group = list(group) daily_page_views = map(lambda r: int(r['daily_page_views']), group) total_page_views = sum(daily_page_views) popularity.append((group[0]['query'], total_page_views)) sorted_popularity = sorted(popularity, key=itemgetter(1), reverse=True) languages, views = zip(*sorted_popularity) result['languages'] = languages result['views'] = views return result该函数接受爬取到的数据和需要考虑的语言列表。我们对这些数据以语言的流行程度进行排序。后来,在类似的语言分组循环中,我们构建了 (rank, views_number) 元组(从 1 开始的排名)被转换为 2 个单独的列表。然后将这一对列表写入到生成的字典中。
前 8 位 GitHub 语言(除了 C)是如下这些:
评估结论:我们看到,所有图的 PCC (皮尔逊相关系数)都远离 1/-1,这表示每日浏览量与排名之间缺乏相关性。值得注意的是,在大多数图表(8 个中的 7 个)中,相关性是负的,这意味着排名的降低会导致浏览量的减少。
结论
因此,根据我们的分析,Java 是目前最流行的编程语言,其次是 PHP、Go、R 和 JavaScript。在日常浏览量和谷歌排名上,排名前 8 的语言都没有很强的相关性,所以即使你刚刚开始写博客,你也可以在搜索结果中获得很高的评价。不过,成为热门博客究竟需要什么,可以留待下次讨论。
这些结果是相当有偏差的,如果没有更多的分析,就不能过分的考虑这些结果。首先,在较长的一段时间内收集更多的流量信息,然后分析每日浏览量和排名的平均值(中值)值是一个好主意。也许我以后还会再回来讨论这个。
成都朗沃教育专注IT培训12年,希望该回答对你有帮助!
JAVA已经呈饱和趋势了吗?
年年都传Java已经饱和,可年年还有大量企业在招Java程序员。年年都有人在抱怨一个岗位N多个程序员在竞争能力,可还有很多人奋不顾的投身于Java编程事业中。
到底Java是不是真饱和了?给你详细分析分析!
在我刚开始学Java的时候,身边就有很多人劝我,说学计算机的人太多了,到时候会找不到工作。可现实是这样嘛?NO,我不仅找到工作,而且还是份很不错的工作。所以,工作还是能找到,就看你个人能力如何,给自己一个什么样的定位。
这几年我也见过形形色色各种奇葩的程序员,说句实在话,现在Java程序员虽然多,但大部分人不愿意动脑子,亘古不变的按着原有的方式方法去编程开发。这还算好的,更有甚者,还有很多程序员每天流于拿来主义和伸手主义,明明可以自己度娘一下,却也懒得伸手。更夸张的,有的程序员连基本工具也不会用,看个源码也弄不明白。试问这样的程序员,哪个公司敢招,谁人敢用,不辞你还要养着嘛,大锅饭的时代已经过去了,现在用人机制都是能者上,庸者下,平者让。
如果还有人怀疑Java到底是不是饱和了,你随便前程无忧,智联上搜索一下Java程序员的招聘需求,那个数据是绝对不会骗人的,相信很快你也能知道答案。另外,技术的热门与否从图书和IT市场也可以了解相关信息。
难道Java已经落后了吗?
开玩笑,没听说哪门落后的编程语言,可以在一年之中,牢牢霸占编程语言排行榜的榜首。要知道,Java可是业内公认的编程语言流行榜单,一个月更新一次。所以不需要怀疑,Java当下非但不落后,并且是特别流行的编程语言。
那么为什么还有好多人在说Java程序员已经饱和了呢?
千锋武汉Java培训小编提醒大家仔细看好了,现在不是市场饱和了,而是市场门槛高了而已。虽然从事Java的人越来越多,但绝大部分都为底层技术人员,中高端人才非常少,而底层能够真正干活的人也太少,所以企业的用人标准也比市场最初那几年要严格的多,而且中高端技术人才是行业的断层。
如果你因为找不到工作而四处说Java市场饱和了,那只能证明是你个人出了问题。因为你的能力还达不到企业招聘的要求,而不是这门技术出现问题。有四处抱怨的功夫,还不如抽时间提高一下个人能力。换而言之,于个人而言,只你足够优秀,还需要担心饱和的问题吗?
Java未来会不会饱和?
首先,虽然Java人才越来越多,但是人才缺口也是很大的,我国对Java工程师的需求是所有软件工程师当中需求大的,达到全部需求量的60%-70%,所以Java市场在短时间内不可能饱和。
其次,Java市场不断变化,人才需求也会不断增加。马云说过,未来的制造业要的不是石油,最大的能源应该是数据。不管你是上网购物,还是手机浏览咨询,甚至是政府机构,大型跨国集团系统,银行,背后的庞大的数据处理都是由Java来完成,也正是由于其简单性、可移植性、安全性、动态性等特点,Java成为了服务器端的顶梁柱,保护着网站的一方安全。
几乎90%以上的大中型互联网应用系统在服务器端开发首选Java,据2017年不完全统计全球有25亿Java服务在运行,450多万JavaEE开发者活跃在地球的每个角落。Java在编程世界的地位绝对不容小觑。
而且随社会的脚步的不断发展,Java技术在不断的与时俱进,这也是Java一直长盛不衰的原因之一。从市场需求量来讲,软件开发人员的数量还是跟不上软件需求的发展,而且随着现在比较火的人工智能、大数据hadoop,都是基于Java语言实现的。所以后期对程序员的需求量还是会进一步扩大,也意味着必将需要更多的研发人员投入。
再次,语言都是互通的,编程语言也不例外,有了一门语言的编程基础,再去学习一门新的语言也不会太困难,退一万步,如果有一天Java语言被淘汰了,你也可以很容易的转向到其他语言。每个语言都有一个高速发展的风口,如今Java大数据的风口已经来了,你还要错过吗?倒不如抓住这个机会,给自己的人生来次转型升级。
但不知道从哪入手怎么办?
推荐再装一个wgcloud监控系统
这是一款开源高效的运维监控系统,分布式,轻量实用,集成度高,指标多,部署简单等特点
它在github非常受欢迎,目前有2.6k stars,在码云也有1.2k stars
下面放几张wgcloud效果图
哪个网站的电子书最多?
分享自用、私藏的10个电子书下载网站!
免费、好用、书源还多!有国外网站也有国内网站,都可以正常打开使用!
不仅如此,我还给你推荐了5本书籍,另外为你整理了3个电子书格式转换网站,全部都是大颖的私藏安利!
最后一个网站真的强,还可以选择阅读器,精准进行格式转换!
目录: 一、7个电子书下载网站; 二、5本推荐好书; 三、3个电子书格式转换网站
一、7个电子书下载网站电子书下载网站非常多,如何才能找到免费、好用,还优质的呢?快来看看这10个网站吧!
文中所有的站点,我都为大家整理到一个导航栏里了:除了电子书网站,这个导航栏上还有超级多的有用网站:这个电子书导航栏的获取方式:打开微信,搜索微信公众号【PPT狂想曲】,私信关键词【电子书】就可以啦~1.Free-Ebooks
一个免费提供电子书资源下载的网站。国外网站,但国内可正常使用,借用浏览器自带翻译,浏览更舒适!
可以用浏览器翻译成中文,你也可以在这里上传自己的电子书分享。
分类非常多且详细,不管是小说还是非小说,学术文章还是教科书,经典书籍还是有声读物,都可以在这里找到精确的分类。
需要用电子邮箱注册成会员,才能下载。并且它有一个限制,那就是每个月只能下载5本免费电子书。
支持下载格式:PDF,ePub,Kindle,TXT
2.鸠摩搜索
一个被无数人推荐的电子书搜索、下载网站!
不仅好用,资源还多。对于不同的书籍格式,鸠摩网站还做出了详细分类,让你可以选择自己想要的书籍格式下载!
支持下载格式:PDF,ePub,Kindle,TXT
3.必看网
一个拥有海量书籍资源的网站。
国内外书籍都有,支持搜索、阅读和下载。分类非常详细,涵盖文学名著、心理学、人物传记、小说、历史、经济、哲学等类型。站内会有一些精选专栏,不知道看什么的,可以在专栏里挑选一下。
无需注册,就能免费下载。如果没有找到你想阅读的书籍,还可以使用网站的求书功能。
支持下载格式:TXT
4.苦瓜书盘
一个专门为读者提供免费电子书阅读的网站,手机阅读者必备,因为它提供6寸的pdf格式下载。
里面的书籍资源基本都是由用户分享上传的,所以不会特别多,但是书籍信息全面,会给你展示书籍的作者、简介、格式、大小、以及豆瓣上的评论。
无需注册登录,可以直接下载。
支持下载格式:6寸pdf、mobi等。
5.智奇搜书
一个专业的电子书搜索引擎,堪称全网最全。
它不生产电子书,它只是电子书的搬运工。聚合了多个搜索引擎,可以搜索电子书、纸质书或者二手书,不支持在线阅读。
无需注册登录,直接免费下载。界面简单,搜索也很方便!
支持下载格式:TXT,epub,mobi,pdf,azw等。
6.ePUBee
最大的电子书库,你想要的,基本都可以在这里搜索到!
7.书格
一个有品格的数字古籍图书馆。
没有积分、金币,也不需要注册登录,你就能阅读下载站内任何文件。书格是一个自由、开放、免费的平台,网站已经将1500多套高质量的古籍无偿分享出来,供大家阅读下载。
大多数古书都是PDF格式。如果你喜欢想看高清彩色版的古籍、古画,就可以看看这个网站!
支持下载格式:PDF
二、5本推荐好书太多好书,一辈子都看不完。大颖从自己的书架上,推荐给大家5本书籍,希望你看完之后,有所收获!
文中所有的站点,我都为大家整理到一个导航栏里了:除了电子书网站,这个导航栏上还有超级多的有用网站:这个电子书导航栏的获取方式:打开微信,搜索微信公众号【PPT狂想曲】,私信关键词【电子书】就可以啦~1.《富爸爸穷爸爸》
一本非常经典的理财书籍,连续数年稳居《纽约时报》畅销书榜,被翻译成50多种语言。
书中通过一个个故事,向你讲述理财和投资的观念,适合理财小白们阅读。看完这本书,可能会影响你的金钱观。
如果你想培养良好的财商、投资消费和购房理念,可以去阅读一下。
2.《非暴力沟通》
沟通,是我们日常生活中会遇到的情况。如何才能正确表达自己的想法?如何让别人立马知道你言语中的含义?
这本书,值得一看!
3.《三体》
一本看了就停不下来的小说,作者是刘慈欣。喜欢科幻小说的,一定别错过!
4.《活着》
讲述一个人一生的故事,这是一个历尽世间沧桑和磨难老人的人生感言,是一幕演绎人生苦难经历的戏剧。
先提醒大家,这本书读完之后,会有点沉重,压抑。
改编为同名电影,豆瓣评分9.2分
5.《平凡的世界》
由路遥老师创作的一部百万字长篇巨著,已被改编为同名电视剧。
该书讲述的是中国70年代至80年代发生的事情,呈现当时各阶层普通人的生活。
三、3个电子书格式转换网站我们在下载电子书之后,会遇到格式不支持的问题。分享三个实用的格式转换网站,别忘了收藏哦!
1.All 2 All
目前国内最全面的格式转换平台。
支持200多种格式的文件转换,包括音视频、图片、文档等。其中,网站提供了27种格式的电子书转换!
无需下载,完全免费!在这个网站上处理过的文件,都会在24小时之内删除,安全性高!不过,它仅支持处理10M之内的电子书。
2.免费在线文件转换器
一个提供多种格式转换的在线工具网站。
网站提供17种格式的电子书转换,支持添加文件,也能直接输入网址。
不过,它仅支持转换3M的文件,会员可转换1G的文件。
3.Online ebook converter
一个免费的在线文件转换器。
支持9种格式的电子书转换,虽然不多,但是它功能却比前两个强大一些。
与上面两个网站不同的是,这个格式转换网站可以选择你的阅读工具,还有更改电子书标题,设置字体大小,更改字体等功能。
网站界面非常简洁,不过因为是英文网站,需要大家借助浏览器翻译功能,浏览使用!
文中所有的站点,我都为大家整理到一个导航栏里了:除了电子书网站,这个导航栏上还有超级多的有用网站:这个电子书导航栏的获取方式:打开微信,搜索微信公众号【PPT狂想曲】,私信关键词【电子书】就可以啦~最后
以上均是私藏自用网站,且用且珍惜!
我最近在看一些与工作有关的书,认真看下去,还是很有收获的!只是需要做读书笔记,不然就等于没看!
你最近在读什么书?有什么好书安利吗?
有哪些相见恨晚的在线网站?
分享10个让你大开眼界的网站!全是私藏精品!
超小众,但绝对是真相定理界别,让你看一个爱一个!
01 World68全世界最好用的网站网址,都在这里了!
网站有点简陋,却收集了全世界最厉害的网站,涵盖各个方面,绝对的神器!网站按照不同得导航分类,让你轻松可以找到想看的国家网站!
在这里面全球的知名网站都帮你找好了!
如果你是一名设计师,想要找一些插画的素材,可以去日本版块里找找有没有好用得插画网站:
打开国家中的日本网站,可以轻松地找到设计素材选项,这里超多的插画素材等你来取:
总之,绝对是一个可以让你开眼看世界的网站哦!收藏起来,每天看看收集点小灵感!
本回答的所有网站,我都整理好了,另外还把我自己平时收藏的100多个网站,全部整理好了,做成了一个导航小网站:如果你有需要,可以点击私信,回复关键词【新世界】获取这些网站的网址~
02 fosshub这是一个超级好用的网站!很多知名科技、工具博主的神器都是在这里发掘的!最关键的一点,这里面的所有神器都是开源的!没错,就是你理解的免费!
很精致的一个网页设计,包含无数的神器!工具分类超级全面:
随便点进去一个,都是宝藏!
国内很多好用的收费软件吗,都可以在这里找到免费替换的软件哦!超级好用!我的大部分神器都是在这里发现的!
03 woshipm作为一名新媒体人,运营是必备功力,市面上的运营软件有很多,收藏了很多,每次打开都费半天力气,但这些网站又是必须要看的!如果解决这个问题呢,直到我找到了这个网站:
名字也特别有趣,阿猫阿狗导航,主要是做运营和产品的导航,所有与之有关系的网站都被收录了,并且做了分类!NICE!
个人比较喜欢数据分析板块,几乎我日常需要用到的网站,全部都有了!打开这个网站运营不慌张!从选题到配图到素材再到分析全部具备!小众,但挺好用的!
04 photopea免安装的网页版“ps完美替代者”——Photopea,走红国外!
网页的界面与PS的相似度十分高,这为它强大的功能做了铺垫。利用这个在线网站,你几乎可以实现PS中的全部操作,PS中使用的快捷键,这个里面依然可以使用!
比如一堆人:咱们只需要简单利用智能填充功能,就能轻松的保留主人物:
很方便哦!
总之这个网页,让你告别PS卡顿,再也找不到利用不工作,另外手机版也能直接使用哦!本回答的所有网站,都给你准备好了,点击我的头像,进入私信,回复关键词【新世界】即可获取哦~
05 免费的人工智能做PPT平台这是一个人工智能帮助我们做PPT的平台!
利用这个网站,我们可以轻松地让网站帮助我们生成这样的PPT页面:
还是一整套的哦!不需要手动调整任何参数,一切都是模块化的设计,很方便!简直可以说小白操作了,放进去你的内容,然后生成!
简直是效率神器,还有超多的功能,各位可以自己体验下哦!一定会让你很惊喜!
06 github这个应该算是每天必看的网站了!在这个网站上,可以发现很多有趣的事情!
活动媒体圈的996首发就在这个平台!很强势了!
作为一名不是技术控的人,我还是很喜欢这个网站的!可以获取很多有趣的黑科技!比如我会经常在上面找一些有趣的软件,不仅免费而且超级好用!各位也可以探索下哦~瞬间发现新世界!绝对属于值得每天一逛的网站!
07 idesign众所周知,我是一名PPT设计师,每天逛一些优秀的设计网站,提升审美能力是必须的!但设计网站有很多,而我个人每天都看的网站,当属腾讯家的设计网站——设计导航。
这是腾讯设计师们做的网站,目的是共享一些好的设计灵感和作品,所以上面的每个设计参考都很优秀!网站后期也更新了很多的东西,比如对设计所需要的网站做了分类:
可以很方便进行查找!值得一提的是,这些网站全部来自于专业设计师收集,国内外均有,在灵感的获取方面可以保证每个参考都足够优秀,省去了自己很多的素材查找时间!
另外,网站支持添加自定义订阅源哦~总结起来就是一个超强的设计灵感素材库!如果你是设计师相关行业的人,强烈建议每天看下哈!很多读者反馈,说找不到网站,确实,很多网站太小众了!不过,我都给你准备好了!也做了整理分类,你直接一键导入浏览器就可以了!点击我的头像,进入主页,点击私信,回复关键词【新世界】即可获取~
08 199it超强的数据导航网站,无论你是哪个行业的人员,你都值得每天看下,掌握最新的数据!
你想要的所有数据,都可以在这里轻松获取,从优质图库到分析数据,到电视收视率检测工具,再到AI开源数据,学生论文网站,经济数据等等,全部具备!
比如我任意的点开一个新媒体排行数据,里面就包含很多有趣的网站,满足我们多重新媒体数据查看需求:当你做市场分析的时候,也可以点开这个网站,找到你想要的数据哦!
09 mediumMedium 是一个全球轻量级内容发行的平台,全球优秀的内容创作者都会在这个平台进行内容的更新,如果你想要获取优质的内容,这个平台你一定要看看哈~
内容质量超级高!让你了解全世界有趣的事情!
当你没有写作灵感的时候,可以通过这个网站找好选题哦!
作为一名PPT设计师,我也会从上面找一些灵感,文章写的都超级赞!10 今日热榜我是一名公众号博主,经常要写文章,做运营,追热点,但有热点的平台那么多,该怎么才能及时把握热点并且进行跟踪发文了!
一个一个软件网站翻看的话,不仅浪费时间,而且效率很低,很容易漏热点,如果有一个网站,可以帮助我们实时监控各大平台的热点,而且在电脑端就能完成热点跟踪,每天上班看一看就太好了!
无意间发现这个网站,真的帮助我太多了!这是一个个人开发的小网站,保守估计,开发的人应该也是搞运营的,哈哈所有可能存在热点的平台,全部在监控范围内!
还支持分类,太赞了!比如你是科技媒体的运营,每天花10分钟刷下网站,就知道最热点的事件了!164个科技媒体的热点全部能看到!还能看社区热点:
还能支持直接搜索,很优秀了!
总之如果你是运营或者内容创作者,一定记得每天看看!
至少我是每天都会看,哈哈!上面能发现很多有趣的事情!
看到这里的朋友,估计都是爱学习的人,所以千万不要忘记领取我整理好的这些网站导航。
点击我的头像,进入主页,点击私信,回复关键词【新世界】即可获取~
好了,今天的分享就到这里了,大家还有什么想要的网站,可以在评论区留言哦~