博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
【LintCode 简单】133. 最长单词
阅读量:4088 次
发布时间:2019-05-25

本文共 1323 字,大约阅读时间需要 4 分钟。

1.问题描述:

给一个词典,找出其中所有最长的单词。

 

2.样例:

在词典

{

  "dog",
  "google",
  "facebook",
  "internationalization",
  "blabla"
}

中, 最长的单词集合为 ["internationalization"]

在词典

{

  "like",
  "love",
  "hate",
  "yes"
}

中,最长的单词集合为 ["like", "love", "hate"]

 

3.代码:

遍历两次时,思路就是先第一次遍历字典,求得字典中最长的长度maxlength, 然后第二次遍历中把长度等于maxlength的字符串加入到结果集中。

class Solution:    """    @param: dictionary: an array of strings    @return: an arraylist of strings    """    def longestWords(self, dictionary):        # write your code here        length=len(dictionary)        maxlength=0        for i in range(length):            a=len(dictionary[i])            if a>maxlength:                maxlength=a        ans=[]        for i in range(length):             b=len(dictionary[i])             if b==maxlength:                ans.append(dictionary[i])        return ans

 

遍历一次时,在求maxlength的同时就准备好结果集,当maxlength发生变化时,先要清空ans[]。

 
class Solution: """ @param: dictionary: an array of strings @return: an arraylist of strings """ def longestWords(self, dictionary):     # write your code here     length=len(dictionary)     maxlength=0     ans=[]     for i in range(length):         a=len(dictionary[i])         if a>maxlength:             maxlength=a             del ans[:]             ans.append(dictionary[i])         elif a==maxlength:             ans.append(dictionary[i])     return ans
 

 

 
 

 

 

转载地址:http://rauii.baihongyu.com/

你可能感兴趣的文章
Hadoop — HDFS的概念、原理及基本操作
查看>>
机器学习算法原理解析 - 集成
查看>>
Spark SQL基本概念与基本用法
查看>>
Spark RDD基本概念与基本用法
查看>>
Elasticsearch 6.4基本操作 - Java版
查看>>
Hadoop — Yarn原理解析
查看>>
Storm基本原理概念及基本使用
查看>>
Spark源码剖析 - SparkContext的初始化(三)_创建并初始化Spark UI
查看>>
机器学习算法原理解析 - 聚类
查看>>
Spark源码剖析 - SparkContext的初始化(二)_创建执行环境SparkEnv
查看>>
大数据之统计学基础
查看>>
机器学习算法原理解析 - 分类
查看>>
Spark源码剖析 - SparkContext的初始化(一)
查看>>
Elasticsearch-基础介绍及索引原理分析(转载)
查看>>
机器学习算法原理解析 - 回归
查看>>
Spark源码剖析 - 任务提交与执行
查看>>
Spark源码剖析 - SparkContext的初始化(十)_Spark环境更新
查看>>
Spark源码剖析 - 计算引擎
查看>>
Spark源码剖析 - SparkContext的初始化(四)_Hadoop相关配置及Executor环境变量
查看>>
Spark源码剖析 - SparkContext的初始化(八)_初始化管理器BlockManager
查看>>